Era cyfrowa ułatwiła wszystkim dostęp do informacji i stworzyła globalną sieć. Ta wielka zmiana ma jednak dobre i złe strony. Platformy, które nas wzmacniają, ułatwiają również szybkie rozprzestrzenianie się fałszywych informacji, dezinformacji, a nawet mowy nienawiści, tworząc skomplikowany i często niebezpieczny ekosystem informacyjny. Według raportu Światowego Forum Ekonomicznego 2024 Global Risks Report dezinformacja jest największym globalnym zagrożeniem w perspektywie krótkoterminowej. To pokazuje, że musimy bardzo pilnie zająć się tym problemem. W tym środowisku nie wystarczy tylko cyfrowe zaufanie; musi być ono bezpieczne, niezawodne i uczciwe. Bardzo ważne jest, aby systemy cyfrowe były przejrzyste pod względem sposobu działania i prezentowania informacji. Pomaga to użytkownikom w podejmowaniu świadomych decyzji i poruszaniu się po środowisku. Dotyczy to również zachowania konsumentów. Badanie Edelman Trust Barometer z 2022 r. wykazało, że 81% konsumentów twierdzi, że zaufanie do marki jest ważnym czynnikiem przy podejmowaniu decyzji o zakupie. Pokazuje to, że społeczeństwo jako całość chce autentyczności i uczciwości we wszystkich interakcjach, w tym cyfrowych. Ten artykuł mówi, że projektowanie User Experience (UX) i User Interface (UI) są bardzo ważne, ale często ludzie nie zdają sobie sprawy z ich znaczenia. Wybory projektowe mogą albo utrudnić budowanie zaufania, albo pomóc stworzyć przestrzeń, w której ludzie mogą czuć się pewnie i mieć jasność co do rzeczy. Może to pomóc ludziom w korzystaniu z Internetu i zwalczaniu problemu wielu fałszywych informacji. Platformy cyfrowe zmieniają się bardzo szybko. Wydaje się, że dzieje się to szybciej niż można stworzyć zasady i zabezpieczenia dla użytkowników. Oznacza to, że w większości przypadków pojawiające się problemy są rozwiązywane po ich wystąpieniu. Ponadto modele ekonomiczne stosowane przez wiele platform cyfrowych, w których zaangażowanie użytkowników jest traktowane priorytetowo, mogą nie działać dobrze z celami zachęcania do prawdziwego zaufania i powstrzymywania rozprzestrzeniania się fałszywych lub wprowadzających w błąd informacji. Oznacza to, że zaufanie zmienia się z czegoś, czego użytkownicy oczekują, ale o czym nie mówią, w coś, czego aktywnie szukają w usługach cyfrowych.
Aby mieć bezpieczne i niezawodne doświadczenie online, musimy zaufać technologii i zrozumieć, jak działa. Bardzo ważne jest, aby projektanci rozumieli te filary, jeśli chcą tworzyć lepsze doświadczenia cyfrowe, które są bardziej przyjazne dla użytkowników.
Zaufanie cyfrowe oznacza przekonanie, że interakcje i transakcje online są bezpieczne, niezawodne i uczciwe. Zaufanie to nie jest abstrakcyjne; zależy od dwóch rzeczywistych rzeczy: po pierwsze, upewnienia się, że osoba lub firma online jest naprawdę tym, za kogo się podaje; a po drugie, upewnienia się, że ma prawo robić rzeczy, które chce robić, co jest bardzo ważne w transakcjach finansowych. Zostało to opisane jako "cyfrowy uścisk dłoni" - rzecz, której nie widać, ale której naprawdę potrzebujesz, szczególnie w świecie, w którym coraz więcej z nas kontaktuje się zdalnie.
Zaufanie cyfrowe jest często ustanawiane i utrzymywane poprzez analizę czterech kluczowych elementów: wzorców zachowań użytkowników, weryfikatorów biometrycznych (takich jak Face ID lub skany odcisków palców), charakterystyki używanego urządzenia i informacji o adresie IP. Elementy te pomagają tworzyć cyfrowe profile, które mogą być regularnie aktualizowane w celu sprawdzenia i oceny ryzyka. Bardzo ważne jest, aby mieć zaufanie do technologii cyfrowej, ponieważ wokół jest wielu oszustów i wyłudzaczy. Bardzo ważne jest, aby ludzie czuli się bezpiecznie podczas korzystania z bankowości internetowej lub robienia zakupów. Zaufanie cyfrowe jest bardzo ważne dla firm i banków. Zapobiega kradzieży pieniędzy z kont i ułatwia klientom dokonywanie zakupów. Jak twierdzą eksperci, zaufanie jest najważniejszą rzeczą w interakcji użytkowników ze stronami internetowymi. Jest jednak pewien problem. Musimy być w stanie ufać sobie nawzajem, a to może utrudniać życie użytkownikom. Cyfrowe systemy zaufania próbują rozwiązać ten problem, przeprowadzając analizę wiarygodności "w tle", dzięki czemu wszystko staje się prostsze.
W kontekście UX przejrzystość projektu oznacza upewnienie się, że użytkownicy rozumieją, w jaki sposób podejmowane są decyzje systemowe, zwłaszcza gdy sztuczna inteligencja lub algorytmy mają duży wpływ na wyniki. Oznacza to tworzenie interfejsów, które jasno wyjaśniają, co robi system, jego ograniczenia i dlaczego podejmuje decyzje, które podejmuje. Ludzie powinni rozumieć, co się dzieje, gdy korzystają z usługi i nie powinni dowiadywać się później lub z innych źródeł, że ich dane zostały udostępnione lub wykorzystane w niewłaściwy sposób.
Badania konsumentów, zwłaszcza w Ameryce Północnej, pokazują, że ludzie zazwyczaj chętnie dzielą się danymi osobowymi, jeśli dokładnie wiedzą, w jaki sposób zostaną one wykorzystane i mają kontrolę nad ich udostępnianiem. Większość użytkowników oczekuje, że ich dane pozostaną na ich własnym koncie i nie zostaną przeniesione do innych witryn bez ich wiedzy. Ponadto użytkownicy często oczekują, że pozostaną anonimowi, dopóki nie zdecydują się udowodnić, kim są. Kiedy te oczekiwania są łamane - na przykład, gdy aplikacja zakupowa działa w tle nawet po jej zamknięciu lub gdy usługa zna Twoją lokalizację bez pytania - naturalne jest, że czujesz się nieufny. Pokazuje to, że często istnieje różnica między tym, jak użytkownicy myślą o prywatności danych (na przykład o silosach danych), a tym, jak wiele systemów cyfrowych faktycznie działa (na przykład sieci reklamowe, które śledzą użytkowników w różnych witrynach).
Przejrzystość to nie tylko cecha projektu; jest to ważna część upewnienia się, że projektowanie AI i UX jest etyczne. Obejmuje to otwartość na temat oferowanych usług, zasad wykorzystywania danych i oczekiwań użytkowników. Ludzie chcą większej przejrzystości, a to staje się coraz bardziej skomplikowane wraz z rozwojem technologii. Kiedyś chodziło tylko o prywatność danych, ale teraz chodzi o zrozumienie, w jaki sposób algorytmy podejmują decyzje, co jest znacznie trudniejsze dla projektowania UX. W tym miejscu pojawia się wyjaśnialna sztuczna inteligencja (XAI).
Internet ma wiele zalet, ale ma też problemy. Aby skutecznie projektować przeciwko temu, kluczowe jest zrozumienie różnic między dezinformacją, dezinformacją i dezinformacją, ich powszechnymi formami i mechanizmami - często ułatwianymi przez wybory UI / UX - które umożliwiają ich rozprzestrzenianie się.
Dezinformacja to fałszywa informacja, która jest rozpowszechniana przypadkowo. Osoba je rozpowszechniająca nie chce wyrządzić szkody. Na przykład, jeśli ktoś podzieli się plotką bez sprawdzenia jej prawdziwości lub jeśli w raporcie prasowym popełniono błąd, liczy się to jako dezinformacja. Dezinformacja jest nie tylko niedokładna; jest celowo tworzona i rozpowszechniana w celu oszukania i wyrządzenia poważnych szkód. Może to robić rząd lub grupa, która nie jest rządem, i może to mieć negatywny wpływ na prawa człowieka, utrudniać rządom reagowanie lub pogarszać napięcia społeczne. Bloger rozpowszechnia fałszywe informacje, gdy celowo kłamie na temat faktów naukowych, aby teoria spiskowa wydawała się prawdziwa. Dezinformacja jest czymś innym, ale powiązanym. Obejmuje ona informacje oparte na faktach, ale wykorzystywane poza ich oryginalnym kontekstem w celu wprowadzenia w błąd, wyrządzenia szkody lub manipulacji.
Te szerokie kategorie można zaobserwować w różnych formach "zaburzeń informacyjnych", w tym:
Projekt tych platform ma na celu uczynienie ich bardziej przyjemnymi i angażującymi dla użytkowników, ale ma odwrotny skutek i ułatwia rozprzestrzenianie się fałszywych informacji. Algorytmy mediów społecznościowych często wyświetlają treści na podstawie tego, ile osób je lubi, udostępnia lub komentuje, a nie na podstawie tego, czy są one prawdziwe lub dobre. Może to prowadzić do niezamierzonego rozpowszechniania silnych emocjonalnie, szokujących lub kontrowersyjnych materiałów. Obejmuje to fałszywe lub wprowadzające w błąd informacje, które często cieszą się dużym zainteresowaniem. Na przykład, przyglądając się bliżej algorytmowi Twittera, stwierdzono, że wyświetla on więcej treści nacechowanych emocjonalnie i wrogich wobec innych grup niż zwykły kanał o odwróconej chronologii.
Algorytmy personalizacji mogą również sprawić, że treści online będą bardziej dopasowane do indywidualnego użytkownika, ale czasami może to sprawić, że doświadczenia online ludzi będą węższe. W tych starannie zaprojektowanych przestrzeniach użytkownicy widzą głównie informacje, które pasują do tego, w co już wierzą. Chroni ich to przed różnymi punktami widzenia i wzmacnia ich uprzedzenia. Oznacza to, że są bardziej skłonni wierzyć w rzeczy, które potwierdzają to, co już myślą. Sposób, w jaki platformy te są zaprojektowane, ułatwia również szybkie i szerokie rozprzestrzenianie się informacji, często zanim osoby weryfikujące fakty będą w stanie je zweryfikować. Badania wykazały, że fałszywe wiadomości mogą rozprzestrzeniać się szybciej i szerzej niż prawdziwe.
Jeszcze gorzej jest, gdy strony internetowe próbują oszukać użytkownika za pomocą "ciemnych wzorów". Te podstępne sztuczki projektowe mogą nakłonić użytkowników do robienia rzeczy, które nie są dla nich dobre, co może sprawić, że będą bardziej skłonni uwierzyć w błędne informacje, powodując ich dezorientację i nieufność. Na przykład mogą pojawiać się jako ukryte reklamy, które wyglądają jak treści redakcyjne, lub mogą używać podstępnych sformułowań w monitach i powiadomieniach. Natychmiastowość mediów społecznościowych prowadzi do natychmiastowych, często emocjonalnych reakcji, a nie do przemyślanej analizy. To "zwarcie informacyjne" oznacza, że fałszywe informacje mogą się szybko rozprzestrzeniać. Nawet jeśli nie wyjaśnisz, w jaki sposób moderujesz treści, ludzie mogą pomyśleć, że je cenzurujesz, co sprawi, że będą mniej skłonni ci zaufać. Na przykład używanie "notatek społecznościowych" jako sposobu na walkę może, co zaskakujące, zaostrzyć sytuację i podzielić ludzi na posty, które powodują kłótnie.
Fakt, że dezinformacja może być wszystkim, od całkowicie zmyślonych do prawdziwych informacji, które są prezentowane w sposób wprowadzający w błąd, oznacza, że potrzebujemy inteligentnych sposobów wykrywania i radzenia sobie z nimi. Używanie tylko jednego rozwiązania projektowego prawdopodobnie nie zadziała przeciwko tak zróżnicowanym zagrożeniom. Co więcej, sposób projektowania rzeczy może pogorszyć wpływ dezinformacji na umysły ludzi, wykorzystując nasz sposób myślenia, na przykład sprawiając, że widzimy tylko te informacje, które potwierdzają to, w co już wierzymy. Tworzy to cykl, w którym użytkownicy napotykają coraz więcej fałszywych informacji, zaczynają nie ufać wszystkim źródłom informacji, w tym tym, które są rzeczywiście prawdziwe. Może to spowodować utratę zaufania publicznego.
Upewnienie się, że ludzie mogą zaufać narzędziom cyfrowym, z których korzystają, jest nie tylko ważne, ale absolutnie niezbędne. Jest to coś, co jest naprawdę ważne, aby upewnić się, że narzędzia są łatwe w użyciu. Dobrze znane metody Jakoba Nielsena i Bena Shneidermana, którzy jako jedni z pierwszych badali sposób, w jaki ludzie korzystają z komputerów, zapewniają solidną strukturę do tworzenia doświadczeń użytkownika, które są łatwe do zrozumienia, jasne i sprawiają, że ludzie czują się pod kontrolą. Pomaga to stworzyć poczucie niezawodności i bezpieczeństwa.
10 Heurystyk Użyteczności Nielsena zawiera kompletną listę rzeczy, które należy wziąć pod uwagę przy projektowaniu godnych zaufania interfejsów. Najważniejsze z nich to:
Osiem Złotych Zasad Projektowania Interfejsów Shneidermana również wspiera te idee. Podkreślają one dążenie do spójności, umożliwienie skrótów dla częstych użytkowników, oferowanie informacji zwrotnych, projektowanie dialogów w celu zamknięcia (np. potwierdzenia działań), oferowanie prostej obsługi błędów, pozwalanie na łatwe odwrócenie działań, wspieranie wewnętrznego umiejscowienia kontroli (sprawiając, że użytkownicy czują, że są dowodzeni) i zmniejszanie obciążenia pamięci krótkotrwałej. Wszystkie te zasady współpracują ze sobą, aby stworzyć doświadczenie, które jest bezpieczne, przewidywalne i wzmacniające. Te rzeczy są bardzo ważne, aby użytkownicy zaufali platformie.
Istnieje kilka ważnych przekonań, które pomagają stworzyć godny zaufania UX:
Oczywiste jest, że podstawowa użyteczność nie polega tylko na tym, jak łatwo jest z czegoś korzystać. W rzeczywistości jest to ważna część budowania zaufania. Jeśli system jest trudny w użyciu, nieprzewidywalny lub pełen błędów, ludzie nie będą mu ufać, nawet jeśli ma funkcje, które sprawiają, że łatwo mu zaufać. Wiele funkcji "budujących zaufanie" to w rzeczywistości tylko sposoby zapobiegania błędom i odzyskiwania po nich. Zasady te są stosowane w szerszym kontekście upewniania się, że informacje są poprawne i że użytkownicy mogą robić to, co chcą. "Emocjonalne bicie serca interakcji użytkownika" sugeruje, że zaufanie opiera się nie tylko na rozsądku, ale jest również w dużym stopniu zależne od tego, jak użytkownik doświadcza emocji, które są następnie kształtowane przez te podstawowe zasady UX.
Przejrzystość w projektowaniu UX oznacza, że procesy i źródła informacji są jasne i łatwe do zrozumienia dla użytkownika. Obejmuje to kilka ważnych elementów, takich jak oznaczanie typów treści i źródeł oraz wyjaśnianie, w jaki sposób algorytmy podejmują decyzje i jak wykorzystywane są dane.
Oznaczenie typu i źródła treści. "Kto" i "co" w informacji.
W dzisiejszym świecie, w którym dostępnych jest wiele informacji, użytkownicy często mają trudności z rozróżnieniem różnych rodzajów treści. Należą do nich obiektywne wiadomości, opinie, dogłębne analizy, treści sponsorowane (znane również jako reklama natywna), treści generowane przez użytkowników (UGC) i oficjalne oświadczenia. To zamieszanie jest głównym powodem, dla którego rozprzestrzeniają się fałszywe informacje, a ludzie przestają ufać mediom. Dlatego tak ważne jest posiadanie dobrych strategii UX w zakresie etykietowania.
Bardzo ważne jest używanie jasnych etykiet, takich jak "Opinia", "Analiza", "Treści sponsorowane", "Reklama", "Generowane przez użytkowników" lub "Wiadomości". Federalna Komisja Handlu (FTC) twierdzi, że jasne zwroty, takie jak "Reklama" lub "Sponsorowane treści reklamowe" są lepsze niż potencjalnie mylące zwroty, takie jak "Promowane". Wskazówki wizualne sprawiają, że wszystko jest bardziej przejrzyste. Mogą to być różne czcionki, kolory tła dla opinii, ikony lub plakietki (np. dymek dla opinii, tag zakupowy dla treści sponsorowanych) oraz spójny układ i rozmieszczenie etykiet. Jeśli chodzi o reklamę natywną, informacje muszą być łatwe do znalezienia, jasne i oczywiste. Gazety takie jak The New York Times i The Guardian zawierają reklamy natywne, które są wyraźnie oznaczone. Platformy mediów społecznościowych często używają tagów "Sponsorowane" lub "Promowane". Ponadto, gdy używamy wiadomości z innych mediów (takich jak AP lub Reuters), ważne jest, aby powiedzieć, skąd pochodzą. Pomaga to czytelnikom odróżnić wiadomości tworzone w naszych własnych redakcjach od wiadomości pochodzących z zewnątrz. Możemy to zrobić, używając nazwisk dziennikarzy, którzy je napisali lub dodając notatki na końcu artykułu. Jeśli używasz treści stworzonych przez kogoś innego, powinieneś powiedzieć, kto je stworzył. Zazwyczaj odbywa się to poprzez podanie nazwy użytkownika lub jego profilu.
Inicjatywy takie jak The Trust Project pracują nad tym, aby sygnały te były takie same dla wszystkich. Oferują one osiem wskaźników zaufania, w tym "Rodzaj pracy", który zachęca serwisy informacyjne do stosowania jasno określonych etykiet w celu odróżnienia opinii, analiz i treści reklamowych od faktycznych doniesień prasowych. Witryny informacyjne, takie jak The Beacon, wprowadziły je z klikalnymi etykietami, które zawierają definicje, pomagając użytkownikom znaleźć wiarygodne źródła wiadomości.
Przejrzystość algorytmów: Wyjaśnienie "Dlaczego to?"
Ponieważ sztuczna inteligencja staje się coraz ważniejsza w cyfrowym świecie, ważne jest, aby użytkownicy rozumieli, w jaki sposób te systemy podejmują decyzje, zwłaszcza gdy mają one poważne konsekwencje. Jest to bardzo ważne, aby ludzie mogli zaufać platformom opartym na sztucznej inteligencji. Wzorce UX dla eXplainable AI (XAI) obejmują "Explainable AI Interfaces", które zapewniają jasne powody rekomendacji lub działań (np. LinkedIn wyjaśniający sugestie dotyczące pracy) oraz "Ethical Transparency Panels", które szczegółowo opisują wykorzystanie danych, środki uczciwości i wysiłki na rzecz złagodzenia stronniczości. Inne podejścia obejmują wyświetlanie wyników zaufania lub "mierników zaufania", aby pomóc użytkownikom zrozumieć, jak wiarygodne są informacje generowane przez sztuczną inteligencję. W przypadku generatywnej sztucznej inteligencji podejścia te pokazują kroki podjęte lub źródła wykorzystane do wygenerowania wyniku.
Ludzie chcą wiedzieć, w jaki sposób ich dane osobowe są gromadzone, wykorzystywane i udostępniane, a także chcą mieć kontrolę nad tymi procesami. Samo linkowanie do długiej polityki prywatności nie wystarczy. Najlepszym sposobem na to jest używanie jasnego, prostego języka, udzielanie wyjaśnień w momencie gromadzenia danych, oferowanie szczegółowych kontroli preferencji dotyczących danych (opt-in/opt-out) oraz tworzenie specjalnych pulpitów prywatności, w których użytkownicy mogą łatwo zarządzać swoimi ustawieniami.
Ludzie muszą mieć jasność co do zasad platformy, sposobu ich tworzenia oraz tego, jak odwołać się, jeśli ich treści są moderowane lub jeśli ich konto zostanie ukarane. Ważne jest, aby publikować jasne zasady w prostym języku, który każdy może zobaczyć. Powinieneś także otwarcie mówić o tym, co robisz, aby egzekwować zasady, w tym o tym, co się stanie, jeśli ich nie przestrzegasz i jak się odwołać. Reddit jest tego dobrym przykładem, ponieważ informuje użytkowników, dlaczego ich treści zostały usunięte i jak się od tego odwołać. Wreszcie, ważne jest, aby zgłaszanie i odwoływanie się było łatwe i aby wyjaśnić, dlaczego stworzyłeś zasady.
Skuteczna przejrzystość polega na tym, że użytkownicy są w stanie zrozumieć informacje i z nich korzystać, a nie tylko na udostępnianiu informacji. Polityka prywatności, która jest długa i pełna żargonu, choć jest sposobem na ujawnienie informacji, nie jest skuteczna, jeśli użytkownicy nie mogą jej zrozumieć lub działać na jej podstawie. Wyzwanie związane z osiągnięciem takiej przejrzystości zależy od stopnia złożoności systemu. Wyjaśnienie prostego wykorzystania danych jest znacznie łatwiejsze niż wyjaśnienie decyzji podejmowanych przez zaawansowaną sztuczną inteligencję lub drobnych szczegółów polityki redakcyjnej globalnej organizacji informacyjnej. Oznacza to, że rozwiązania w zakresie przejrzystości muszą opierać się na sytuacji i zmieniać się wraz z rozwojem technologii. Ponadto uczynienie sygnałów takich jak te sugerowane przez The Trust Project takimi samymi dla wszystkich może naprawdę zmniejszyć wysiłek potrzebny użytkownikom do ich zrozumienia, ale działa to tylko wtedy, gdy wiele osób z nich korzysta i upewnia się, że działają dobrze. Istnieje również problem w obszarach takich jak reklama natywna. W tym przypadku pragnienie, aby wszystko dobrze pasowało, może kolidować z potrzebą jasnego, niemożliwego do pominięcia ujawnienia. Może to mieć bezpośredni wpływ na możliwość oszukania użytkownika.
Projektowanie UX odgrywa bezpośrednią rolę w aktywnym zwalczaniu dezinformacji poprzez ograniczanie zwodniczych praktyk i promowanie umiejętności użytkowników. Oznacza to, że projektanci muszą przestrzegać pewnych zasad, aby upewnić się, że ich produkty są bezpieczne.
Mroczne wzorce to projekty UI/UX celowo stworzone, aby oszukać lub zmanipulować użytkowników do podjęcia działań, których nie zamierzali, często przedkładając cele biznesowe nad dobre samopoczucie i autonomię użytkownika. Typowe przykłady obejmują "wkradanie się do koszyka" (dodawanie przedmiotów do koszyka bez zgody), "motel karalucha" (łatwe do zarejestrowania, trudne do anulowania), "przynętę i zamianę" (obiecywanie jednego wyniku, ale dostarczanie innego), "confirmshaming" (wykorzystywanie poczucia winy do wywierania presji na użytkownikach) oraz "ukryte koszty" ujawniane późno w transakcji. Takie praktyki z natury podważają zaufanie użytkowników. Tworząc mylące, manipulacyjne i niegodne zaufania środowisko, mroczne wzorce mogą również sprawić, że użytkownicy będą bardziej podatni na inne formy oszustwa, w tym dezinformację. Projektanci ponoszą znaczną odpowiedzialność etyczną za świadome unikanie tych taktyk i zamiast tego priorytetowo traktują autonomię użytkownika i świadomą zgodę we wszystkich interakcjach. Oznacza to, że zwalczanie dezinformacji polega nie tylko na dodawaniu funkcji wykrywania lub oznaczania fałszywych treści, ale także na usuwaniu elementów projektu, które z natury wykorzystują lub wprowadzają użytkowników w błąd.
Projektanci UX nie są neutralni; decydują o tym, jak ludzie doświadczają usług cyfrowych. Ich praca ma bezpośredni wpływ na to, jak zachowują się użytkownicy, co rozumieją i jakie jest ich samopoczucie. Ta odpowiedzialność dotyczy nie tylko pojedynczego użytkownika. Ma ona również wpływ na społeczeństwo. Na przykład, jak projektowanie wpływa na dyskusję publiczną i jak łatwo jest znaleźć wiarygodne informacje. Etyczne projektowanie UX koncentruje się na tym, aby rzeczy były jasne, łatwe w użyciu i zachęcały ludzi do zaangażowania. Nie używa sztuczek ani nie wykorzystuje danych użytkowników.
Oznacza to, że musimy upewnić się, że ludzie rozumieją, jak projektować dobre UX. Każdy kurs UX UI designer musi uczyć etyki. Obejmuje to specjalne części kursu dotyczące rozpoznawania i unikania wzorców manipulacyjnych, rozumienia zasad prywatności danych (takich jak RODO), radzenia sobie z uprzedzeniami algorytmicznymi, projektowania pod kątem dostępności i patrzenia na szerszy wpływ wyborów projektowych na społeczeństwo. Edukacja ta powinna dać projektantom umiejętności podejmowania decyzji właściwych dla ludzi i środowiska oraz zachęcania innych osób w ich organizacji do robienia tego samego. Obejmuje to również nauczanie projektantów rozumienia mediów cyfrowych, aby mogli zrozumieć ekosystem informacyjny, który pomagają kształtować.
Era cyfrowa, z jej łatwym dostępem do informacji, przyniosła również wiele dezinformacji, co miało duży wpływ na to, jak ludzie ufają usługom cyfrowym. Niniejszy raport pokazał, jak ważne jest zaufanie cyfrowe i przejrzystość projektu w radzeniu sobie z tym skomplikowanym środowiskiem. Zaufanie cyfrowe, gdy użytkownicy mogą ufać, że systemy online są bezpieczne i niezawodne, oraz przejrzystość projektu, gdy użytkownicy mogą zobaczyć, jak działają systemy i podejmować decyzje, są teraz niezbędne, aby użytkownicy czuli się pewnie i zachowywali się etycznie w Internecie.
Wiele sposobów rozprzestrzeniania się fałszywych informacji, od przypadkowo fałszywych do celowych, jest pogarszanych przez wybory dotyczące sposobu projektowania interfejsu użytkownika i doświadczenia dla stron internetowych i aplikacji. Wybory te sprawiają, że ludzie mogą szybko udostępniać rzeczy bez sprawdzania ich prawdziwości, co może prowadzić do szybkiego rozprzestrzeniania się wielu fałszywych informacji. Istnieje kilka podstawowych zasad UX, które pomagają tworzyć interfejsy, którym użytkownicy mogą zaufać. Zostały one wyjaśnione przez Nielsena i Shneidermana. Sugerują oni, że interfejsy powinny być spójne, dawać użytkownikom kontrolę i zapewniać jasne informacje zwrotne.
Projektowanie pod kątem przejrzystości oznacza, że rzeczy, których normalnie nie widać, można zobaczyć. Oznacza to wyraźne oznaczanie, skąd pochodzą treści i jakiego są typu. Oznacza to również ułatwienie zrozumienia przyczyn algorytmów za pomocą wzorców XAI. Oznacza to posiadanie zasad wykorzystania danych, które są łatwe do zrozumienia i które dają użytkownikom rzeczywistą kontrolę. Oznacza to również upewnienie się, że procesy moderowania treści są jasne i uczciwe. Środki te wykraczają poza zwykłe udostępnianie informacji, aby pomóc użytkownikom zrozumieć i podjąć działania.
Bardzo ważne jest stosowanie etycznych praktyk UX w celu zwalczania dezinformacji. Obejmuje to aktywną walkę z manipulacyjnym projektowaniem, promowanie umiejętności korzystania z mediów poprzez podpowiedzi i etykiety sprawdzające fakty oraz nauczanie etyki jako części projektowania UX i praktyki zawodowej. Praca projektanta UX zmienia się. W przeszłości tworzyli oni użyteczne interfejsy. Teraz są odpowiedzialni za integralność informacji i dobrobyt społeczny.
W przyszłości rozwój zaawansowanej sztucznej inteligencji będzie oznaczał, że będziemy musieli jeszcze bardziej skupić się na przejrzystym i skoncentrowanym na człowieku projektowaniu. Projektanci muszą radzić sobie z nieuczciwymi taktykami i wyzwaniami związanymi z wdrażaniem rozwiązań, które mogą być używane przez wiele osób, jednocześnie radząc sobie z ciągłym problemem wyboru między ujawnianiem wszystkiego a łatwością użytkowania. Najważniejszymi narzędziami w tworzeniu cyfrowej przyszłości, w której ludzie mogą ufać temu, co widzą, nawet w przypadku dezinformacji, są zasady etycznego projektowania. Zapewniają one, że potrzeby użytkowników są priorytetem, że ludzie są świadomi tego, co kupują oraz że wszystko jest jasne i łatwe do zrozumienia. Podróż wymaga współpracy wszystkich, aby upewnić się, że jest dobrze zaprojektowana.