Na łamach DWU.TYGODNIKA pisałem już krótko o mechanizmach dezinformacji szczególnie aktywnych w czasie kampanii wyborczych, tym razem wracam do tego zagadnienia przy okazji zbliżających się wielkimi krokami wyborów parlamentarnych. Zanim jednak przejdę do sedna, chciałbym poddać pod rozwagę kwestię dotyczącą realności samego aktu wyboru danego polityka X lub Y. Problem polega na tym, że choć wciąż wydaje nam się, że to my mamy decydujący głos w tej sprawie (przecież sami zakreślamy odpowiedniego kandydata i wrzucamy nasz głos do urny), niejednokrotnie rzeczywistość może okazać się zupełnie inna. Zastanówmy się przez chwilę, dlaczego wybieramy akurat tak, a nie inaczej… Czym kierujemy się w naszym wyborze. I wreszcie, choć może od tego powinienem zacząć – czy faktycznie możemy jeszcze mówić o „naszym wyborze”.
Wiem… Początkowo brzmi to jak kolejna teoria spiskowa, jednak przyjrzyjmy się faktom. Choć w dzisiejszych czasach wydaje się to nieprawdopodobne, wiele osób nadal stara się nie zauważać, że to właśnie media społecznościowe stały się obecnie areną działań propagandowych praktycznie na całym świecie. Dane, zarówno te jawne, jak i tajne często są dosłownie na wyciągnięcie ręki, a brak świadomości realnego zagrożenia powoduje, że wielu użytkowników internetu udostępnia informacje, które jeszcze kilkadziesiąt, a nawet kilkanaście lat temu uzyskać było niezwykle trudno.
Zespół CERT.GOV.PL regularnie ostrzega, że zarówno media społecznościowe, jak i cały internet, są chętnie wykorzystywane z jednej strony do wspomagania konwencjonalnych działań militarnych i wywiadowczych, a z drugiej właśnie do celów propagandowych i szeroko pojętej dezinformacji.
Przez chwilę wydawało się, że przełom w tej sprawie nastąpił po nagłośnieniu afery wokół systemu PRISM. Zgodnie z informacjami przekazanymi wówczas mediom przez Edwarda Snowdena, od 2007 roku służby specjalne zbierały dane z serwerów m.in. Google, Facebook, Yahoo, Paltalk, AOL, Skype, YouTube i Apple. Nie trzeba chyba nikogo przekonywać, że dostęp do tego typu danych oznaczał, że służby specjalne mogą dowiedzieć się o internautach dosłownie wszystkiego począwszy od gustu muzycznego czy kulinarnego przez upodobania seksualne, aż po zainteresowania i hobby, zwłaszcza te mogące stanowić zagrożenie dla bezpieczeństwa kraju.
W tym miejscu należy postawić pytanie, dlaczego taki stan rzeczy może być niebezpieczny dla użytkowników mediów społecznościowych, a zwłaszcza wyborców. Odpowiedzi na to pytanie nie musimy wcale szukać zbyt daleko…
Programowanie wyborcy – teoria i praktyka
Wróćmy na chwilę do roku 2018. Wówczas na całym świecie zrobiło się głośno o brytyjskiej firmie konsultingowej Cambridge Analytica zajmującej się m.in. marketingiem politycznym. Z pozoru nic nadzwyczajnego, gdyby nie fakt, że wiodącym elementem strategii całej firmy było wykorzystanie mechanizmów analizy behawioralnej użytkowników mediów społecznościowych. Konkretnie chodziło o profilowanie użytkowników pod kątem ich wyborczych preferencji. Ta wiedza natomiast dawała potężne możliwości wpływania na ich późniejsze polityczne decyzje na niezliczonych płaszczyznach. Począwszy od możliwości stworzenia programu wyborczego i kandydata, który mówiłby tylko to, co wyborcy chcieliby usłyszeć, a skończywszy na możliwości dodarcia z przekazem do wszystkich osób o zbliżonych do tak wykreowanego kandydata poglądach.
Główny problem afery Cambridge Analytica było to – i na tym skupiły się media – że dane milionów zwykłych użytkowników bez ich wiedzy trafiły do prywatnej firmy. Tymczasem był to jeden z najbardziej spektakularnych przykładów na absolutny brak świadomości użytkowników mediów społecznościowych. Nie jest żadnym odkryciem, że różne aplikacje pozyskują nasze dane, tymczasem użytkownicy wciąż zachowują się niezwykle nieostrożnie. Podsycani wewnętrzną potrzebą wirtualnego ekshibicjonizmu wrzucają do sieci wiele informacji na swój temat twierdząc przy tym, że „nie mają nic do ukrycia”.
Okazuje się jednak, że „nic do ukrycia” to w rzeczywistości niezwykle cenne danymi, którymi nie pogardziłoby wiele firm i organizacji politycznych. Na tym robi się biznes, z tego korzysta świat wielkiej polityki, zwłaszcza w kontekście wyborów. Doskonale wiemy, że nie od dziś w kampaniach wyborczych używa się różnego rodzaju zabiegów socjotechnicznych, a wizerunek polityków często kreowany jest właśnie na podstawie badania opinii. To jeden z filarów kampanii PR. Od lat politycy i ich sztaby zamawiali i zamawiają sondaże, jednak wraz z rozwojem internetu, a zwłaszcza mediów społecznościowych poczyniono gigantyczne postępy w dziedzinie profilowania potencjalnych wyborców. Będące już na wyciągnięcie ręki dane, ocierające się niekiedy skalą o Big Data , są w dzisiejszym świecie niezwykle łakomym kąskiem. Za sprawą afery wokół Cambridge Analytica, po raz kolejny wróciła debata dotycząca bezpieczeństwa w internecie i prawa do prywatności. Dla wielu użytkowników mediów społecznościowych szokujące było to, że informacje dotyczące ich poglądów, preferencji politycznych, to nie była tajna wiedza, którą ktoś podstępnie ukradł, ale były to dane, które często sami wrzucali na swoje profile. Eksperci zajmujący się cyberbezpieczeństwem słusznie podkreślali, że działania Cambridge Analytica nie ocierały się o żadną „czarną magię”. Był to współczesny marketing wykorzystujący potencjał profilowania internautów.
Jeśli ktoś nadal nie wierzy w skuteczność tego mechanizmu, proponuję prosty eksperyment. W wyszukiwarce internetowej proszę wpisać kilka dowolnych słów (mogą to być nazwy owoców, jakieś produkty codziennego użytku, lub nawet tytuły książek). Procedurę można powtórzyć po kilku minutach, a następnie wrócić do przeglądania stron internetowych. W pewnym momencie reklamy na portalach i w mediach społecznościowych oraz specjalne teksty sponsorowane zaczną coraz bardziej odpowiadać wynikom wyszukiwania, a tym samym naszym preferencjom.
Teraz wyobraźmy sobie, jak proste jest przeniesienie tego mechanizmu na marketing polityczny i wykorzystanie zbieranych niemal zewsząd mniej lub bardziej legalnie danych do opracowywania analiz behawioralnych potencjalnych wyborów, a także testowania reakcji na zmiany na przykład w wizerunku kandydata, jego programie, lub strategii. Możliwość gromadzenia danych na ten temat oraz monitorowania przebiegu skuteczności lub nieskuteczności kampanii, praktycznie w czasie rzeczywistym to jeden z największych przełomów w marketingu politycznym.
Opisany wyżej mechanizm to zaledwie jeden z przykładów wykorzystania potencjału mediów społecznościowych w kontekście kampanii wyborczej. Gdy dodamy do tego jeszcze cały wachlarz metod propagandowych i dezinformacyjnych otrzymujemy mieszankę iście wybuchową.
Dezinformacja 2.0 – internetowy trolling to przeżytek
Na łamach DWU.TYGODNIKA ostrzegałem już przed zagrożeniem użycia w kampanii wyborczej tysięcy sztucznych kont obsługiwanych przez specjalnie opracowane w tym celu boty. W tym właśnie kontekście całkiem uzasadnione jest stwierdzenie, że internetowy trolling to już przeżytek. Nie chodzi jednak o to, że mechanizm trollingu zanika – wręcz przeciwnie! On ewoluuje. Zamiast etatowych siewców propagandy i fake newsów, do gry wchodzi oprogramowanie automatyzujące cały proces i powodujące w konsekwencji, że skala dezinformacji może być znacznie większa, przy jednoczesnym obniżeniu kosztów całego procederu. Gdy do tego dodamy jeszcze informacje o opartych na sztucznej inteligencji technologiach przetwarzania tekstu, mamy już obraz skali zagrożenia. Nie jest to wcale science-fiction. Na przykład Associated Press wykorzystuje już od pewnego czasu depesze wygenerowane przez komputerowy program. Problem pojawia się jednak wtedy, gdy zdolny generować treści będące w zasadzie nie do odróżnienia od tekstu dziennikarskiego oprogramowanie i boty zostaną wykorzystane w celu manipulacji i dezinformacji. Groziłby nam wówczas zalew fake newsami na skalę, której dotąd nawet nie przewidywano. W połączeniu z tzw. sztucznymi kontami za którymi stoją armie botów nadzorowane jedynie przez „czynnik białkowy” – człowieka, zagrożenie jest całkowicie realne.
W tym miejscu nie sposób nie wspomnieć o aplikacji, która w ostatnim czasie wywołała ogromne zamieszanie na całym świecie. FaceApp, bo o niej mowa, daje możliwość modyfikowania wprowadzanych do niej zdjęć dzięki wykorzystaniu sztucznych sieci neuronowych. Zmianie może ulegać wygląd (kolor włosów, okulary, zarost), wiek, a nawet płeć osób widocznych na zdjęciach.
Wraz ze wzrostem zainteresowania samą aplikacją, pojawia się coraz więcej ostrzeżeń przed bezrefleksyjnym udostępnianiem swoich zdjęć. Niewinna z pozoru zabawa i rozrywka kryje bowiem wiele zagrożeń. Jednym z pierwszych argumentów podnoszonych przez ekspertów ds. cyberbezpieczeństwa jest rosyjski rodowód samej aplikacji – serwery twórców apki znajdują się w… Petersburgu. Kolejnym, znacznie poważniejszym zagrożeniem jest niezwykle niejasna polityka prywatności.
Czym może grozić dostęp do milionów zdjęć internautów korzystających z tego typu aplikacji? Jednym z kluczowych zagrożeń w tym kontekście jest możliwość wykorzystania zarówno samych zdjęć, jak i możliwości ich dowolnego przerabiania i wprowadzania zmian w wizerunku do tworzenia całej armii sztucznych kont, wykorzystywanych na szeroką skalę w internetowym trollingu i machinie dezinformacji.
Choć opisane powyżej mechanizmy to zaledwie wierzchołek góry lodowej w kontekście zagrożeń, z którymi musimy się zmierzyć w mediach społecznościowych przed wyborami, po raz kolejny staje się jasne, że kluczem do odporności na dezinformację jest świadomość wszystkich użytkowników, a w zasadzie świadomość każdego z nich / z nas z osobna…
Dr Piotr Łuczuk
Medioznawca, ekspert ds. cyberbezpieczeństwa.
Adiunkt w Katedrze Internetu i Komunikacji Cyfrowej Uniwersytetu Kardynała Stefana Wyszyńskiego w Warszawie. Ekspert Instytutu Staszica.