Człowiek kontra maszyna. Fenomen ChatGPT i pierwszy krok do pełnej automatyzacji dezinformacji

Browse By

ChatGPT od kilku tygodni skupia na sobie uwagę mediów z całego świata. Jeśli ktoś jeszcze nie słyszał o tym fenomenie spieszę z wyjaśnieniami. Aplikację ChatGPT opracowała amerykańska firma OpenAI. Bot służy m.in. do tworzenia odpowiedzi na pytanie lub polecenia wprowadzane przez użytkownika. Aplikacja potrafi jednak wykonać bardziej złożone zadania, na przykład napisać opowiadanie. Najnowszą wersję narzędzia udostępniono do publicznych testów w listopadzie ub.r. ChatGPT stał się bardzo popularny wśród użytkowników Internetu. W ciągu pierwszych dni od udostępnienia skorzystało z niego kilka milionów osób. Od tego czasu, obserwujemy już efekt kuli śnieżnej, która nabiera rozpędu. Wraz z upowszechnieniem się na tak dużą skalę aplikacji opartej o sztuczną inteligencję, jak bumerang wrócił temat związanych z tym zagrożeń. A jest ich niemało…

Szybko okazało się, że ChatGPT świetnie zdaje humanistyczne egzaminy. W Polsce poradził sobie bez trudu z egzaminem ósmoklasisty i maturą. W USA zdał biznesowy MBA i poradził sobie też z trzyetapowym amerykańskim egzaminem lekarskim. A to jeszcze nie wszystko. Każdego dnia pojawiają się kolejne mniej lub bardziej kreatywne pomysły na wykorzystanie aplikacji. Uczniowie w Holandii zaczęli używać ChatGPT do odrabiania prac domowych. Okazało się, że nauczyciele nie byli w stanie odróżnić wypracowań napisanych przez algorytm od tych, które pisali uczniowie. Z kolei w ramach eksperymentu naukowcy z Northwestern University w Chicago (USA) z pomocą ChatGPT wygenerowali abstrakty publikacji naukowych. Co się okazało… W co trzecim przypadku osoby ankietowane nie potrafiły odróżnić tekstu przygotowanego przez narzędzie od napisanego przez człowieka. Publikowane są już nawet eksperymentalne artykuły naukowe, w których wprost informuje się o wykorzystaniu tej aplikacji przy konstrukcji i korekcie tekstu.

Zajmując się naukowo kwestiami automatyzacji wielokrotnie przytaczałem opinię Martina Forda wizjonera z Doliny Krzemowej, który przekonywał, że wiele zawodów w najbliższej przyszłości zastąpią algorytmy i roboty. Tu nasuwa się proste pytanie. Czy ChatGPT zastąpi dziennikarzy? Obawia się tego Henry Williams, freelancer zajmujący się tworzeniem tekstów, który w rozmowie z „The Guardian” ujawnił, że ChatGPT napisał artykuł w zaledwie 30 sekund. Tekst wymagał jedynie niewielkiej korekty, jednak po redakcji był tekstem, za którego napisanie dziennikarz zażądałby od redakcji 500 funtów (ok. 615 dolarów).

Postanowiłem pójść za ciosem i „porozmawiać” chwilę z ChatGPT. Spytałem bota czy sztuczna inteligencja może napisać lepszy artykuł do gazety niż człowiek. Muszę przyznać, że bot okazał się niezłym dyplomatą. Stwierdził, że „w pewnych sytuacjach sztuczna inteligencja może napisać lepszy artykuł do gazety niż człowiek”, jednak zaznaczył, że „sztuczna inteligencja nie jest w stanie zrozumieć niuansów ludzkich emocji i doświadczeń, co może utrudniać jej pisanie artykułów”, które są naprawdę wciągające z punktu widzenia czytelników.

Dziennikarze mogą zatem odetchnąć z ulgą. Przynajmniej na razie.

Ukryty potencjał sztucznej inteligencji

Z najnowszych informacji wynika, że Microsoft Corp zainwestuje 10 miliardów dolarów we współpracę z OpenAI (właściciela ChatGPT). Microsoft planuje wykorzystać go do ulepszenia swoich usług, m.in. przeglądarki Bing i rzucić wyzwanie dominującej na świecie przeglądarce Google.

Warto w tym miejscu przypomnieć, że Microsoft i OpenAI współpracują już od 2016 r. Więc informacja o inwestycji dodatkowych środków w tym obszarze nie powinna być raczej dla nikogo zaskoczeniem. Celem inwestycji miałaby być m.in. integracja Chat GPT z wyszukiwarką Microsoftu, która z roku na rok powiększa swój udział w rynku, ostatnio z 7,2 do 9 proc. Od 10 lat niekwestionowanym liderem w tym segmencie jest oczywiście wyszukiwarka firmy Alphabet – czyli Google, z której korzysta 84 proc. internautów na świecie. O ile szanse na detronizację wyszukiwarki Google są raczej niewielkie (tam też implementowane są rozwiązania bazujące na sztucznej inteligencji), o tyle szacuje się, że gdyby jednak inwestycja Microsoftu zaowocowała podwojeniem udziału wyszukiwarki Bing na rynku, to przy utrzymaniu marży z reklam na poziomie Google przychody koncernu mogłyby wzrosnąć rocznie o ok. 35 miliardów dolarów.

Sztuczna inteligencja zamknie nas w bańce informacyjnej?

Jeśli zestawimy powyższe informacje i dodamy 2 do 2, otrzymamy dość niepokojący wynik… Może się bowiem okazać, że implementacja algorytmów opartych o sztuczną inteligencję do najpopularniejszych wyszukiwarek oraz mediów społecznościowych, a także całego sektora mediów elektronicznych będzie stanowić poważne zagrożenie. Chodzi o możliwość zamknięcia użytkowników internetu w bańce informacyjnej.

Bańka filtrująca (ang. filter bubble) jest efektem spersonalizowanego wyszukiwania, gdzie użytkownik nie ma możliwości zobaczenia wszystkich wyników wyszukiwania (na przykład w internetowej wyszukiwarce), a tylko te które „chciałby zobaczyć.” W podobny sposób tworzone są spersonalizowane „inteligentne kanały informacyjne” sieci społecznościowych, które domyślnie zastąpiły wydarzenia chronologiczne na Facebooku, Twitterze itp. Algorytm filtrowania opiera się na informacji o lokalizacji użytkownika, czy historii jego wyszukiwań. Inteligentne kanały informacyjne sieci społecznościowych uwzględniają reakcje na posty, wyłączając domyślnie z następnych przeglądów te posty, na które użytkownik poprzednio nie zareagował. Od dnia 4 grudnia 2009 Google „personalizuje” wszystkich użytkowników, ale można korzystać z „wyszukania zaawansowanego» (advanced search) z samodzielnie ustawionymi filtrami. Istnieją wyszukiwarki, gdzie spersonalizowane wyszukiwanie jest niemożliwe (na przykład DuckDuckGo). W ustawieniach Facebooka można zmienić „inteligentny kanał informacyjny” na chronologiczny, ale w następnej sesji ustawienia zostaną przywrócone do „inteligentnej taśmy”.

Termin filter bubble został wprowadzony w 2010 roku przez internetowego aktywistę Eli Parisera, który ostrzega, że „użytkownicy funkcjonując w „bańkach informacyjnych” mają blokady na nowe pomysły, obiekty i ważne informacje”. Według niego użytkownicy są odizolowani od informacji, która nie zgadza się z ich punktem widzenia.

Wykorzystywanie tego mechanizmu na szerszą skalę jest niezwykle niebezpiecznym zjawiskiem, jednak w tym kontekście warto pochylić się także nad zjawiskiem fake newsa definiowanego jako rodzaj fałszywej wiadomości, najczęściej utrzymanej w dość sensacyjnym tonie. O wiele ważniejsze jest jednak nie tyle zdefiniowanie samego fake newsa, co poznanie intencji wprowadzenia tego rodzaju treści do obiegu informacyjnego.

Tu właśnie pojawia się duże pole do nadużyć w zakresie wykorzystania algorytmów opartych o sztuczną inteligencję. Oczywiste jest, że sztuczną inteligencję można zaprogramować tak, aby analizowała dane, prowadziła badania i zbierała informacje w sposób wydajniejszy i dokładniejszy niż człowiek. Dodatkowo sztuczną inteligencję można zaprogramować do pisania w określonym stylu, dzięki czemu doskonale nadaje się do niektórych rodzajów artykułów, takich jak te, które wymagają wysokiego poziomu wiedzy technicznej lub naukowej. Ostatecznie skuteczność artykułu prasowego lub naukowego napisanego przez sztuczną inteligencję będzie zależała od konkretnego zadania i programowania systemu sztucznej inteligencji.

Pierwsze efekty algorytmowej rewolucji dostrzegamy już w świecie nauki. Prestiżowy francuski Instytut Nauk Politycznych (Science Po) poinformował, że zakazuje studentom posługiwania się sztuczną inteligencją ChatGPT. Złamanie zakazu grozi karą usunięcia z uniwersytetu lub zakazu podejmowania studiów na uczelniach wyższych.

Korzystanie ze sztucznej inteligencji, o ile nie jest częścią procesu „pedagogicznego zainicjowanego przez wykładowcę”, będzie uznawane za popełnianie plagiatu i zostaje „ściśle zabronione” – głosi list wysłany przez władze Science Po do wszystkich studentów i pracowników naukowych instytutu.

W połowie grudnia ubiegłego roku, kilka tygodni po udostępnieniu przez kalifornijski start-up OpenAI programu (chatbota) ChatGPT, osiem australijskich uniwersytetów ogłosiło, że modyfikuje proces egzaminacyjny, ponieważ wykorzystywanie przez studentów sztucznej inteligencji uczy ich oszukiwania.

Kwestia wykorzystania ChatGPT w edukacji i nauce wzbudziła zainteresowanie polskiego rządu. Szef MEiN Przemysław Czarnek na konferencji prasowej odniósł się do korzystania ze sztucznej inteligencji i tzw. chatbotów, które pomagają uczniom w nauce, a w niektórych przypadkach piszą za nich wypracowania. Minister był pytany, czy w związku z tym, że systemy antyplagiatowe nie wyłapują tych naruszeń, resort planuje przeciwdziałać temu zjawisku. Minister Czarnek zwrócił uwagę, że każdy postęp ma swoje dobre i złe strony.

„Pisanie wypracowań z nowoczesnego programu i chatu, który sam to wypracowanie poda i nie jesteśmy nawet w stanie sprawdzić, czy jest to plagiat, czy nie, jest rodzajem oszustwa”.

– oświadczył minister edukacji i nauki Przemysław Czarnek.

Do tych kwestii odniósł się również szef polskiego rządu w jednym z odcinków swojego podcastu. Mateusz Morawiecki zwraca uwagę, że takie programy jak ChatGPT, czy generalnie rozwój sztucznej inteligancji, może rodzić uzasadnione poczucie lęku jak zmieni się życie całych społeczeństw. Czy na przykład pracownicy będą zastępowani przez maszyny.

„Ale zagrożenia jakie niesie ze sobą rozwój AI są o wiele poważniejsze i pytanie o jej wpływ na przyszłość człowieka, to nie tylko wspomniane zagrożenia dla rynku pracy, ale też pytanie o bezpieczeństwo, albo pytanie o wolność, o zakres wolności” – zauważył premier.

Sztuczna Inteligencja pomoże w walce z dezinformacją

W ramach eksperymentu postanowiłem oddać „głos” samej aplikacji. Na potrzeby tej dzisiejszej analizy postanowiłem sprawdzić, jak ChatGPT poradzi sobie z opdowiedzią na kilka pytań.

Pytanie 1: Jak sztuczna inteligencja może pomóc w walce z dezinformacją?

Sztuczna inteligencja może pomóc w walce z dezinformacją poprzez:

  • Wykrywanie i filtrowanie fałszywych informacji: algorytmy sztucznej inteligencji mogą analizować i oznaczać fałszywe lub wprowadzające w błąd treści w czasie rzeczywistym.
  • Monitorowanie mediów społecznościowych: sztuczna inteligencja może monitorować i analizować duże ilości danych z mediów społecznościowych, aby identyfikować i śledzić rozprzestrzenianie się dezinformacji.
  • Identyfikowanie fałszywych kont: sztuczna inteligencja może wykrywać fałszywe lub złośliwe konta na platformach społecznościowych i usuwać je.
  • Wspieranie weryfikacji faktów: sztuczna inteligencja może pomóc osobom weryfikującym fakty, dostarczając im odpowiednich informacji i danych w celu zweryfikowania dokładności twierdzeń.
  • Poprawa umiejętności korzystania z mediów: narzędzia oparte na sztucznej inteligencji mogą pomóc w edukacji użytkowników w zakresie rozpoznawania dezinformacji i przeciwdziałania jej, zapewniając im umiejętności krytycznego myślenia i edukację w zakresie umiejętności korzystania z mediów.

Co ciekawe poza wyliczeniem potencjalnych pól eksploatacji sztucznej inteligencji w obszarze walki z dezinformacją ChatGPT przyznał, że „sztuczna inteligencja nie jest panaceum na dezinformację i musi być stosowana w połączeniu z innymi środkami”, takimi jak kampanie na rzecz umiejętności korzystania z mediów i niezależne sprawdzanie faktów (fact checking), aby skutecznie zwalczać rozpowszechnianie fałszywych informacji na różnych poziomach.

Druga strona medalu: sztuczna inteligencja w służbie dezinformacji

Skoro ChatGPT dowodzi, że sztuczna inteligencja może z powodzeniem wspierać proces walki z dezinformacją, warto zastanowić się, czy algorytm dostrzega również związane z tym zjawiskiem zagrożenia. Trzeba przyznać, że ta druga strona medalu budzi uzasadnione obawy…

Pytanie 2: Czy sztuczna inteligencja może zostać użyta w celu rozpowszechniania fake newsów i dezinformacji?

Tak, sztuczna inteligencja może zostać użyta do rozpowszechniania fake newsów i dezinformacji poprzez:

  1. Generowanie fałszywych treści: AI (ang. artificial intelligence) może użyć sztucznej inteligencji do generowania fałszywych informacji, takich jak fotomontaże i dezinformacyjne treści tekstowe.
  2. Zautomatyzowane konta na platformach społecznościowych: AI może zautomatyzować proces tworzenia i działania kont na platformach społecznościowych, aby rozpowszechniać fałszywe informacje.
  3. Usprawnianie algorytmów rekomendacji: AI może zostać wykorzystane do manipulowania algorytmami rekomendacji, aby promować dezinformację i fałszywe treści.

W związku z tym, że sztuczna inteligencja może być wykorzystywana i często już jest wykorzystywana w ramach zakrojonych na szeroką skalę kampanii dezinformacyjnych, niezwykle istotne jest, aby ściśle monitorować i regulować jej zastosowanie, szczególnie w odniesieniu do możliwości rozpowszechniania dezinformacji na masową wręcz skalę.

Pytanie 3: Czy da się wykryć udział sztucznej inteligencji w procesie dezinformacji?

Tak, istnieją pewne metody wykrywania udziału sztucznej inteligencji w procesie dezinformacji, w tym:

  1. Analiza stylistyczna: analiza stylistyczna może wykryć niezgodności między stylistyką i językiem używanym przez konkretne konto i jego treścią, co może wskazywać na udział sztucznej inteligencji w generowaniu treści.
  2. Analiza tematyczna: analiza tematyczna może wykryć, czy treść jest generowana automatycznie na podstawie określonego schematu, co może sugerować udział sztucznej inteligencji.
  3. Analiza czasowa: analiza czasowa może wykryć, czy treść jest generowana w bardzo krótkim czasie, co może wskazywać na udział sztucznej inteligencji.
  4. Porównanie z bazą danych: porównanie treści z bazą danych znanych fake newsów i dezinformacji może pomóc w wykryciu udziału sztucznej inteligencji.

Niestety wymienione przez ChatGPT metody nie są 100% skuteczne i wraz z rozwojem algorytmów sztucznej inteligencji coraz trudniej jest jednoznacznie określić, czy treść jest generowana przez sztuczną inteligencję, czy też nie. Dlatego właśnie kluczowe jest, aby w połączeniu z innymi narzędziami i procesami, takimi jak niezależne fact-checkingi i edukacja medialna, zapewnić poszczególnym społeczeństwom skuteczną ochronę przed dezinformacją.

Po raz kolejny okazuje się, jak bardzo aktualne jest stwierdzenie, że klucz do bezpieczeństwa w cyberprzestrzeni jest w naszej głowie.

W kontekście automatyzacji i rozwoju sztucznej inteligencji ważna jest świadomość, że nawet roboty będą potrzebowały nadzoru człowieka. Ani robot, ani tym bardziej prosty bot (program) sam z siebie nie wymyśli niczego innowacyjnego – pojawi się potrzeba zatrudnienia osób, które będą te boty obsługiwać i nadzorować. Ostatecznie zadaniem pracowników przyszłości będzie współdziałanie z maszynami, algorytmami i botami.

Nadejście ery robotów zapowiadano od dawna. W Polsce czynili to na kartach swoich powieści i opowiadań Stanisław Lem oraz Janusz Zajdel, za granicą był to z kolei Philip K. Dick nazywany przez współczesnych „Dostojewskim Science-Fiction” oraz Isaac Asimov. Z biegiem czasu okazało się, że wizje przyszłości z ich książek coraz bardziej przypominają teraźniejszość, w której żyjemy. Jeśli idea funkcjonujących obok człowieka robotów wydaje się zbyt abstrakcyjna, radzę zastanowić się, czy przypadkiem tego typu maszyny nie znajdują się już w naszych domach. A gdyby ktoś miał jeszcze jakieś możliwości, może sobie na ten temat porozmawiać z… chat-botem.

dr Piotr Łuczuk

Medioznawca, ekspert ds. cyberbezpieczeństwa.

Ekspert Instytutu Staszica

Adiunkt w Katedrze Komunikacji Społecznej, Public Relations i Nowych Mediów Uniwersytetu Kardynała Stefana Wyszyńskiego w Warszawie.

Redaktor naczelny serwisu FilaryBiznesu.pl.

Autor pierwszej w Polsce książki na temat cyberwojny („Cyberwojna. Wojna bez amunicji?” – wydana nakładem wydawnictwa Biały Kruk)