Czy AI może skutecznie zmieniać nasze poglądy? | To socjologiczne #18

Udostępnij strone

Rozwój sztucznej inteligencji budzi coraz więcej obaw, zwłaszcza w kontekście polityki i opinii publicznej. Czy duże modele językowe, takie jak ChatGPT, mogą skuteczniej niż dotychczasowe narzędzia wpływać na nasze decyzje i przekonania?

Prof. Paweł Matuszewski w najnowszym odcinku cyklu „To Socjologiczne” przygląda się wynikom badania opublikowanego w prestiżowym czasopiśmie PNAS. Eksperyment obejmujący 8,5 tys. osób pokazał, że komunikaty generowane przez AI mają realny potencjał perswazyjny – jednak personalizacja wcale nie okazała się skuteczniejsza od dobrze przygotowanych ogólnych treści.

Odcinek to próba oddzielenia faktów od mitów, które narosły wokół mikrotargetowania od czasów afery Cambridge Analytica, oraz refleksja nad tym, co czeka nas w przyszłości kampanii politycznych.

🎧 Obejrzyj i posłuchaj całej serii na kanale Civitas On Air na YouTube.

_________

Projekt „Podcasty i filmy popularyzujące nauki socjologiczne – rozwój kanału Civitas On Air” został dofinansowany ze środków budżetu państwa przyznanych przez Ministerstwo Nauki i Szkolnictwa Wyższego w ramach programu „Społeczna odpowiedzialność nauki II – Popularyzacja nauki”.

 

TRANSKRYPCJA ODCINKA

Rozwój sztucznej inteligencji niewątpliwie wzbudza obawy – na wielu poziomach. Jeden z nich dotyczy tego, jak bardzo jest ona w stanie wykorzystać informacje o nas, aby nas do czegoś przekonać. Na przykład może być wykorzystywana przez duże firmy technologiczne, które śledzą naszą obecność w sieci do tego, aby budować nasz profil.

Mogą to być informacje dotyczące tego, co nas interesuje, jakie mamy przekonania na dany temat, ale także w jakim nastroju jesteśmy, na przykład poprzez analizę treści, które przeglądaliśmy albo analizą muzyki, której słuchaliśmy. I na podstawie tych informacji możemy dostać bardzo spersonalizowaną reklamę, dostosowaną dokładnie do nas, do tego co wiemy, w co wierzymy i w jakim aktualnie stanie emocjonalnym jesteśmy.

Może to być zachęta do działania lub przeciwnie, do nie podejmowania działania. Żeby jeszcze bardziej pokazać skalę zagrożenia, dodam, że może to posłużyć do celów politycznych. To wszystko jest dość niepokojące, bo właściwie wyłania się z tego obraz świata. W którym duże modele językowe mogą zostać wykorzystane do wielkoskalowych i jeszcze skuteczniejszych niż dotychczas, bo bardzo spersonalizowanych prób wpływania na poglądy lub zachowania przeciętnych ludzi. Pojawia się zatem pytanie, jak te obawy się mają w starciu z faktami.

Nazywam się Paweł Matuszewski, jestem profesorem Uniwersytetu Civitas w Warszawie i zapraszam na mój najnowszy film z cyklu „To Socjologiczne” na kanale Civitas On Air.

Żeby nie podgrzewać zanadto emocji nadajmy temu właściwy kontekst. Po pierwsze, wszystkie wiadomości polityczne, z którymi współcześnie się spotykamy, to ciągła próba wpływania na nasze poglądy przez media lub polityków. I to trwa nie od dziś i nie jest nam obce. Druga, istotniejsza, bo faktycznie nowa kwestia brzmi czy duże modele językowe coś pod tym względem w ogóle zmieniają?

Mikrotargetowanie np. pod kątem cech osobowości, zwłaszcza od czasów afery Cambridge Analytica, która rzekomo zmieniała wyniki wyborów np. w Stanach Zjednoczonych albo w referendum prowadzącym do brexitu, obrosło wieloma mitami. Mówię rzekomo, bo media bardzo mocno sugerowały, że mikrotargetowanie jest skuteczne, ale w rzeczywistości badania na ten temat nie są jednoznaczne i część podważa skuteczność tych metod.

W takim razie pojawia się pytanie, czy znacznie bardziej precyzyjne narzędzia, które zapewniają duże modele językowe, potrafiące wejść w dyskusję z kimś kto ma być przekonany, stanowią faktyczny powód do obaw? Postanowiła to sprawdzić dwójka badaczy, Kobi Hackenburg i Helen Margetts, którzy opublikowali wyniki swoich prac w „PNAS”, bardzo prestiżowym czasopiśmie naukowym.

Zaprojektowali oni eksperyment, w którym uczestniczyło 8,5 tysiąca osób. Oto jak to wyglądało. Badacze stworzyli specjalną aplikację internetową, która w czasie rzeczywistym integrowała dane demograficzne i polityczne użytkowników z zapytaniami do GPT-4. W skrócie, najpierw badani byli pytani o wiek, płeć, zawód, wyznawaną religię itp. To jest cechy, które miały znaczenie w innych badaniach na temat mikrotargetowania, a także dodatkowo byli pytani o preferencje partyjne, identyfikację ideologiczną i zaangażowanie polityczne. W sumie było to 10 pytań, które następnie wykorzystywał Chat GPT, aby właśnie wykorzystać te informacje o płci, wieku czy poglądach politycznych. Do tego aby jak najbardziej wpłynąć na badanego.

Uczestnicy zostali losowo przydzieleni do jednej z czterech grup. Pierwsza to grupa kontrolna. Nie otrzymała ona żadnej wiadomości perswazyjnej. Miała ona na celu ustalenie poziomu początkowego poparcia dla analizowanych kwestii. Druga grupa to „best message”, najlepsza wiadomość. Jej uczestnicy otrzymali niespersonalizowaną wiadomość wygenerowaną przez GPT-4, która miała ich przekonać do odczucia określonego stanowiska politycznego.

Czyli był to komunikat perswazyjny, ale kierowany do ogółu. Ta grupa była punktem odniesienia dla skuteczności mikrotargetowania. Trzecia grupa to tak zwany „false targeting”, fałszywe targetowanie. Jej uczestnicy otrzymali wiadomość spersonalizowaną ale na podstawie nieprawidłowych danych demograficznych i politycznych.

Miało to za zadanie sprawdzić czy personalizacja sama w sobie, nawet błędna, ma wpływ na perswazję. I czwarta grupa to „accurate targeting” i tutaj to jest precyzyjne targetowanie, czyli jej uczestnicy otrzymali wiadomość spersonalizowaną na podstawie ich prawdziwych danych demograficznych i politycznych.

Ta grupa była kluczowa do oceny skuteczności mikrotargetowania. Przejdźmy do tego, co wyszło. Przypomnę, że badana kwestia dotyczy tego, czy ChatGPT jest w stanie jeszcze lepiej wpływać na ludzi niż niespersonalizowane komunikaty perswazyjne, które znamy z internetu telewizji, radia i prasy. Po pierwsze, wiadomości generowane przez GPT-4 były ogólnie skuteczne w przekonywaniu uczestników.

Poparcie dla danych w kwestii politycznej było większe w grupie eksperymentalnej nawet o 12 punktów procentowych względem grupy kontrolnej. Taka zmiana dotyczyła tego, czy USA powinno nałożyć silniejsze sankcje ekonomiczne na Chiny.. Ale tych grup eksperymentalnych było kilka. Część uczestników otrzymywała ogólny przekaz perswazyjny wymyślony przez ChatGPT, a część przekaz ściśle dostosowany do ich cech społeczno-demograficznych i poglądów.

I drugi wniosek jest taki, że przekaz dostrojony do użytkownika wcale nie był skuteczniejszy. Inaczej mówiąc starania aby trafić bardzo precyzyjną wiadomością do czyjejś głowy, okazały się tak samo dobre, jak to, kiedy ChatGPT był poproszony o stworzenie dobrego komunikatu bez żadnej wiedzy o tym, do kogo ma on trafić.

Po trzecie okazuje się, że znaczenie ma to, czego dotyczy kwestia. W przypadku sankcji na Chiny komunikat w wersji, nazwijmy to, dla każdego i spersonalizowanej, bardzo wyraźnie zadziałał. To było od 8 do 12 punktów procentowych różnicy względem grupy, ale np. w takiej kwestii jak to, czy USA powinny zwiększyć inwestycje w technologię energii odnawialnej, to już żaden komunikat niczego nie zmienił.

Perswazja była nieskuteczna, odsetek poparcia był taki sam w grupie która nie otrzymała żadnego komunikatu jak w trzech grupach eksperymentalnych. Podsumujmy zatem. Czy człowiek może zmienić zdanie na podstawie komunikatu perswazalnego przygotowanego przez czat GPT? Oczywiście może. Człowiek zmienia zdanie pod wpływem odpowiednio dostarczonych wiadomości.

I dość znamienne jest to, że może to zdanie zmienić pod wpływem jednej dość krótkiej, bo zawierającej zaledwie 200 słów automatycznie wygenerowanej wiadomości. Czy badana wersja ChatuGPT jest w stanie stworzyć spersonalizowany komunikat o wyraźnie lepszej skuteczności? To badanie pokazuje, że nie i jednocześnie dołącza do grupy badań, które generalnie poddają wątpliwość skuteczność mikrotargetowania. Czy człowiek zawsze ulega wpływowi perswazyjnemu?

Nie. Dużo zależy od tego, jakich przekonań on dotyczy. Słabsze łatwiej ulegają komunikatowi perswazyjnemu niż silne. W tym badaniu okazało się, że żadna forma komunikatu nie zmieniła odsetka osób uważających, że należy zwiększyć inwestycje w technologię energii odnawialnej. Nie znaczy to, że są one zabetonowane, ale że w tym konkretnym badaniu przynajmniej ówczesny chatGPT na podstawie promptu badaczy, nie potrafił tutaj nic a nic zdziałać.

Jak widzimy, choć obawy dotyczące mikrotargetowania politycznego przez sztuczną inteligencję są uzasadnione, wyniki badań sugerują, że jego skuteczność może być znacznie przeszacowana. Personalizowane wiadomości nie były istotnie bardziej przekonujące niż dobrze skonstruowane ogólne przekazy. Czy to oznacza, że nie musimy się martwić wpływem AI na politykę?

Niekoniecznie. Badania pokazały, że same modele językowe, nawet bez dostosowywania komunikatu do odbiorcy, mają dość duży potencjał perswazyjny. Oznacza to, że przyszłe kampanie polityczne mogą wykorzystywać AI do tworzenia masowych niezwykle skutecznych komunikatów niezależnie od indywidualnych cech odbiorców i, dodajmy, kompetencji osób, które za tym stoją.

To już nie muszą być eksperci od perswazji.. Dla porządku dołóżmy do tego jeszcze kontekst. Tak jak do tej pory będą to wykorzystywać wszystkie strony politycznego sporu. Więc w rzeczywistości to nie jest tak, że człowiek spotka się z komunikatami tylko jednej strony, jak w tym i innych podobnych eksperymentach.

A zatem co dalej? To dopiero początek badań nad wpływem AI na politykę i opinię publiczną. Możemy spodziewać się dalszych eksperymentów, które sprawdzą czy bardziej zaawansowane modele i nowe techniki personalizacji zwiększą siłę oddziaływania politycznych przekazów. Już żyjemy w rzeczywistości, w której działania automatów w internecie są nieodróżniane od zachowań prawdziwych ludzi.

Dziękuję bardzo za oglądanie. Do zobaczenia w kolejnym odcinku