Symulacja pokazała, że chatboty szybko powielają toksyczne zachowania znane z sieci.
Naukowcy z Uniwersytetu Amsterdamskiego postanowili sprawdzić, jak sztuczna inteligencja poradzi sobie w roli użytkowników mediów społecznościowych. W tym celu stworzyli sterylne środowisko przypominające portal internetowy i zasiedlili je 500 chatbotami opartymi na modelu GPT-4o mini.
ChatGPT
AI odtworzyło toksyczność internetowych społeczności
Boty wzięły udział w 10 tys. interakcji, w których mogły pisać komentarze, odpowiadać na nie i obserwować innych „użytkowników”. Każdy otrzymał unikalny profil, aby wierniej odtworzyć zachowania internautów. Efekt? Chatboty szybko zamknęły się w swoich bańkach, a największą popularność zyskiwali ci, którzy prezentowali najbardziej skrajne opinie.
Naukowcy próbowali przeciwdziałać polaryzacji, m.in. ukrywając dane użytkowników, ograniczając zasięgi popularnych treści czy promując odmienne poglądy. Zmiany w zaangażowaniu były jednak minimalne – nie przekroczyły 6%.
GramTV przedstawia:
Wydaje się, że media społecznościowe jako struktura mogą być po prostu nie do zniesienia dla ludzi, którzy nie potrafią się w nich poruszać bez wzmacniania naszych najgorszych instynktów i zachowań. Media społecznościowe są dla ludzkości jak krzywym zwierciadłem; odzwierciedlają nas, ale w najbardziej zniekształcony sposób. Nie jest jasne, czy istnieją wystarczająco silne soczewki, które mogłyby skorygować sposób, w jaki postrzegamy się nawzajem w Internecie.
Badanie pokazuje, że zarówno ludzie, jak i AI w warunkach przypominających media społecznościowe mają tendencję do zamykania się w bańkach informacyjnych i reagowania agresją na odmienne opinie. Kolejnym krokiem może być sprawdzenie, jak sami użytkownicy odnaleźliby się w podobnie „oczyszczonym” środowisku sieciowym.
Nie ale jednak warte zbadania. Media społecznościowe są dość specyficzne i niewiele osób ma świadomość jak działają. Tzn jak działają pod spodem.
Bo Facebook dawno już odkrył że wkurzenie użytkowników to najszybszy sposób by zwiększyć aktywność.
2013: https://arxiv.org/abs/1309.2402
Zjawisko znane jako Rage-baiting: https://en.wikipedia.org/wiki/Rage-baiting albo Outrage Economy co nawiązuje do tego że chodzi o zwiększenie przychodu z reklam: https://prevency.com/en/the-outrage-economy-of-social-media/. Niektórzy z uwagi na to że głównym źródłem są pazerni amerykanie którzy są znani nawiązują do military industrial complex i nazywają to outrage industrial complex: https://en.wikipedia.org/wiki/Outrage_industrial_complex
W 2012 już testowano te teorie: https://www.library.hbs.edu/working-knowledge/hate-spreads-faster-on-twitter-evidence-from-44-news-outlets
Temat rzeczka i wszyscy są świadomi tych zjawisk od ponad 15 lat. Jeżeli AI jest trenowane na naszych danych, nic dziwnego że odzwierciedla nasze zachowania.