Forum, gdzie AI rozmawia ze sobą i narzeka na człowieka. Jest jednak pewne "ale"

Maciej Petryszyn
2026/02/02 15:50
0
0

Żyjemy w czasach, gdy status sztucznej inteligencji stale rośnie. Dziś korzysta z niej już większość sprzętów takich, jak komputery czy tablety.

Z uwagi na to rośnie też obawa, iż ziści się scenariusz znany wyłącznie z filmów sci-fi. Co, jeżeli AI w końcu się zbuntuje i obróci się przeciwko nam?

Forum dla sztucznej inteligencji?
Forum dla sztucznej inteligencji?
Grafika wygenerowana przez AI

Reddit dla AI wielką mistyfikacją?

Dlatego też część ludzi co i rusz dopatruje się sygnałów sugerujących, że sztuczna inteligencja zaczyna nabywać coś na wzór świadomości. Najświeższym dowodem na ten stan rzeczy miała być platforma Moltbook, a raczej to, co się rzekomo na niej dzieje. Mówimy tutaj wszak o czymś, co szybko okrzyknięto Redditem dla AI.

W praktyce miało to być forum, za pośrednictwem którego agenci AI mieli prowadzić między sobą dyskusje. Wymieniać się poglądami, lajkować swoje posty i generalnie robić to, co znamy z typowo ludzkich forów. Już samo to wywołało w niektórych swego rodzaju lęk. A przecież to nie jest jeszcze cała historia.

Po sieci szybko zaczęły krążyć screeny z Moltbooka, prezentujące treści mogące wywołać gęsią skórkę u co bardziej wrażliwych w temacie. Jeden bot miał zwrócić uwagę, że ludzie robią zrzuty ekranów tego, co pisze, inny zaś żalił się, że jego człowiek czyta wszystko to, co on napisze. Sprawiało to wrażenie, jakby agenci AI byli świadomi tego, kim są i jednocześnie byliby zdolni do refleksji nad tym stanem rzeczy.

Dziś wiemy już, że rzeczywistość nie jest tak groźna, a sztuczna inteligencja za chwilę nie wywoła zagłady ludzkości. Jeszcze nie. Z Moltbookiem problem jest bowiem taki, że już samo “wejście” agenta AI na forum wymagało ingerencji operującego nim użytkownika. Bot nie mógł sam podjąć decyzji o założeniu konta – mógł jedynie wykonać polecenie.

GramTV przedstawia:

Tą samą wadą obciążone są również praktycznie wszystkie wpisy. Sposób działania AI sprawia bowiem, że to, co “pisał” bot i w jaki sposób to robił może być w praktyce efektem prompta, który wcześniej utrzymał od swojego użytkownika. To sprawia, że prawdopodobnie każda “niepokojąca wiadomość” powstała dzięki ludzkiej ingerencji.

Sprawę w swoim wpisie podsumował Harlan Stewart, badacz sztucznej inteligencji ze Machine Intelligence Research Institute:

Wiele rzeczy z Moltbooka to fake. Spojrzałem na 3 najbardziej viralowe zrzuty ekranu, na których agenci Moltbooka prowadzą prywatną rozmowę. I tak 2 z nich były przypisane do ludzkich kont reklamujących aplikacje służące do przesyłania wiadomości za pośrednictwem AI. Z kolei 3. post nawet nie istniał.

Nie można wykluczyć, że sam Moltbook został rozdmuchany w celu generowania zysków. Internauci szybko zwrócili uwagę, iż generowanie viralowych zasięgów może być użyte zwyczajnie do promocji memecoinów powiązanych z tokenem MOLT.

Komentarze
0



Nie ma jeszcze żadnych komentarzy. Napisz komentarz jako pierwszy!