Twórcy ChatGPT przed okropną wizją. Miliardowe odszkodowania wiszą nad firmą

Mikołaj Berlik
2025/12/03 13:30
3
0

OpenAI ma spore problemy.

OpenAI znalazło się pod podwójną presją. Z jednej strony rośnie konkurencja ze strony Google i Anthropic, które w listopadzie wypuściły Gemini 3.0 i Claude Opus 4.5, a ich modele sztucznej inteligencji radzą sobie coraz lepiej w testach. Z drugiej strony firma musi stawić czoła pozwowi zbiorowemu autorów zrzeszonych w Authors Guild, który może skutkować wypłatą miliardowych odszkodowań.

OpenAI
OpenAI

Sam Altman wprowadził w OpenAI „kod czerwony”

Ostatnie informacje wskazują, że Sam Altman zażądał od pracowników maksymalnego wysiłku w rozwoju ChatGPT, zarówno pod kątem szybkości działania, niezawodności, jak i „osobowości” chatbota. Firma stara się, by model był bardziej bezpośredni i lepiej dopasowywał się do użytkowników, jednocześnie eliminując nadmierne ograniczenia, które dotychczas powodowały odpływ odbiorców. Transformacja ma być szybka i kompleksowa, obejmując wszystkie aspekty działania AI.

GramTV przedstawia:

Równocześnie OpenAI stoi w sądzie w trudnej sytuacji prawnej. Sędzia nakazał ujawnienie dowodów dotyczących zbiorów Book1 i Book2, które miały zawierać pirackie kopie książek użyte do trenowania modeli. Firma wcześniej twierdziła, że dane zostały usunięte, bo nie były używane, a sprawa jest objęta tajemnicą przedsiębiorstwa. Ewentualne uznanie próby ukrycia dowodów mogłoby skutkować miliardowymi karami i poważnie narazić pozycję OpenAI na rynku.

OpenAI stoi więc przed wyjątkowo trudnym okresem. Firma musi jednocześnie nadążać za konkurencją i poprawiać funkcjonalność ChatGPT, a także bronić się przed poważnymi konsekwencjami prawnymi. Jakiekolwiek potknięcie może odbić się nie tylko na finansach, ale też na przewadze nad rosnącą konkurencją.

Komentarze
3
Headbangerr
Gramowicz
Wczoraj 20:06
dariuszp napisał:

(...) 

OK, Dariusz.

dariuszp
Gramowicz
Wczoraj 04:50
Headbangerr napisał:

Zabawną sprawą związaną z AI imitującą ludzkie zachowania jest... właśnie jej nieprzewidywalność, bo nawet sami jej twórcy nie są w stanie już przewidzieć, w jakie jeszcze kłopoty ich dzieło może ich wpakować w przyszłości i do czego może zostać użyte.

Mówienie o nieprzewidywalności AI jest do końca prawdziwe. Tu nie ma żadnego ludzkiego zachowania. Model językowy to tylko funkcja matematyczna, która przewiduje kolejne tokeny na podstawie statystycznych wzorców z danych treningowych. I to jest jedyna rzecz, jaką robi pod spodem. Nie ma zrozumienia, nie ma intencji, nie ma myślenia. To nie jest inteligencja, tylko gigantyczny silnik dopasowywania tekstu.

Model wcale nie jest nieprzewidywalny. W teorii jest przewidywalny w 100% bo te same wejście i te same ustawienia dadzą ten sam wynik. To, co nam wydaje się chaosem, wynika głównie z tego, że skala modeli jest absurdalna. Kiedy widzisz "13B", to znaczy 13 miliardów parametrów. Tego nikt realnie nie ogarnie, więc zachowanie wydaje się nieprzejrzyste, ale wciąż jest czysto deterministyczne (o ile nie dodasz samplingu).

Przykład. Robię do projektu generator miasta. No i mam problem. Bo nie chce by każde miasto wyglądało tak samo. Więc dodaje losowość która zmienia położenie i układ budynków, siatkę ulic itp. Ale teraz mam problem - jeżeli mam błąd albo chce coś dodać do miasta jak reklamy na budynkach - zmieni mi się całe miasto. Ktoś wczyta grę po update i zobaczy inne miasto. Więc zamiast tego robię seed. Losowa wartość która jest przypisana do miasta. Każde miasto ma inną więc wygląda inaczej ale jak regeneruje je po zmianie algorytmu, ulice i budynki pozostają takie same.

Model też nie potrafi powiedzieć "nie wiem". Bo nie rozumie treści, tylko przewiduje tokeny. Jeśli w danym kontekście nie ma żadnej sensownej odpowiedzi, to i tak wygeneruje coś, co statystycznie pasuje do wzorców językowych. Niezależnie od prawdziwości. To tak jakbyś poprosił przypadkową osobę w sklepie o wykład z fizyki kwantowej i kazał jej mówić cokolwiek, byle brzmiało jak wykład. Nie mając wiedzy, zacznie improwizować i sklei losowe fragmenty, które tylko udają kompetencję.

Tym właśnie są halucynacje: model tworzy wypowiedzi, które wyglądają jak sensowne, ale nie są oparte na żadnym zrozumieniu ani faktycznym stanie świata. To jedynie najlepiej pasujące statystycznie ciągi słów. Problem w tym że najlepiej pasujące słowo nie musi być odpowiednie. Ten ktoś robiący wykład z fizyki też wymyśla słowa które wydają się najodpowiedniejsze.

Headbangerr
Gramowicz
Ostatni środa

Zabawną sprawą związaną z AI imitującą ludzkie zachowania jest... właśnie jej nieprzewidywalność, bo nawet sami jej twórcy nie są w stanie już przewidzieć, w jakie jeszcze kłopoty ich dzieło może ich wpakować w przyszłości i do czego może zostać użyte.




Trwa Wczytywanie