Nadmierne wykorzystywanie treści generowanych przez AI może prowadzić do spadku jakości modeli i dezinformacji.
Coraz częściej pojawiają się ostrzeżenia dotyczące przyszłości sztucznej inteligencji. Modele językowe, które korzystają z danych wygenerowanych przez inne modele, mogą z czasem zacząć tracić na jakości. Według ekspertów taki scenariusz jest jak najbardziej realny i potrzeba odpowiedniej reakcji, aby temu zapobiec.
AI
Jakość treści generowanych przez sztuczną inteligencję znacznie spada
Problemy z AI omawia m.in. artykuł z serwisu The Register, powołując się na wcześniejsze publikacje w Nature. Modele AI uczą się obecnie na treściach, które wcześniej zostały wygenerowane przez inne systemy, przez co gromadzą i wzmacniają błędy. Każda kolejna wersja może więc być mniej precyzyjna i mniej wiarygodna niż poprzednia.
Wskazuje się na trzy główne przyczyny tego zjawiska:
Akumulacja błędów – zniekształcanie danych przypomina efekt głuchego telefonu.
Utrata jakości źródeł – ograniczony dostęp do oryginalnych, ludzkich treści.
Pętla informacji zwrotnej – AI powiela własne wzorce, tworząc coraz mniej różnorodne i bardziej tendencyjne odpowiedzi.
GramTV przedstawia:
Sytuację pogarsza rosnąca popularność techniki retrieval-augmented generation, która łączy modele AI z Internetem. Problem w tym, że sieć została już zalana przez treści tworzone przez AI, co prowadzi do wzmacniania niskiej jakości materiałów i rozprzestrzeniania dezinformacji.
Z raportów z kwietnia 2025 roku wynika, że modele takie jak GPT-4o, Claude-3.5-Sonnet czy Gemma-7B generują mniej spójne informacje niż ich odpowiedniki działające bez RAG. Sztuczna inteligencja może też nieświadomie naruszać prywatność użytkowników i przekazywać fałszywe dane.
Zdaniem ekspertów jedynym ratunkiem może być powrót do treści tworzonych przez ludzi. Jednak współpraca między twórcami a firmami rozwijającymi AI wciąż napotyka na bariery. Jeśli sytuacja się nie poprawi, użytkownicy mogą zacząć ponownie wybierać tradycyjne wyszukiwarki, rezygnując z AI jako źródła wiedzy.
No a na czym ai ma się uczyć skoro wszystkie dostępne dane już zostały pożarte? To było od dawna oczywiste, że przyjdzie taki moment i nastąpi swoisty kanibalizm i redundancja i to był( a przynajmniej powinien być) problem spędzający sen z powiek. Z drugiej strony nie wiadomo do czego mogłyby dojść takie modele, jak rozwinęły by swoją sieć gdyby je puścić samopas
Yosar
Gramowicz
05/06/2025 20:14
Eee.... co to za eksperci jak dopiero teraz do tego doszli. Każdy kto wie na czym oparte były modele sieci neuronowej (a wszystkie te chwytliwe nowe nazwy kryją pod sobą tą starą technologię) wiedział o tym od samego początku. Ai było tak dobre jak dobry był wzorzec sporządzony przez człowieka. Bo to on był tym ideałem do którego porównywano poszczególne iteracje. Więc jak ktoś podał B jako A, to AI święcie 'wierzyła' że B to A. Nie była w stanie sama siebie skorygować w tym aspekcie. Nigdy.
Oczywiście korzystanie z niezliczonych wzorców jak wymyślono to w najnowszych modelach nie tylko nie rozwiązało tego problemu, ale go zmultiplikowało bo co źródło to inna 'wiedza'. A wiedza 'średnia' nie istnieje (bo średnio to każdy ma jeden jajnik i jedno jądro). A dodatkowo nowe źródła zaczeły być tworzone błędnie przez samo AI, na podstawie błędnych/nieweryfikowalnych źródeł pierwotnych.
Więc na pierwszym zdjęciu wygenerowanym przez AI kura miała trzy nogi, a na entym już 7.
Bez rozwiązania fundamentalnych problemów jakie leżą u podstaw teorii AI wszystko co się dzieje wokół to nadmuchana bańka. Tak jak bez rozwiązania fundamentalnych problemów fizyki relatywistycznej i kwantowej nie będziemy w stanie podróżować do innych gwiazd.
Całe to pitolenie o zastąpieniu człowieka przez AI mogło tylko przemawiać do głupiutkich inwestorów, którzy nie pierwszy raz nie znają się na technologii/nauce, a mimo to ją pompują.
Aktualna sytuacja odpowiadałaby tej że po skonstruowaniu pierwszego napędu jądrowego inwestorzy doszliby do wniosku że podróże do gwiazd i innych planet po surowce są już tylko na wyciągnięcie ręki. I zaraz zaraz będziemy liczyć zyski z tego wydobycia. Pierwszy napęd jądrowy skonstruowano 70 lat temu, i gdzie te nasze zasoby z księżycy Jowisza. Najpierw trzeba znać ograniczenia technologii.
Headbangerr
Gramowicz
05/06/2025 15:18
Ludzie w 2000: za 30 lat AI przejmie władzę nad światem.
AI w 2025: na prośbę o wygenerowanie obrazka z łososiem w rzece generuje filet z łososia w rzece.