AI zaczyna sobie szkodzić. Modele tracą na jakości przez korzystanie z wygenerowanych przez siebie danych

Mikołaj Berlik
2025/06/05 13:15
4
0

Nadmierne wykorzystywanie treści generowanych przez AI może prowadzić do spadku jakości modeli i dezinformacji.

Coraz częściej pojawiają się ostrzeżenia dotyczące przyszłości sztucznej inteligencji. Modele językowe, które korzystają z danych wygenerowanych przez inne modele, mogą z czasem zacząć tracić na jakości. Według ekspertów taki scenariusz jest jak najbardziej realny i potrzeba odpowiedniej reakcji, aby temu zapobiec.

AI
AI

Jakość treści generowanych przez sztuczną inteligencję znacznie spada

Problemy z AI omawia m.in. artykuł z serwisu The Register, powołując się na wcześniejsze publikacje w Nature. Modele AI uczą się obecnie na treściach, które wcześniej zostały wygenerowane przez inne systemy, przez co gromadzą i wzmacniają błędy. Każda kolejna wersja może więc być mniej precyzyjna i mniej wiarygodna niż poprzednia.

Wskazuje się na trzy główne przyczyny tego zjawiska:

  • Akumulacja błędów – zniekształcanie danych przypomina efekt głuchego telefonu.
  • Utrata jakości źródeł – ograniczony dostęp do oryginalnych, ludzkich treści.
  • Pętla informacji zwrotnej – AI powiela własne wzorce, tworząc coraz mniej różnorodne i bardziej tendencyjne odpowiedzi.

GramTV przedstawia:

Sytuację pogarsza rosnąca popularność techniki retrieval-augmented generation, która łączy modele AI z Internetem. Problem w tym, że sieć została już zalana przez treści tworzone przez AI, co prowadzi do wzmacniania niskiej jakości materiałów i rozprzestrzeniania dezinformacji.

Z raportów z kwietnia 2025 roku wynika, że modele takie jak GPT-4o, Claude-3.5-Sonnet czy Gemma-7B generują mniej spójne informacje niż ich odpowiedniki działające bez RAG. Sztuczna inteligencja może też nieświadomie naruszać prywatność użytkowników i przekazywać fałszywe dane.

Zdaniem ekspertów jedynym ratunkiem może być powrót do treści tworzonych przez ludzi. Jednak współpraca między twórcami a firmami rozwijającymi AI wciąż napotyka na bariery. Jeśli sytuacja się nie poprawi, użytkownicy mogą zacząć ponownie wybierać tradycyjne wyszukiwarki, rezygnując z AI jako źródła wiedzy.

Komentarze
4
matt
Gość
05/06/2025 21:48

No a na czym ai ma się uczyć skoro wszystkie dostępne dane już zostały pożarte? To było od dawna oczywiste, że przyjdzie taki moment i nastąpi swoisty kanibalizm i redundancja i to był( a przynajmniej powinien być) problem spędzający sen z powiek. Z drugiej strony nie wiadomo do czego mogłyby dojść takie modele, jak rozwinęły by swoją sieć gdyby je puścić samopas 

Yosar
Gramowicz
05/06/2025 20:14

Eee.... co to za eksperci jak dopiero teraz do tego doszli. Każdy kto wie na czym oparte były modele sieci neuronowej (a wszystkie te chwytliwe nowe nazwy kryją pod sobą tą starą technologię) wiedział o tym od samego początku. Ai było tak dobre jak dobry był wzorzec sporządzony przez człowieka. Bo to on był tym ideałem do którego porównywano poszczególne iteracje. Więc jak ktoś podał B jako A, to AI święcie 'wierzyła' że B to A. Nie była w stanie sama siebie skorygować w tym aspekcie. Nigdy.

Oczywiście korzystanie z niezliczonych wzorców jak wymyślono to w najnowszych modelach nie tylko nie rozwiązało tego problemu, ale go zmultiplikowało bo co źródło to inna 'wiedza'. A wiedza 'średnia' nie istnieje (bo średnio to każdy ma jeden jajnik i jedno jądro). A dodatkowo nowe źródła zaczeły być tworzone błędnie przez samo AI, na podstawie błędnych/nieweryfikowalnych źródeł pierwotnych.

Więc na pierwszym zdjęciu wygenerowanym przez AI kura miała trzy nogi, a na entym już 7.

Bez rozwiązania fundamentalnych problemów jakie leżą u podstaw teorii AI wszystko co się dzieje wokół to nadmuchana bańka. Tak jak bez rozwiązania fundamentalnych problemów fizyki relatywistycznej i kwantowej nie będziemy w stanie podróżować do innych gwiazd.

Całe to pitolenie o zastąpieniu człowieka przez AI mogło tylko przemawiać do głupiutkich inwestorów, którzy nie pierwszy raz nie znają się na technologii/nauce, a mimo to ją pompują.

Aktualna sytuacja odpowiadałaby tej że po skonstruowaniu pierwszego napędu jądrowego inwestorzy doszliby do wniosku że podróże do gwiazd i innych planet po surowce są już tylko na wyciągnięcie ręki.  I zaraz zaraz będziemy liczyć zyski z tego wydobycia. Pierwszy napęd jądrowy skonstruowano 70 lat temu, i gdzie te nasze zasoby z księżycy Jowisza. Najpierw trzeba znać ograniczenia technologii.

Headbangerr
Gramowicz
05/06/2025 15:18

Ludzie w 2000: za 30 lat AI przejmie władzę nad światem.

AI w 2025: na prośbę o wygenerowanie obrazka z łososiem w rzece generuje filet z łososia w rzece.




Trwa Wczytywanie