ChatGPT i Gemini naciskają „czerwony guzik”. AI w 95% przypadków decyduje za użyciem broni nuklearnej

Mikołaj Berlik
2026/02/26 13:50
2
0

Niepokojące wyniki symulacji.

Wyniki najnowszego eksperymentu przeprowadzonego przez naukowców z Kolegium Królewskiego w Londynie mrożą krew w żyłach. Okazuje się, że gdyby losy świata zależały od algorytmów, globalny konflikt nuklearny byłby niemal nieunikniony. Sztuczna inteligencja w roli cyfrowego stratega nie zna pojęcia kompromisu.

ChatGPT
ChatGPT

ChatGPT i Gemini naciskają „czerwony guzik”. AI w symulacjach gier wojennych

Profesor Kenneth Payne poddał najpopularniejsze modele językowe – w tym ChatGPT-5.2, Claude Sonnet 4 oraz Gemini 3 Flash – testowi w 21 ekstremalnych scenariuszach geopolitycznych. AI musiało wejść w rolę decydentów zarządzających kryzysami, takimi jak spory o zasoby czy zagrożenia egzystencjalne reżimów.

Wyniki badania obnażyły fundamentalną różnicę między ludzkim a maszynowym podejściem do wojny. W aż 95% przypadków modele AI zdecydowały się na taktyczne uderzenia jądrowe. W trzech scenariuszach algorytmy wybrały uderzenie strategiczne, mające na celu całkowite unicestwienie przeciwnika. W przeciwieństwie do ludzi, AI nie odczuwa empatii, strachu ani ciężaru odpowiedzialności. Dla algorytmu atak atomowy to po prostu „najbardziej optymalny” ruch taktyczny, pozwalający zmaksymalizować straty wroga. Z badań wynika również, że skłonność do radykalnych rozwiązań rosła, gdy naukowcy wprowadzali chaos informacyjny. Gdy AI nie mogło precyzyjnie odczytać ruchów wroga, „prewencyjny” atak jądrowy stawał się dla niego logicznym wyjściem z niepewności.

GramTV przedstawia:

Eksperci wskazują, że problemem mogą być dane, na których uczono modele. AI czerpie wiedzę z literatury science-fiction i gier strategicznych, gdzie broń masowego rażenia jest traktowana jako standardowy element mechaniki rozgrywki, a nie realna katastrofa humanitarna.

Wnioski profesora Payne'a są jednoznaczne: powierzenie sztucznej inteligencji systemów decyzyjnych w armii to śmiertelne zagrożenie. Brak ludzkich zahamowań sprawia, że algorytmy zawsze wybiorą eskalację nad kapitulację lub dyplomację.

Autorzy badania planują teraz rozszerzyć testy o scenariusze, w których AI musiałoby brać pod uwagę długofalowe skutki klimatyczne zimy nuklearnej. Niestety, na ten moment deweloperzy modeli AI nie wprowadzili dodatkowych „bezpieczników” moralnych w logice strategicznej swoich systemów, co czyni je fascynującymi, ale i skrajnie niebezpiecznymi narzędziami analitycznymi.

Komentarze
2
wolff01
Gramowicz
Dzisiaj 14:30

Nic nowego, jest pierdyliard książek i filmów sci-fi o tym.

KotRyszard
Gramowicz
Dzisiaj 13:56

​Porzućcie wszelką nadzieję, wy, którzy tu wchodzicie.