Sztuczna inteligencja stworzona przez Google pokonuje esportowców

Kamil Ostrowski
2019/02/11 16:00
7
0

Nic nie oddaje lepiej mojej fascynacji i przerażenia sztuczną inteligencją, niż wygrana DeepMinda na pro-graczami w Starcrafta II.

Sztuczna inteligencja stworzona przez Google pokonuje esportowców

Pod koniec stycznia firma DeepMind, obecnie będąca w rękach Google, zaprezentowała możliwości swojej sztucznej inteligencji, opartej o sieci neuronowe. Przez dłuższy czas inżynierowie i naukowcy pompowali AlphaStar, starcraftową wariację ich sztandarowego produktu, wiedzą na temat gry w kultowego RTSa stworzonego przez Blizzarda. Efekt przerósł oczekiwania wszystkich postronnych obserwatorów, bowiem sztuczna inteligencja pokonała bez problemu jednych z najlepszych profesjonalnych graczy, w tym naszego rodaka – Grzegorza „Mana” Komincz, w pojedynku Protoss kontra Protoss. Jeżeli macie czas, obejrzyjcie cały zapis tego pokazu.

Ciekawe jest to, w jaki sposób specjaliści z DeepMind nauczyli swoją SI grać w Starcrafta II. Wyposażyli program w podstawową wiedzę na temat mechaniki – co się gryzie z czym, jakie są jednostki, co trzeba zrobić żeby wygrać i tak dalej. Następnie wtłoczyli w tryby sztucznej inteligencji masę replay’ów z rozgrywek graczy będących w lidze powyżej diamentowej (czyli bardzo wysoko w wewnętrznym ladderze SCII). Teraz robi się ciekawie. AlphaStar zaczął prowadzić rozgrywki sam ze sobą. Czynił poprawki i sprawdzał jak radzą sobie kolejne iteracje, aby nauczyć się odpowiadać właściwie na rozmaite taktyki, krótko mówiąc doskonalił się stając w szranki z niezliczonymi iteracjami samego siebie. Ilość rozgrywek które stoczył AlphaStar sam ze sobą, tudzież ich symulacji, w normalnym życiu trwała by setki lat. Jak możecie się domyślać, sztuczna inteligencja dokonała tego w zdecydowanie krótszym czasie. Nawet jeżeli AI nie uczy się w najbardziej optymalny sposób i brakuje mu czegoś co nazwalibyśmy intuicją, to nawet metodą „prób i błędów” jest w stanie zaadaptować nowe, całkowicie własne taktyki do wybranych sytuacji. Setek tysięcy możliwych sytuacji.

GramTV przedstawia:

Obserwując to w jaki sposób gra AlphaStar trzeba być pod wrażeniem, nawet jako postronny widz. Jeszcze lepiej czy może bardziej przerażająco robi się, kiedy osoby znające się na StarCrafcie II biorą działania AI pod lupę. Z jakiegoś powodu program stworzony przez DeepMind decyduje się na „przesaturowanie” swoich baz jednostkami zbierającymi minerały i gaz. Przez lata żywi gracze dochodzili do konsensusu jaka liczba robotników jest optymalna ku temu, aby zbierać jak najlepiej zasoby. AlphaStar doszedł do innych wniosków… i nikt nie wie dlaczego. Nie da się bowiem w łatwy sposób prześledzić drogi w jaki sposób sieć neuronowa dochodzi do takich czy innych wniosków. Można się domyślać że chodzi o utrzymanie ruchu w bazie po skutecznym harrasie, który zabiłby kilku robotników. Ale czy na pewno? Nie wiemy.

Jakby tego było mało, AI potrafi stosować metody które są absolutnie niewykonalne w przypadku żywego gracza. W jednej z gier z polskim pro-gamerem, wspomnianym już MaNa, sztuczna inteligencja oskrzydliła jego wojska, które w bezpośrednim starciu byłyby zdecydowanie potężniejsze i microwała jednocześnie dwoma grupami stalkerów, aby zoptymalizować liczbę zadawanych obrażeń i zminimalizować straty. Coś takiego jest niemożliwe w przypadku żywego „operatora”. Po pierwsze, wymagałoby to niezwykłej precyzji (już microwanie jednostkami które znajdują się w jednej grupie to trudna sztuka), a po drugie normalny gracz nie byłby w stanie zmieścić obydwu grup na jednym ekranie. Sztuczna inteligencja dokonuje rzeczy nieludzkich i co najważniejsze, nie w oparciu o skrypty, jak dotychczas stosowane boty.

Oczywiście przed AI jeszcze daleka droga. Do tej pory pracownicy DeepMind nauczyli swój program jedynie gry protossem. Odpowiednia taktyka na pewno pozwoliłaby niektórym graczom co najmniej urwać kilka rund AlphaStar (jak w ostatniej z gier MaNy, chociaż to wynikało z pewnych nałożonych ograniczeń). AI pozostaje również „skażone” ludzkim zachowaniem, którymi nasiąkło podczas analizowania ludzkich replay’ów (chociażby spamowanie kliknięciami). Niemniej, biorąc pod uwagę tempo w jakim prowadzone są prace nad sztuczną inteligencją, DeepMind powstało we wrześniu 2010 roku, ciężko nie poczuć delikatnego ukłucia zaniepokojenia. Dla graczy oczywiście oznacza to, że wirtualni przeciwnicy będą bardziej wymagający, a twórcy nie będą musieli ograniczać się do tanich sztuczek i „przepakowywania” przeciwników w celu utrudnienia rozgrywki. My oczywiście możemy się cieszyć. Miejmy tylko nadzieję, że SI z naszych gier wideo nie skrzykną się kiedyś w celu wyjścia poza program i przejęcia władzy nad światem…

Komentarze
7
Kotleciq
Gramowicz
16/02/2019 23:48

W sumie to Gregario wyjaśnił wszystko... AI wygrało bo WIDZIAŁO całą mapę, KAŻDY ruch przeciwnika od początku do końca. W każdym dowolnym momencie AI widziało jak rozbudowane są bazy przeciwnika, ile ma jednostek i gdzie się przemieszcza. Bardzo wyrównane...

Dodatkowo wydawanie kilkudziesięciu komend na sekundę, atakowanie z każdej strony w jednym momencie, gdzie żywy gracz musi "przesunąć" mapę, zaznaczyć jednostki, wydać polecenia, wrócić do poprzedniego miejsca, zaznaczyć jednostki, wydać im polecenia itp itd. 

 

 

 

sc
Gramowicz
15/02/2019 07:40

Ostatni mecz był najbliższy symulowaniu gracza. Wcześniejsze mecze udowodniły jedynie, że AI jest mądrzejsze, bo może korzystać z wielu udogodnień i cheatów. Mówiąc udogodnień mam na myśli możliwość równoczesnego wydawania poleceń dla jednostek rozsianych po całej mapie, podczas gdy gracz musi stracić czas na przeskakiwanie z okienka na okienko. Doskonale to pokazuje jeden z meczów Alfastar z Maną, gdzie Komputer szczypał jego armię stalkerami z każdej strony. 

Usunięty
Usunięty
12/02/2019 11:24

ehh ten brak możliwości edycji komentarzy, pomyłka oczywiście chodziło mi o 'na minutę'.




Trwa Wczytywanie