Powstaje specjalny zespół, który powstrzyma sztuczną inteligencję, jeśli zagrozi ludzkości

Krzysztof Żołyński
2023/07/06 20:00
0
0

Informacja pojawia się w czasie, gdy rządy debatują, jak uregulować technologie sztucznej inteligencji.

OpenAI tworzy specjalny zespół do zarządzania ryzykiem związanym z superinteligentną sztuczną inteligencją. Superinteligencja to hipotetyczny model sztucznej inteligencji, który jest inteligentniejszy niż nawet najbardziej utalentowany i inteligentny człowiek i wyróżnia się wieloma obszarami wiedzy zamiast jednej domeny, jak niektóre modele poprzedniej generacji. OpenAI uważa, że taki model może pojawić się przed końcem dekady.

Powstaje specjalny zespół, który powstrzyma sztuczną inteligencję, jeśli zagrozi ludzkości

Superinteligencja będzie najbardziej wpływową technologią, jaką ludzkość kiedykolwiek wynalazła i może pomóc nam rozwiązać wiele najważniejszych problemów świata. Jednak ogromna potęga superinteligencji może być również bardzo niebezpieczna i może doprowadzić do osłabienia ludzkości, a nawet do jej wyginięcia.

Nowym zespołem będą współkierować główny naukowiec OpenAI Ilya Sutskever i Jan Leike, szef laboratorium badawczego. Ponadto OpenAI zadeklarowało, że przeznaczy 20 procent swojej obecnie zabezpieczonej mocy obliczeniowej na tę inicjatywę, mając na celu opracowanie zautomatyzowanego balansowania. Taki system teoretycznie pomógłby OpenAI w zapewnieniu, że superinteligencja jest bezpieczna w użyciu i zgodna z ludzkimi wartościami.

Chociaż jest to niezwykle ambitny cel i nie mamy gwarancji, że nam się uda, jesteśmy optymistami, że skoncentrowany, skoordynowany wysiłek może rozwiązać ten problem. Istnieje wiele pomysłów, które okazały się obiecujące we wstępnych eksperymentach, mamy coraz bardziej przydatne wskaźniki postępu i możemy wykorzystać dzisiejsze modele do empirycznego zbadania wielu z tych problemów.

GramTV przedstawia:

Oświadczenie pojawiło się w czasie, gdy rządy na całym świecie zastanawiają się, jak uregulować rodzącą się branżę sztucznej inteligencji. W Stanach Zjednoczonych Sam Altman, dyrektor generalny OpenAI, spotkał się w ostatnich miesiącach z co najmniej 100 federalnymi prawodawcami. Altman publicznie powiedział, że regulacja SI jest „niezbędna”, a OpenAI „chętnie” współpracuje z decydentami.

Kto powstrzyma sztuczną inteligencję, jeśli zagrozi ludzkości?

Powinniśmy być sceptyczni wobec takich proklamacji, a nawet wysiłków, takich jak zespół Superalignment OpenAI. Skupiając uwagę opinii publicznej na hipotetycznych zagrożeniach, które mogą nigdy się nie zmaterializować, organizacje takie jak OpenAI przenoszą ciężar regulacji na horyzont zamiast na tu i teraz. Istnieją znacznie bardziej bezpośrednie problemy związane z wzajemnymi zależnościami między sztuczną inteligencją a pracownikami, dezinformacją i prawami autorskimi, którymi decydenci muszą zająć się dzisiaj, a nie jutro.

Komentarze
0



Nie ma jeszcze żadnych komentarzy. Napisz komentarz jako pierwszy!