Z raportu Future of Life Institute (FLI) wynika, że firmy zajmujące się sztuczną inteligencją są „fundamentalnie nieprzygotowane” na konsekwencje wynikające z tworzenia systemów o ludzkich zdolnościach poznawczych. Organizacja twierdzi, że przedsiębiorstwa te nie posiadają żadnych wiarygodnych planów na zapewnienie bezpieczeństwa – pisze theguardian.com.
Future of Life Institute to organizacja non-profit, której misją jest kierowanie innowacyjnych technologii z dala od skrajnych zagrożeń o dużej skali i w stronę korzyści dla życia.
Jak zaznacza źródło, według FLI żadna z firm, które zostały uwzględnione w przeglądzie bezpieczeństwa AI, nie uzyskała oceny wyższej niż D w kategorii „planowanie bezpieczeństwa egzystencjalnego”. Jeden z recenzentów organizacji wyjaśnił, że w deklaracjach analizowanych przedsiębiorstw o dążeniu do stworzenia ogólnej sztucznej inteligencji (AGI) ani jedno z nich nie przewidziało „czegokolwiek, co przypominałoby spójny i możliwy do wdrożenia plan” zapewniający o bezpieczeństwie systemów i możliwości ich kontrolowania.
Artificial General Intelligence (AGI) odnosi się do etapu rozwoju AI, w którym system potrafi dorównać człowiekowi w wykonywaniu dowolnych zadań wymagających myślenia. Eksperci ostrzegają, że jest to technologia, która – jeśli wymknie się spod kontroli – może stanowić zagrożenie egzystencjalne i doprowadzić do katastrofalnych skutków – dowiadujemy się.
FLI zaznaczyło w raporcie, że „branża jest zasadniczo nieprzygotowana na realizację swoich własnych deklarowanych celów”. „Firmy twierdzą, że osiągną ogólną sztuczną inteligencję (AGI) w ciągu najbliższej dekady, a tymczasem żadna nie otrzymała oceny wyższej niż D w zakresie planowania bezpieczeństwa egzystencjalnego” – dodała organizacja, cytowana przez źródło.
W przeglądzie uwzględniono siedem firm zajmujących się sztuczną inteligencją, w tym Google DeepMind, OpenAI, Anthropic, Metę, xAI oraz chińskie Zhipu AI i DeepSeek – czytamy.
Max Tegmark, współzałożyciel FLI i profesor Instytutu Technologicznego w Massachusetts (MIT), wyznał, że wyniki analizy były dla niego „dość szokujące”. „To tak, jakby ktoś budował gigantyczną elektrownię jądrową w Nowym Jorku i miała ona zostać uruchomiona w przyszłym tygodniu – ale nie istnieje żaden plan zapobiegania awarii” – dodał Tegmark, cytowany przez źródło. (ao)
Źródło: theguardian.com, AI firms ‘unprepared’ for dangers of building human-level systems, report warns, Dan Milmo, 17.07.2025