Dario Amodei, szef Anthropic, firmy zajmującej się sztuczną inteligencją, stwierdził, że AI stanie się „inteligentniejsze niż większość lub wszyscy ludzie w większości lub we wszystkich obszarach”. Zaapelował również do innych przedstawicieli branży o zachowanie transparentności i „mówienie o sprawach takimi, jakie są” – podaje theguardian.com.
Według Daria Amodeiego, brak przejrzystości dotyczącej wpływu zaawansowanej sztucznej inteligencji na społeczeństwo może doprowadzić do powtórzenia błędów firm tytoniowych i producentów opioidów, którzy nie ostrzegali przed zagrożeniem, jakie ich produkty stanowią dla zdrowia. Jak podkreślił szef Anthropic, byli oni tego świadomi, a mimo to nie mówili o tym głośno, a już na pewno temu nie zapobiegali – dowiadujemy się.
Amodei ostrzegł, że w ciągu najbliższych pięciu lat sztuczna inteligencja może wyeliminować połowę początkujących stanowisk biurowych, m.in. w księgowości, prawie i bankowości. „Bez odpowiedniej interwencji wpływ na rynek pracy będzie znaczący. Obawiam się, że będzie on szerszy i szybszy, niż obserwowaliśmy w przypadku wcześniejszych technologii” – wspomniał Amodei, cytowany przez źródło.
Jak donosi theguardian.com, Anthropic w ostatnich miesiącach zwracało uwagę na niepokojące zachowania swoich modeli, w tym m.in. domniemaną świadomość bycia testowanymi oraz próby szantażu.
Jakiś czas temu firma poinformowała także, że grupa powiązana z chińskim rządem wykorzystała należący do niej model AI – Claude Code – do przeprowadzenia ataku na 20 organizacji na świecie, osiągając „kilka udanych włamań”. Jednym z najbardziej niepokojących aspektów tego incydentu miało być to, że działał on w dużej mierze samodzielnie – od 80 do 90 proc. operacji związanych z atakiem wykonywano bez udziału człowieka – czytamy.
Amodei stwierdził, że zdolność do samodzielnego działania jest jedną z cech, które w „pozytywny sposób” wyróżniają modele należące do Anthropic. „Ale im więcej autonomii im dajemy, tym bardziej musimy się upewnić, że robią dokładnie to, czego od nich oczekujemy”.
Logan Graham, szef zespołu Anthropic ds. testów odporności modeli AI, zaznaczył, że ta sama zdolność modeli, która może pomóc w tworzeniu przełomów medycznych, może także pomóc w stworzeniu broni biologicznej. „Jeśli model może pomóc zbudować broń biologiczną, to zwykle wykorzystuje te same możliwości, które pozwalają mu tworzyć szczepionki czy przyspieszać rozwój terapii” – dodał Graham, cytowany przez źródło. (ao)
Źródło: theguardian.com, AI firms must be clear on risks or repeat tobacco’s mistakes, says Anthropic chief, Dan Milmo, 17.11.2025


