Naciśnij przycisk odtwarzania, aby odsłuchać tę zawartość
1x
Szybkość odtwarzania- 0.5
- 0.6
- 0.7
- 0.8
- 0.9
- 1
- 1.1
- 1.2
- 1.3
- 1.5
- 2
OpenAI w ogniu krytyki. Chodzi o komitet ds. bezpieczeństwa. openai utworzyło nowy komitet ds. bezpieczeństwa, który ma nadzorować decyzje dotyczące bezpieczeństwa i ochrony w firmie – przekazuje techcrunch.com. kontrowersje wzbudził fakt, że zespół składa się tylko z osób pracujących „wewnątrz firmy” – dowiadujemy się. jak czytamy, w skład komitetu wchodzą m.in. sam altman, dyrektor generalny przedsiębiorstwa, szef systemów bezpieczeństwa lilian weng czy główny naukowiec jakub pachocki. zasiadają w nim również członkowie zarządu – bret taylor, adam d’angelo i nicole seligman. źródło przekazuje, że na blogu firmy pojawiła się informacja, zgodnie z którą grupa będzie odpowiedzialna za ocenę procesów bezpieczeństwa i zabezpieczeń openai w ciągu najbliższych 90 dni. następnie podzieli się ona swoimi ustaleniami i zaleceniami z pełnym zarządem openai w celu „przeglądu”. opublikuje również aktualizację wszelkich przyjętych sugestii „w sposób zgodny z bezpieczeństwem i ochroną”. techcrunch.com donosi, że w ciągu ostatnich kilku miesięcy firma odnotowała kilka „głośnych odejść” z działu bezpieczeństwa swojego zespołu technicznego. niektórzy z byłych pracowników wyrazili obawy dotyczące „celowego pozbawienia priorytetów bezpieczeństwa sztucznej inteligencji”. autor artykułu kyle wiggers wspomina o danielu kokotajlo, który w kwietniu 2024 roku odszedł z zespołu zarządzającego openai. swoją decyzję motywował tym, że stracił pewność, że firma będzie „zachowywać się odpowiedzialnie” w związku z tworzeniem coraz bardziej rozwiniętych systemów. dziennikarz przekazuje także, że w maju 2024 roku z pracy w firmie zrezygnował ilya sutskever, współzałożyciel openai i były główny naukowiec firmy. powodem miał być pośpiech altmana związany z wprowadzeniem na rynek produktów „kosztem pracy nad ich bezpieczeństwem”. co więcej, również jan leike, były badacz bezpieczeństwa w deepmind, który podczas pracy w openai był zaangażowany w rozwój narzędzia chatgpt i jego poprzednika instructgpt, zrezygnował z pełnionej przez siebie funkcji w firmie altmana. w serii postów na x komunikował, że nie wierzy w to, że narzędzia przedsiębiorstwa są na drodze do osiągnięcia bezpieczeństwa i ochrony „we właściwy sposób”. redaktor wspomina również o badaczce polityki ai gretchen krueger, która opuściła openai w zeszłym tygodniu. wezwała firmę do poprawy odpowiedzialności i przejrzystości oraz „staranności, z jaką [wykorzystuje] własną technologię”. techcrunch.com przekazuje za qz.com, że oprócz wspomnianych osób „co najmniej pięciu najbardziej świadomych procedur bezpieczeństwa pracowników openai odeszło lub zostało zwolnionych od końca 2023 roku (…)”. z firmą nie są już również związani byli członkowie zarządu – helen toner i tasha mccauley. stwierdzili oni, że nie wierzą, że pod przywództwem altmana openai jest wiarygodne w kwestii odpowiedzialności. źródło donosi, że ostatecznie – starając się uniknąć kontrowersji związanych z etyką przedsiębiorstwa – openai zobowiązało się do zatrudnienia zewnętrznych ekspertów ds. „bezpieczeństwa, ochrony i techniki”, którzy będą wspierać prace komisji, w tym weterana cyberbezpieczeństwa roba joyce’a i byłego urzędnika departamentu sprawiedliwości stanów zjednoczonych johna carlina. firma nie udzieliła większej ilości informacji dotyczących „grupy zewnętrznej”. (an).
OpenAI utworzyło nowy komitet ds. bezpieczeństwa, który ma nadzorować decyzje dotyczące bezpieczeństwa i ochrony w firmie – przekazuje techcrunch.com. Kontrowersje wzbudził fakt, że zespół składa się tylko z osób pracujących „wewnątrz firmy” – dowiadujemy się.
Jak czytamy, w skład komitetu wchodzą m.in. Sam Altman, dyrektor generalny przedsiębiorstwa, szef systemów bezpieczeństwa Lilian Weng czy główny naukowiec Jakub Pachocki. Zasiadają w nim również członkowie zarządu – Bret Taylor, Adam D’Angelo i Nicole Seligman.
Źródło przekazuje, że na blogu firmy pojawiła się informacja, zgodnie z którą grupa będzie odpowiedzialna za ocenę procesów bezpieczeństwa i zabezpieczeń OpenAI w ciągu najbliższych 90 dni. Następnie podzieli się ona swoimi ustaleniami i zaleceniami z pełnym zarządem OpenAI w celu „przeglądu”. Opublikuje również aktualizację wszelkich przyjętych sugestii „w sposób zgodny z bezpieczeństwem i ochroną”.
Techcrunch.com donosi, że w ciągu ostatnich kilku miesięcy firma odnotowała kilka „głośnych odejść” z działu bezpieczeństwa swojego zespołu technicznego. Niektórzy z byłych pracowników wyrazili obawy dotyczące „celowego pozbawienia priorytetów bezpieczeństwa sztucznej inteligencji”.
Autor artykułu Kyle Wiggers wspomina o Danielu Kokotajlo, który w kwietniu 2024 roku odszedł z zespołu zarządzającego OpenAI. Swoją decyzję motywował tym, że stracił pewność, że firma będzie „zachowywać się odpowiedzialnie” w związku z tworzeniem coraz bardziej rozwiniętych systemów.
Dziennikarz przekazuje także, że w maju 2024 roku z pracy w firmie zrezygnował Ilya Sutskever, współzałożyciel OpenAI i były główny naukowiec firmy. Powodem miał być pośpiech Altmana związany z wprowadzeniem na rynek produktów „kosztem pracy nad ich bezpieczeństwem”.
Co więcej, również Jan Leike, były badacz bezpieczeństwa w DeepMind, który podczas pracy w OpenAI był zaangażowany w rozwój narzędzia ChatGPT i jego poprzednika InstructGPT, zrezygnował z pełnionej przez siebie funkcji w firmie Altmana. W serii postów na X komunikował, że nie wierzy w to, że narzędzia przedsiębiorstwa są na drodze do osiągnięcia bezpieczeństwa i ochrony „we właściwy sposób”.
Redaktor wspomina również o badaczce polityki AI Gretchen Krueger, która opuściła OpenAI w zeszłym tygodniu. Wezwała firmę do poprawy odpowiedzialności i przejrzystości oraz „staranności, z jaką [wykorzystuje] własną technologię”.
Techcrunch.com przekazuje za qz.com, że oprócz wspomnianych osób „co najmniej pięciu najbardziej świadomych procedur bezpieczeństwa pracowników OpenAI odeszło lub zostało zwolnionych od końca 2023 roku (…)”. Z firmą nie są już również związani byli członkowie zarządu – Helen Toner i Tasha McCauley. Stwierdzili oni, że nie wierzą, że pod przywództwem Altmana OpenAI jest wiarygodne w kwestii odpowiedzialności.
Źródło donosi, że ostatecznie – starając się uniknąć kontrowersji związanych z etyką przedsiębiorstwa – OpenAI zobowiązało się do zatrudnienia zewnętrznych ekspertów ds. „bezpieczeństwa, ochrony i techniki”, którzy będą wspierać prace komisji, w tym weterana cyberbezpieczeństwa Roba Joyce’a i byłego urzędnika Departamentu Sprawiedliwości Stanów Zjednoczonych Johna Carlina. Firma nie udzieliła większej ilości informacji dotyczących „grupy zewnętrznej”. (an)