Зіко Колтер: Професор, який має право зупинити випуск небезпечного ШІ від OpenAI

Зіко Колтер: Професор, який має право зупинити випуск небезпечного ШІ від OpenAI

Декількома словами

Професор Зіко Колтер очолює Комітет з безпеки та захисту OpenAI, який має повноваження зупиняти випуск нових систем ШІ, якщо вони будуть визнані небезпечними. Його наглядова роль була закріплена в угодах з регуляторами США щодо реструктуризації компанії.


Якщо ви вважаєте, що штучний інтелект (ШІ) несе серйозні ризики для людства, то професор Університету Карнегі-Меллона наразі відіграє одну з найважливіших ролей у технологічній індустрії.

Зіко Колтер очолює Комітет з безпеки та захисту OpenAI, що складається з чотирьох осіб, який має повноваження зупиняти випуск нових систем ШІ від творця ChatGPT, якщо вони будуть визнані небезпечними. Це може бути технологія настільки потужна, що зловмисник зможе використати її для створення зброї масового знищення, або ж погано розроблений чат-бот, який може завдати шкоди психічному здоров’ю людей.

«Ми говоримо не лише про екзистенційні проблеми. Ми говоримо про весь спектр питань безпеки та критично важливих тем, які виникають, коли ми починаємо обговорювати ці широко використовувані системи ШІ», — заявив Колтер в інтерв’ю.

OpenAI призначила цього вченого-комп’ютерника головою свого Комітету з безпеки та захисту більше року тому. Однак його посада набула особливого значення минулого тижня, коли регулятори Каліфорнії та Делавера зробили нагляд Колтера ключовою частиною своїх угод, що дозволяють OpenAI реструктуризуватися для легшого залучення капіталу та отримання прибутку.

Безпека була центральною місією OpenAI з моменту її заснування як некомерційної дослідницької лабораторії десять років тому. Проте після випуску ChatGPT, який спровокував глобальний комерційний бум ШІ, компанію звинуватили в тому, що вона поспішає виводити продукти на ринок, не забезпечивши їхню повну безпеку. Внутрішні розбіжності, які призвели до тимчасового усунення генерального директора Сема Альтмана у 2023 році, привернули широку увагу до побоювань, що компанія відхилилася від своєї початкової місії.

Суть нещодавніх офіційних зобов’язань OpenAI перед генеральними прокурорами Каліфорнії та Делавера полягає в тому, що рішення про безпеку та захист повинні передувати фінансовим міркуванням. Колтер буде членом ради некомерційного фонду, але не увійде до ради комерційної частини. Тим не менш, він матиме «повні права спостереження» для відвідування всіх засідань комерційної ради та доступу до інформації, що стосується рішень про безпеку ШІ.

Колтер підтвердив, що угоди значною мірою закріплюють повноваження його комітету, який може:

  • Запитувати затримки випуску моделей доти, доки не будуть виконані певні заходи щодо пом’якшення ризиків.
  • Розглядати широкий спектр проблем, від кібербезпеки (наприклад, чи може агент ШІ випадково передати дані) до питань безпеки, пов’язаних із «вагами» моделей ШІ.

Професор визнав, що існують нові, специфічні для ШІ проблеми, які не мають аналогів у традиційній безпеці, такі як можливість використання моделей зловмисниками для розробки біологічної зброї або проведення кібератак. Крім того, комітет займатиметься впливом ШІ на людей, включаючи ментальне здоров’я.

Про автора

Юрій - журналіст, що спеціалізується на висвітленні питань безпеки та оборони США. Його статті відзначаються глибоким аналізом військових подій, розкриттям важливих аспектів національної безпеки та оборонної політики США. Він регулярно висвітлює важливі події у сфері безпеки та оборони.