Технокомпанії у США виступають проти створення "кнопки знищення" потужних моделей ШІ

Технокомпанії у США виступають проти створення "кнопки знищення" потужних моделей ШІ

Провідні розробники штучного інтелекту в Каліфорнії (США) виступають проти законопроекту, який зобов'язує їх дотримуватися суворих норм безпеки, включаючи створення "кнопки знищення" для вимкнення своїх потужних моделей ШІ.

Про це повідомляє газета Financial Times.

Законодавчий орган Каліфорнії розглядає пропозиції, які запровадять нові обмеження для технологічних компаній, що працюють у штаті, включаючи три найбільші стартапи у сфері ШІ: OpenAI, Anthropic та Cohere, а також великі мовні моделі, що використовуються такими компаніями, як Meta.

Законопроект?вимагає від груп розробників ШІ в Каліфорнії гарантувати державним органам, що вони не розроблятимуть моделі з "небезпечними можливостями", такими як створення біологічної або ядерної зброї чи допомога в кібератаках.

Відповідно до норм, розробники повинні будуть звітувати про свої випробування на безпеку та запровадити так звану "кнопку знищення" для вимкнення своїх моделей.

Однак закон викликав негативну реакцію з боку багатьох представників Кремнієвої долини через твердження, що він змусить стартапи у сфері ШІ покинути штат і завадить таким платформам, як Meta, працювати з моделями з відкритим вихідним кодом.

"Якби хтось хотів придумати правила, щоб задушити інновації, навряд чи можна було б зробити краще", - сказав Ендрю Нг, відомий вчений-комп'ютерник, який керував проектами ШІ в Google Alphabet та китайському Baidu, і який входить до ради директорів Amazon. "Це створює величезну відповідальність за науково-фантастичні ризики і тим самим розпалює страх у кожного, хто наважується на інновації."

Швидке зростання і величезний потенціал штучного інтелекту викликали занепокоєння щодо безпеки технології: мільярдер Ілон Маск, ранній інвестор компанії OpenAI, що займається розробкою ChatGPT, минулого року назвав її "екзистенційною загрозою" для людства. Цього тижня група нинішніх і колишніх співробітників OpenAI опублікувала відкритого листа, в якому попередила, що "передові ШІ-компанії" не мають достатнього нагляду з боку урядів і становлять "серйозні ризики" для людства.

Нагадаємо:

Група колишніх та нинішніх працівників компаній, що займаються штучним інтелектом (ШІ), включаючи OpenAI та Google DeepMind,висловилазанепокоєння щодо ризиків, пов'язаних з цією технологією, зокрема "вимирання людства".

Економічна правда.

Поділитися сюжетом

Останні новини

Страшніше за токсикоманію: соцмережі заполонив новий смертельний тренд серед підлітків

Як виростити петрушку та кріп у квартирі: головні правила та секрети

Українцям відключають ліфти: змушують "скидатися" на нові

Простий хліб на заквасці без замісу: "Мастер Шеф" дав легкий та смачний рецепт

Гроші українським студентам у Польщі: хто і скільки може отримати

Як обрізати абрикос восени, щоб гарно плодоносив: правила щедрого врожаю

Без згоди не заберуть: хто має імунітет від мобілізації

«Скоро 2 мости у Києві впадуть»: експерт пояснив, для чого потрібен капітальний ремонт

Дрова для опалення: актуальні ціни і які обрати, щоб заощадити

"Хто б міг подумати": Вакарчук зізнався в новому коханні

Відстрочка від мобілізації, від листопада почнуть діяти зміни: спростить процес

Всесвіт шепоче: 9 реальних ознак, що ви збилися зі шляху і займаєтеся не тим, чим повинні

Значно смачніше за звичайну яєчню: швидкий рецепт шакшуки з баклажанами

"Не бійся!" Безугла грубо пожартувала над відомим "кіборгом" та отримала дотепну відповідь

Українцям озвучили тариф на електроенергію у 2025 році: набагато більше, ніж планували