Технокомпанії у США виступають проти створення "кнопки знищення" потужних моделей ШІ

Технокомпанії у США виступають проти створення "кнопки знищення" потужних моделей ШІ

Провідні розробники штучного інтелекту в Каліфорнії (США) виступають проти законопроекту, який зобов'язує їх дотримуватися суворих норм безпеки, включаючи створення "кнопки знищення" для вимкнення своїх потужних моделей ШІ.

Про це повідомляє газета Financial Times.

Законодавчий орган Каліфорнії розглядає пропозиції, які запровадять нові обмеження для технологічних компаній, що працюють у штаті, включаючи три найбільші стартапи у сфері ШІ: OpenAI, Anthropic та Cohere, а також великі мовні моделі, що використовуються такими компаніями, як Meta.

Законопроект?вимагає від груп розробників ШІ в Каліфорнії гарантувати державним органам, що вони не розроблятимуть моделі з "небезпечними можливостями", такими як створення біологічної або ядерної зброї чи допомога в кібератаках.

Відповідно до норм, розробники повинні будуть звітувати про свої випробування на безпеку та запровадити так звану "кнопку знищення" для вимкнення своїх моделей.

Однак закон викликав негативну реакцію з боку багатьох представників Кремнієвої долини через твердження, що він змусить стартапи у сфері ШІ покинути штат і завадить таким платформам, як Meta, працювати з моделями з відкритим вихідним кодом.

"Якби хтось хотів придумати правила, щоб задушити інновації, навряд чи можна було б зробити краще", - сказав Ендрю Нг, відомий вчений-комп'ютерник, який керував проектами ШІ в Google Alphabet та китайському Baidu, і який входить до ради директорів Amazon. "Це створює величезну відповідальність за науково-фантастичні ризики і тим самим розпалює страх у кожного, хто наважується на інновації."

Швидке зростання і величезний потенціал штучного інтелекту викликали занепокоєння щодо безпеки технології: мільярдер Ілон Маск, ранній інвестор компанії OpenAI, що займається розробкою ChatGPT, минулого року назвав її "екзистенційною загрозою" для людства. Цього тижня група нинішніх і колишніх співробітників OpenAI опублікувала відкритого листа, в якому попередила, що "передові ШІ-компанії" не мають достатнього нагляду з боку урядів і становлять "серйозні ризики" для людства.

Нагадаємо:

Група колишніх та нинішніх працівників компаній, що займаються штучним інтелектом (ШІ), включаючи OpenAI та Google DeepMind,висловилазанепокоєння щодо ризиків, пов'язаних з цією технологією, зокрема "вимирання людства".

Економічна правда.

Поделиться сюжетом

Последние новости

Как сохранить рассаду земляники до весны: эксперты дал советы, как правильно подготовиться к зиме

Медиум Анна Атаманова рассказала о новом генсеке НАТО и перспективах вступления Украины: «Есть уже прописанный план»

Для парней в вузах введут новое правило: придется пройти каждому

Как вырастить петрушку и укроп в квартире: главные правила и секреты

Страшнее токсикомании: соцсети заполонил новый смертельный тренд среди подростков

Украинцам отключают лифты: заставляют "сктдываться" на новые

Простой хлеб на закваске без замеса: "Мастер Шеф" дал легкий и вкусный рецепт

Деньги украинским студентам в Польше: кто и сколько может получить

Как обрезать абрикос осенью, чтобы хорошо плодоносил: правила щедрого урожая

Без согласия не заберут: кто имеет иммунитет от мобилизации

«Скоро 2 моста в Киеве упадут»: эксперт объяснил, для чего нужен капитальный ремонт

Дрова для отопления: актуальные цены и какие выбрать, чтобы сэкономить

"Кто бы мог подумать": Вакарчук признался в новой любви

Отсрочка от мобилизации, с ноября начнут действовать изменения: упростит процесс

Вселенная шепчет: 9 реальных признаков, что вы сбились с пути и занимаетесь не тем, чем должны