Технокомпанії у США виступають проти створення "кнопки знищення" потужних моделей ШІ

Технокомпанії у США виступають проти створення "кнопки знищення" потужних моделей ШІ

Провідні розробники штучного інтелекту в Каліфорнії (США) виступають проти законопроекту, який зобов'язує їх дотримуватися суворих норм безпеки, включаючи створення "кнопки знищення" для вимкнення своїх потужних моделей ШІ.

Про це повідомляє газета Financial Times.

Законодавчий орган Каліфорнії розглядає пропозиції, які запровадять нові обмеження для технологічних компаній, що працюють у штаті, включаючи три найбільші стартапи у сфері ШІ: OpenAI, Anthropic та Cohere, а також великі мовні моделі, що використовуються такими компаніями, як Meta.

Законопроект?вимагає від груп розробників ШІ в Каліфорнії гарантувати державним органам, що вони не розроблятимуть моделі з "небезпечними можливостями", такими як створення біологічної або ядерної зброї чи допомога в кібератаках.

Відповідно до норм, розробники повинні будуть звітувати про свої випробування на безпеку та запровадити так звану "кнопку знищення" для вимкнення своїх моделей.

Однак закон викликав негативну реакцію з боку багатьох представників Кремнієвої долини через твердження, що він змусить стартапи у сфері ШІ покинути штат і завадить таким платформам, як Meta, працювати з моделями з відкритим вихідним кодом.

"Якби хтось хотів придумати правила, щоб задушити інновації, навряд чи можна було б зробити краще", - сказав Ендрю Нг, відомий вчений-комп'ютерник, який керував проектами ШІ в Google Alphabet та китайському Baidu, і який входить до ради директорів Amazon. "Це створює величезну відповідальність за науково-фантастичні ризики і тим самим розпалює страх у кожного, хто наважується на інновації."

Швидке зростання і величезний потенціал штучного інтелекту викликали занепокоєння щодо безпеки технології: мільярдер Ілон Маск, ранній інвестор компанії OpenAI, що займається розробкою ChatGPT, минулого року назвав її "екзистенційною загрозою" для людства. Цього тижня група нинішніх і колишніх співробітників OpenAI опублікувала відкритого листа, в якому попередила, що "передові ШІ-компанії" не мають достатнього нагляду з боку урядів і становлять "серйозні ризики" для людства.

Нагадаємо:

Група колишніх та нинішніх працівників компаній, що займаються штучним інтелектом (ШІ), включаючи OpenAI та Google DeepMind,висловилазанепокоєння щодо ризиків, пов'язаних з цією технологією, зокрема "вимирання людства".

Економічна правда.

Поделиться сюжетом

Последние новости

Верховная Рада приняла закон: какие нововведения готовятся в армии

"Нафтогаз" предупредил украинцев об отоплении: известно, что нужно сделать перед включением тепла в жилище

Внук и дед из Одессы наладили международный наркотрафик в детских игрушках

Кличко: Столица подготовила к зиме 550 единиц снегоуборочной техники и сделала запас соли и песка

В СНБО отреагировали на фейк z-пропаганды о массированных ракетных ударах

За «обломками» по НПЗ в Саратове стоит Главное управление разведки

Отдых от Dota 2, ведь студия Blizzard готовится к анонсу ремастера Warcraft II

Массированная ночная атака по Одессе: есть жертвы и раненые, жуткие кадры

Как могут измениться коммунальные платежки в 2025 году

"Укрзализныця" оскандалилась из-за русского языка

Переломный момент: Генсек НАТО рассказал, почему войска КНДР в Европе меняют правила игры

Дочь Маска из-за победы Трампа приняла важное жизненное решение

Миллионные долги побуждают к повышению тарифов: вода из крана может стать дорогим удовольствием

Фиксировал размещение военных объектов: ТЦКшник сливал россиянам позиции ВСУ

Войска РФ атакуют ВСУ химическими боеприпасами: за октябрь было более 320 случаев