Технокомпанії у США виступають проти створення "кнопки знищення" потужних моделей ШІ

Технокомпанії у США виступають проти створення "кнопки знищення" потужних моделей ШІ

Провідні розробники штучного інтелекту в Каліфорнії (США) виступають проти законопроекту, який зобов'язує їх дотримуватися суворих норм безпеки, включаючи створення "кнопки знищення" для вимкнення своїх потужних моделей ШІ.

Про це повідомляє газета Financial Times.

Законодавчий орган Каліфорнії розглядає пропозиції, які запровадять нові обмеження для технологічних компаній, що працюють у штаті, включаючи три найбільші стартапи у сфері ШІ: OpenAI, Anthropic та Cohere, а також великі мовні моделі, що використовуються такими компаніями, як Meta.

Законопроект?вимагає від груп розробників ШІ в Каліфорнії гарантувати державним органам, що вони не розроблятимуть моделі з "небезпечними можливостями", такими як створення біологічної або ядерної зброї чи допомога в кібератаках.

Відповідно до норм, розробники повинні будуть звітувати про свої випробування на безпеку та запровадити так звану "кнопку знищення" для вимкнення своїх моделей.

Однак закон викликав негативну реакцію з боку багатьох представників Кремнієвої долини через твердження, що він змусить стартапи у сфері ШІ покинути штат і завадить таким платформам, як Meta, працювати з моделями з відкритим вихідним кодом.

"Якби хтось хотів придумати правила, щоб задушити інновації, навряд чи можна було б зробити краще", - сказав Ендрю Нг, відомий вчений-комп'ютерник, який керував проектами ШІ в Google Alphabet та китайському Baidu, і який входить до ради директорів Amazon. "Це створює величезну відповідальність за науково-фантастичні ризики і тим самим розпалює страх у кожного, хто наважується на інновації."

Швидке зростання і величезний потенціал штучного інтелекту викликали занепокоєння щодо безпеки технології: мільярдер Ілон Маск, ранній інвестор компанії OpenAI, що займається розробкою ChatGPT, минулого року назвав її "екзистенційною загрозою" для людства. Цього тижня група нинішніх і колишніх співробітників OpenAI опублікувала відкритого листа, в якому попередила, що "передові ШІ-компанії" не мають достатнього нагляду з боку урядів і становлять "серйозні ризики" для людства.

Нагадаємо:

Група колишніх та нинішніх працівників компаній, що займаються штучним інтелектом (ШІ), включаючи OpenAI та Google DeepMind,висловилазанепокоєння щодо ризиків, пов'язаних з цією технологією, зокрема "вимирання людства".

Економічна правда.

Поділитися сюжетом

Останні новини

Верховна Рада ухвалила закон: які нововведення готуються в армії

"Нафтогаз" попередив українців про опалення: відомо, що потрібно зробити перед включенням тепла в оселі

​Онук та дід з Одеси налагодили міжнародний наркотрафік у дитячих іграшках

Кличко: Столиця підготувала до зими 550 одиниць снігоприбиральної техніки та зробила запаси солі і піску

У РНБО відреагували на фейк z-пропаганди про масовані ракетні удари

За "уламками" по НПЗ у Саратові стоїть Головне управління розвідки

Відпочинь від Dota 2, адже студія Blizzard готується до анонсу ремастера Warcraft II

Масована нічна атака по Одесі: є жертви та поранені, моторошні кадри

Як можуть змінитися комунальні платіжки у 2025 році

"Укрзалізниця" оскандалилась через російську мову

Переломний момент: Генсек НАТО розповів, чому війська КНДР у Європі змінюють правила гри

Донька Маска через перемогу Трампа ухвалила важливе життєве рішення

Мільйонні борги спонукають до підвищення тарифів: вода з крана може стати дорогим задоволенням

Фіксував розміщення військових об'єктів: ТЦКшник зливав росіянам позиції ЗСУ

​Війська РФ атакують ЗСУ хімічними боєприпасами: за жовтень було понад 320 випадків