Оглавление

Более 1000 экспертов и публичных деятелей призывают ввести запрет на разработку сверхразумного искусственного интеллекта до тех пор, пока не будет достигнут «широкий научный консенсус о безопасности и контролируемости таких систем» и не получено «общественное одобрение».

Коллективный призыв к осторожности

Согласно заявлению, ведущие компании в области ИИ участвуют в гонке по созданию систем, которые смогут превзойти людей практически в каждой когнитивной задаче в течение «ближайшего десятилетия». Подписанты предупреждают о серьёзных рисках: экономических потрясениях, потере человеческого контроля, угрозах гражданским свободам и даже потенциальном вымирании человечества.

Среди подписавшихся — самые громкие имена в отрасли, включая лауреатов премии Тьюринга Джеффри Хинтона и Ёшуа Бенжио, которые входят в число наиболее цитируемых исследователей ИИ в мире. По словам Бенжио, новые системы ИИ должны быть «фундаментально неспособны причинять вред людям», будь то непреднамеренное поведение или злоупотребление.

Широкий круг сторонников

Поддержка простирается далеко за пределы академических кругов. Среди подписантов — сооснователь Apple Стив Возняк, основатель Virgin Ричард Брэнсон, бывший советник по национальной безопасности США Сьюзан Райс, а также принц Гарри и Меган. Историк Юваль Ной Харари предупреждает, что сверхразумный ИИ может разрушить «операционную систему человеческой цивилизации». Даже принц Гарри высказался по поводу ИИ: «Будущее ИИ должно служить человечеству, а не заменять его».

Интересно наблюдать, как с каждой новой волной предупреждений растёт разрыв между риторикой и реальностью. Те же люди, которые называют нынешние ИИ-системы «тупиковым путём», одновременно требуют их срочного регулирования. Напоминает ситуацию, когда пожарные требуют запретить воду, пока не докажут, что она не горит.

Глубокий раскол в сообществе ИИ

Заявление обнажает глубину раскола в отрасли. В то время как одни сосредоточены на экзистенциальных рисках, другие считают эти предупреждения преувеличенными или даже стратегическими.

Ян Лекун, главный научный сотрудник по ИИ в Meta*, недавно раскритиковал генерального директора Anthropic Дарио Амодеи, который публично предупреждает об опасностях ИИО, одновременно создавая аналогичные системы. Лекун назвал эту позицию «интеллектуально нечестной», утверждая, что современные большие языковые модели переоценены и движутся в технологический тупик.

Стюарт Рассел также предупреждает о возможном пузыре ИИ: завышенные ожидания могут спровоцировать внезапную потерю доверия, подобно краху доткомов. Даже председатель совета директоров OpenAI Брет Тейлор видит сильные параллели между сегодняшним бумом ИИ и эпохой доткомов.

Инициатива исходит от Института будущего жизни, который призывал к шестимесячной паузе в исследованиях продвинутого ИИ в открытом письме в начале 2023 года. Письмо попало в заголовки газет и вызвало дискуссии, но в конечном итоге не оказало влияния на темпы развития отрасли.

Источник новости: The Decoder

* Meta (признана экстремистской и запрещена в РФ)