Оглавление

Пока технологические компании декларируют разработку «этического ИИ», фундаментальная проблема остается нерешенной: мы не можем запрограммировать мораль, потому что сами не знаем, что это такое. ИИ усугубляет раскол общества, одновременно делая оружие массового поражения доступным каждому.

Новая эра угроз

Впервые в истории смертоносные дроны можно собрать из деталей, купленных в обычном магазине. Любой человек теперь способен создать эскадрилью автономного оружия, помещающуюся на ладони. Еще опаснее ситуация в вычислительной биологии, где ИИ превратил создание генетически модифицированного биологического оружия в технологию, доступную в домашних условиях.

Почему правила Азимова для ИИ не работают в реальном мире

Законы Азимова / источник: thereader.mitpress.mit.edu

Как отмечает Де Кай в своей книге «Raising AI: An Essential Guide to Parenting Our Future», настоящая угроза исходит не от ИИ-повелителей, а от гиперполяризованного, гипервооруженного человечества, уничтожающего само себя.

Почему законы робототехники не работают

Классические три закона робототехники Айзека Азимова кажутся логичным решением, но в реальности сталкиваются с тремя фундаментальными проблемами:

  • Этические принципы постоянно конфликтуют друг с другом
  • Главная опасность исходит не от физических действий ИИ, а от коммуникационных, усугубляющих раскол общества
  • Современные ИИ — это обучающиеся системы, а не логические машины

«Печально, но основанная на правилах конституция для ИИ — это несбыточная мечта. Она не может работать», — констатирует автор.

Проблема вагонетки в масштабе человечества

Классическая дилемма вагонетки прекрасно иллюстрирует проблему. Автономный транспорт приближается к пяти людям на пути, но может свернуть и убить одного человека на боковой ветке. Что должен сделать ИИ?

Люди не могут прийти к согласию в этом вопросе, что уж говорить о программировании единых правил для искусственного интеллекта.

Парадокс в том, что мы пытаемся создать этические рамки для систем, которые уже сегодня делают оружие массового поражения доступным каждому, одновременно усугубляя социальные расколы. Ирония «этичного ИИ» напоминает попытку научить ребенка морали, ежедневно демонстрируя ему противоположные примеры. Пока регуляторы спорят о формулировках, технологические компании уже де-факто определяют, какими ценностями будет руководствоваться ИИ — просто через данные, на которых он обучается.

Платформа «Moral Machine» от MIT собрала уже более 100 миллионов решений от людей по всему миру, демонстрируя культурные различия в этических предпочтениях.

Культурное обучение вместо жестких правил

Ключевой провал подхода с жесткими правилами заключается в том, что современные ИИ по определению являются адаптивными системами — они учатся на культуре вокруг себя. Вопрос не в том, как запрограммировать этику, а в том, какую культуру они усвоят: культуру страха или культуру любви?

Как писал Де Кай в The New York Times после кризиса в OpenAI, даже горстка руководителей не смогла договориться о «правильных» целях для ИИ — что уж говорить обо всем человечестве.

По материалам MIT Press Reader.