Оглавление

Как сообщает The Decoder, Элиезер Юдковский, сооснователь Machine Intelligence Research Institute (MIRI), выступил с радикальным требованием полного запрета разработки искусственного интеллекта на международном уровне. В своей новой книге «Если кто-то построит это, все умрут», написанной в соавторстве с президентом MIRI Нейтом Соаресом, он утверждает, что любой искусственный сверхинтеллект, созданный по современным методикам, неизбежно приведет к гибели человечества.

Бескомпромиссная позиция

Юдковский настаивает, что единственной эффективной мерой регулирования ИИ может быть только международный договор, юридически обязывающий остановить все системы. «Все, кроме полного запрета — от тестирования на уязвимости до исследований интерпретируемости или оценки моделей — бессмысленно», — заявил он в интервью New York Times.

Он сравнивает неизбежность такого исхода с законами физики: «Представьте, что вы подходите к физику и спрашиваете: „Изменяют ли последние открытия в физике ваше мнение о падающих со скал камнях?“»

Долгосрочный голос тревоги

Юдковский является одной из центральных фигур в сообществе рационалистов и сооснователем MIRI — некоммерческой организации в Беркли, изучающей риски продвинутого ИИ с начала 2000-х годов. Его радикальные призывы — от приостановки обучения ИИ до авторизации военных ударов по неконтролируемым дата-центрам — сделали его одной из самых противоречивых фигур в современных дебатах об искусственном интеллекте.

Позиция Юдковского представляет собой интересный философский парадокс: предупреждая об опасности сверхразума, он одновременно демонстрирует почти религиозную веру в его неизбежное появление и всемогущество. Ирония в том, что столь категоричные утверждения о будущем технологии, которая по определению непредсказуема, сами по себе являются формой интеллектуального риска. Вместо продуктивного диалога мы получаем ультиматум: либо полный запрет, либо апокалипсис — как будто в сложном мире технологического прогресса возможны только бинарные решения.

Отсутствие временных рамок и компромиссов

Юдковский отвергает подход многих политиков, привязывающих меры регулирования к временным рамкам или вероятностным прогнозам. «Что это за одержимость сроками?» — задается он вопросом. Откладывать регулирование потому, что прорыв может произойти через десять, двадцать или пятьдесят лет, по его мнению, безрассудно.

Он также отвергает любую зависимость от корпоративной культуры или этики компаний. «Хорошие» команды могут быть чуть менее опасными, признает он, но структурно исход идентичен. Как только возможности продвинутся достаточно далеко, регулирование, не предусматривающее остановку, не сможет предотвратить катастрофу.

Для него это становится тестом на серьезность. Любой участник, который заявляет о заботе экзистенциальных рисков, но избегает поддержки остановки, в его глазах непоследователен.