Оглавление
Менее года назад мир технологий сотрясали апокалиптические прогнозы о скором появлении сверхразума, способного уничтожить человечество. Сегодня, когда шумиха улеглась, а обещанные катастрофы не случились, выясняется, что самые громкие «пророки конца света» не только не раскаялись, но и удвоили свои усилия. Их движение не просто живо — оно находит новых сторонников среди политиков и инвесторов, несмотря на очевидный провал в предсказаниях.
От паники к платформе: как катастрофизм стал бизнес-моделью
В мае 2023 года заявление об «снижении риска вымирания от ИИ» подписали сотни экспертов, включая глав OpenAI, Google DeepMind и Anthropic. Этот манифест, написанный в духе панического ужаса, задал тон для всей последующей дискуссии. Сторонники идеи «выравнивания» (alignment) — направления, занимающегося контролем над сверхразумными системами — получили огромную трибуну и финансирование. Их аргумент был прост и страшен: если мы не решим проблему контроля сейчас, через несколько лет будет поздно.
Однако год спустя стало ясно, что предсказания о взрывном росте возможностей ИИ были сильно преувеличены. Современные модели, включая GPT-4, сталкиваются с фундаментальными ограничениями: они не способны к подлинному планированию, не понимают причинно-следственных связей и требуют колоссальных вычислительных ресурсов для скромного прогресса. Вместо экспоненциального роста индустрия столкнулась с «законом убывающей отдачи» от масштабирования данных и параметров.
Движение, построенное на идее неизбежного и быстрого технологического скачка, оказалось не готово к куда более медленному и сложному реальному прогрессу. Их риторика была настолько привязана к идее неминуемой катастрофы, что теперь они вынуждены либо признать ошибку, либо искать новые аргументы для поддержания страха. Пока что они выбирают второе.
Новая стратегия: от науки к лоббизму
Поскольку научные прогнозы не сбылись, акцент сместился с исследований на политическое влияние. Организации вроде Center for AI Safety и Anthropic активно лоббируют законодательные инициативы, направленные на строгое регулирование разработки мощных ИИ-систем. Их цель — закрепить в законе принцип «превентивной осторожности», который по сути требует доказывать безопасность системы до её выпуска — стандарт, практически невыполнимый для любой инновационной технологии.
Этот подход находит отклик у части регуляторов, напуганных технической сложностью темы и желающих перестраховаться. Однако он вызывает резкую критику со стороны многих исследователей, которые видят в этом попытку замедлить прогресс конкурентов под благовидным предлогом. Особенно показателен случай с попыткой ввести мораторий на обучение моделей мощнее GPT-4 — инициатива, которую поддержали некоторые «эсхатологи», но которая была отвергнута как нереалистичная основным научным сообществом.
- Смена риторики: Если раньше говорили о конкретных сроках (5-10 лет до сверхразума), то теперь говорят о «неопределённых, но существующих рисках».
- Политизация: Фокус сместился с технических решений на создание нормативных барьеров.
- Финансирование: Несмотря на спорность прогнозов, поток денег от филантропов и инвесторов, опасающихся экзистенциальных рисков, не иссякает.
Разлом в сообществе: скептики против катастрофистов
Внутри самого AI-сообщества нарастает раскол. С одной стороны — «катастрофисты», убеждённые в необходимости тотального контроля и замедления. С другой — «ускоренцы» (accelerationists), считающие, что ИИ — это величайший шанс для человечества решить глобальные проблемы, и что любые искусственные ограничения лишь отдалят этот момент. Между ними — большинство практикующих инженеров и исследователей, которые видят в текущих моделях мощный, но ограниченный инструмент, требующий разумного, а не панического регулирования.
Проблема в том, что дискуссия всё чаще уходит из плоскости фактов в плоскость идеологии. Аргументы о «непознаваемости будущего сверхразума» по определению нельзя ни доказать, ни опровергнуть, что делает диалог бесплодным. Вместо обсуждения реальных проблем сегодняшнего ИИ — смещений в данных, энергопотребления, концентрации власти у корпораций — общественное внимание захватывают спекуляции о гипотетических угрозах завтрашнего дня.
Самая большая опасность этой истории — не в том, что кто-то ошибается в прогнозах. Ошибаются все. Опасность в том, что группа людей, поставившая на конец света, теперь обладает влиянием, деньгами и доступом к регуляторам. Они могут не остановить апокалипсис, но вполне способны затормозить полезные инновации в медицине, науке и образовании, создав регуляторный кошмар вокруг всего, что пахнет «продвинутым ИИ». Их неугасающий энтузиазм — это уже не научная гипотеза, а политический проект.
Итог предсказуем: пока реальные системы сталкиваются с прозаическими проблемами надёжности и стоимости, виртуальные баталии о судьбе человечества будут продолжаться. И те, кто громче всех кричал о конце, окажутся последними, кто признает, что мир, как и прежде, продолжает вращаться.
По материалам MIT Technology Review.
Оставить комментарий