Оглавление

Белый дом представил План действий по ИИ, объявляющий войну так называемому «пробужденному ИИ» — языковым моделям, чьи ответы расходятся с позицией администрации по климату, гендерным вопросам и другим темам. Документ также атакует методы снижения расовых и гендерных предубеждений в ИИ, включая противодействие разжиганию ненависти.

По сообщению EFF, сопутствующий указ «О предотвращении пробужденного ИИ в правительстве» требует от компаний-подрядчиков доказать отсутствие в их моделях «идеологических предубеждений», таких как принципы разнообразия и инклюзивности.

Меньше точности, больше дискриминации

ИИ-модели исторически воспроизводят предубеждения тренировочных данных. Например:

  • Полицейские системы прогнозирования преступлений, обученные на смещенных данных, непропорционально нацеливаются на цветные районы
  • Языковые модели рекомендуют более строгие приговоры и менее престижные должности для меньшинств
  • Генераторы изображений создают 80% заключенных с темной кожей и 90% судей-мужчин, хотя реальная доля женщин-судей — 34%

Как отмечает Стэнфордский институт, расовая и гендерная принадлежность — не объективные критерии для решений о найме или осуждении. Устранение предвзятости — путь к точности, а не «идеологическая диверсия».

Государственный ИИ с предубеждениями опасен

План администрации предполагает массовое внедрение ИИ в госорганах, принимающих решения о свободе, жилье и здравоохранении. При этом отменены защитные меры эпохи Байдена, включая два указа по этике ИИ. Корпорации (страховщики, арендодатели) перенимают государственные подходы — их предвзятые алгоритмы влияют на миллионы.

Политизация ИИ — худший сценарий для технологии. Требование «деидеологизировать» модели фактически запрещает борьбу с документально подтверждёнными предубеждениями в данных. Вместо точности мы получим алгоритмы, воспроизводящие исторические несправедливости. Особенно цинично выглядит использование ИИ для автоматизации решений о свободе граждан — это превращает технологию в инструмент институциональной дискриминации. Государственный контроль над ИИ должен минимизировать вред, а не увековечивать его под лозунгами.