Адвокат Стивен Оттли публично признал использование ChatGPT при подготовке материалов для слушаний по делу об убийстве в Новом Южном Уэльсе, что привело к включению в документы вымышленных судебных прецедентов. Как пишет ABC News, искусственный интеллект сфабриковал шесть несуществующих дел с детализированными, но ложными цитатами и выводами.
Профессиональный провал с последствиями
Инцидент произошел во время ходатайства об изменении меры пресечения для обвиняемого в убийстве. Судья обнаружил аномалии при проверке источников:
- Отсутствие указанных дел в юридических базах данных
- Некорректные названия судов в цитатах
- Противоречивые процессуальные детали в «прецедентах»
Системная проблема ИИ-инструментов
Оттли заявил, что воспринял выводы ChatGPT как достоверные без перепроверки. Это не первый случай «юридических галлюцинаций» ИИ: в 2023 году американские адвокаты подверглись санкциям за аналогичные ошибки. Проблема усугубляется тем, что нейросети:
- Генерируют правдоподобные формулировки без фактической основы
- Не различают достоверные и вымышленные источники
- Требуют экспертной валидации в профессиональных контекстах
Этот инцидент — не технический сбой, а кризис профессиональной этики. Юристы, использующие ИИ как «чёрный ящик» для экономии времени, ставят под удар правосудие. Особенно тревожно, что ошибки возникли в уголовном деле, где ставки — человеческая свобода. Решение не в запрете технологий, а в разработке протоколов верификации: обязательной перекрёстной проверки выходных данных ИИ через официальные базы. Пока такие меры не станут отраслевым стандартом, мы будем видеть повторение скандалов.
Оттли принёс извинения суду и обязался проходить обучение по цифровой грамотности. Дело продолжается с новым адвокатом.
Оставить комментарий