Оглавление

Более 370 000 приватных диалогов с ИИ-ассистентом Grok от xAI стали публично доступны через поисковые системы, сообщает Fortune. Утечка произошла из-за функции совместного доступа, которая автоматически индексировала ссылки на чаты без ведома пользователей.

Что произошло с данными пользователей

Проблема возникла в функции «Поделиться», которая создает уникальные URL-адреса для чатов. Эти ссылки автоматически публиковались на сайте Grok и оставались открытыми для поисковых систем. Среди опубликованных данных оказались:

  • Медицинские и психологические запросы
  • Конфиденциальная бизнес-информация
  • Как минимум один пароль
  • Инструкции по изготовлению наркотических веществ
  • Подробные планы покушения на Илона Маска

При этом, в отличие от аналогичной функции OpenAI, Grok не предупреждал пользователей о возможной публикации чатов в поисковых системах.

Исторический контекст утечек ИИ-чатов

Это не первый случай, когда приватные разговоры с ИИ-ассистентами оказываются в открытом доступе. Ранее OpenAI экспериментировала с похожей функцией совместного использования, что привело к индексации более 4500 чатов в Google.

OpenAI быстро удалила функцию, признав, что она «создала слишком много возможностей для случайной публикации того, чем пользователи не планировали делиться». Интересно, что в тот момент Илон Маск использовал инцидент для продвижения Grok как альтернативы ChatGPT, написав в X: «Grok FTW».

Аналогичные проблемы были замечены у Meta* AI, где чаты публиковались в ленте Discover и также индексировались поисковыми системами.

Ситуация демонстрирует системную проблему ИИ-индустрии: компании спешат выпускать продукты, пренебрегая базовыми принципами безопасности данных. Особенно иронично, что Маск, критиковавший OpenAI за утечки, повторил ту же ошибку, но без даже минимальных предупреждений для пользователей.

Последствия и потенциальные риски

Эксперты по конфиденциальности давно предупреждают, что чаты с ИИ-ботами могут быть не такими приватными, как кажется. Люк Рошер из Oxford Internet Institute называет ИИ-чаты «катастрофой конфиденциальности в процессе развития».

Основные риски включают:

  1. Невозможность полного удаления once опубликованных данных
  2. Идентификацию пользователей через детали в prompts
  3. Использование данных злоумышленниками, брокерами данных или хакерами
  4. Нарушение GDPR в европейских юрисдикциях

Неожиданные бизнес-последствия

Некоторые маркетологи уже обсуждают возможности использования публичных чатов Grok для повышения видимости бизнеса. Поскольку conversations публикуются как веб-страницы с индивидуальными URL, компании потенциально могут создавать скриптовые чаты, упоминающие их продукты вместе с ключевыми словами, чтобы манипулировать результатами поиска.

Однако такая тактика может быть воспринята Google как спам и в конечном итоге навредить видимости.

* Meta (признана экстремистской и запрещена в РФ)