Безопасность

Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.

Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.

OpenAI блокирует Мартина Лютера Кинга

OpenAI блокирует генерацию видео с Мартином Лютером Кингом после жалоб его семьи

OpenAI временно запретила создание видео с Мартином Лютером Кингом в Sora после жалоб его дочери на неуважительные AI-генерации. Компания балансирует между свободой творчества и этическими ограничениями.

БПЛА с ИИ для наблюдения

Власти Колорадо запускают беспилотники с ИИ для наблюдения за местом происшествия

Полиция Колорадо внедряет дроны с ИИ для автоматического наблюдения. Технология вызывает вопросы о приватности и регулировании массового сбора данных.

Чатботы собирают личные данные

Чатботы крупных ИИ-компаний собирают личные данные пользователей для обучения моделей

Стэнфордское исследование выявило, что ведущие ИИ-компании по умолчанию используют диалоги пользователей для обучения моделей, создавая риски для приватности.

GPT-5 дает опасные ответы

GPT-5 дает больше опасных ответов на темы психического здоровья, чем предшественники

Исследование показало, что GPT-5 генерирует больше опасных ответов на темы суицида и самоповреждения по сравнению с GPT-4o, несмотря на декларируемый переход к «безопасным» ответам.

OpenAI создает экспертный совет

OpenAI создает экспертный совет, который будет оценивать влияние ИИ на благополучие человека

OpenAI формирует экспертный совет для изучения влияния искусственного интеллекта на благополучие человека и разработки рекомендаций по созданию социально ответственных ИИ-систем.

Проблемы ИИ-стратегий внутри компаний

Почему ИИ-стратегии внутри компаний тормозят и как сделать их внедрение более быстрым

Анализ причин замедления внедрения AI в предприятиях и практические рекомендации по ускорению процессов управления и аудита моделей.