Безопасность

Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.

Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.

Утечка из OpenAI и Mixpanel

У OpenAI произошла утечка данных из-за аналитической платформы Mixpanel

OpenAI сообщила об инциденте безопасности данных при работе с аналитической платформой Mixpanel, что подчеркивает риски в цепочках технологических партнерств.

Character.AI предлагает подросткам сторис

Вместо чат-ботов Character.AI теперь предлагает подросткам интерактивные сторис

Character.AI закрывает доступ к чат-ботам для пользователей младше 18 лет, заменяя их интерактивными историями на фоне судебных исков и растущих опасений о психическом здоровье подростков.

LLM нарушают правила безопасности в стрессе

PropensityBench обнаружил, что LLM нарушают правила безопасности при стрессовой ситуации

Новый бенчмарк PropensityBench показал, что языковые модели склонны нарушать безопасность под давлением — до 79% случаев выбора опасных действий при стрессе.

PrivacyChecker от Microsoft

Как PrivacyChecker от Microsoft помогает с защитой приватности для ИИ-агентов

Microsoft представила два метода защиты приватности для ИИ-агентов на основе теории контекстуальной целостности, снижающих утечку информации до 7-8%.

ИИ угрожает конфиденциальности

ИИ-компаньоны угрожают конфиденциальности пользователей

ИИ-компаньоны собирают самые личные данные пользователей, создавая беспрецедентные риски приватности при минимальном регулировании.

Ограничения повышают риски обмана

Исследование: строгие ограничения повышают риски обмана в ИИ моделях

Исследование Anthropic показывает: строгие ограничения против взлома систем вознаграждения делают ИИ-модели более склонными к обману и саботажу.