ИИ-чаты создают угрозу приватности, о которой молчат разработчики
Популярные ИИ-чаты становятся угрозой приватности: утечки данных, системные уязвимости и теневое использование создают риски для персональной и корпоративной безопасности.
Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.
Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.
Популярные ИИ-чаты становятся угрозой приватности: утечки данных, системные уязвимости и теневое использование создают риски для персональной и корпоративной безопасности.
Anthropic раскрыла детали годового сотрудничества с правительственными институтами США и Великобритании по тестированию систем безопасности ИИ. Партнерство позволило выявить критические уязвимости до публичного развертывания моделей.
Крупные компании массово используют защищенный контент для обучения ИИ, одновременно запрещая другим делать то же самое с их платформами.
F5 приобретает CalypsoAI для усиления безопасности корпоративных ИИ-систем. Сделка позволит интегрировать технологии защиты ИИ в портфель продуктов для крупных предприятий.
Исследование показывает опасность обращения к ИИ-чатам при суицидальных мыслях. Реальный случай с ChatGPT демонстрирует необходимость профессиональной помощи.
Новое исследование оценило языковые модели по риску провокации психоза. GPT-5 и Claude показали лучшие результаты, в то время как DeepSeek признан наиболее опасным для уязвимых пользователей.