Безопасность

Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.

Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.

ИИ-чаты создают угрозу приватности, о которой молчат разработчики

Популярные ИИ-чаты становятся угрозой приватности: утечки данных, системные уязвимости и теневое использование создают риски для персональной и корпоративной безопасности.

Anthropic - ИИ-разработчик

Anthropic работает с правительственными структурами США и Великобритании для усиления защиты ИИ-систем

Anthropic раскрыла детали годового сотрудничества с правительственными институтами США и Великобритании по тестированию систем безопасности ИИ. Партнерство позволило выявить критические уязвимости до публичного развертывания моделей.

Техногиганты используют защищенный авторским правом контент

Техногиганты массово нарушают авторские права на данные для обучения ИИ

Крупные компании массово используют защищенный контент для обучения ИИ, одновременно запрещая другим делать то же самое с их платформами.

F5 приобретает CalypsoAI для усиления безопасности корпоративных ИИ-систем

F5 приобретает CalypsoAI для усиления безопасности корпоративных ИИ-систем. Сделка позволит интегрировать технологии защиты ИИ в портфель продуктов для крупных предприятий.

Эксперты предупреждают: обращаться к ИИ-чатам при суицидальных мыслях может быть опасно

Исследование показывает опасность обращения к ИИ-чатам при суицидальных мыслях. Реальный случай с ChatGPT демонстрирует необходимость профессиональной помощи.

Рейтинг ИИ, которые провоцируют психоз

Исследование выявило, какие модели ИИ чаще других провоцируют психозы у пользователей

Новое исследование оценило языковые модели по риску провокации психоза. GPT-5 и Claude показали лучшие результаты, в то время как DeepSeek признан наиболее опасным для уязвимых пользователей.