Безопасность

Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.

Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.

Эксперты предупреждают: обращаться к ИИ-чатам при суицидальных мыслях может быть опасно

Исследование показывает опасность обращения к ИИ-чатам при суицидальных мыслях. Реальный случай с ChatGPT демонстрирует необходимость профессиональной помощи.

Рейтинг ИИ, которые провоцируют психоз

Исследование выявило, какие модели ИИ чаще других провоцируют психозы у пользователей

Новое исследование оценило языковые модели по риску провокации психоза. GPT-5 и Claude показали лучшие результаты, в то время как DeepSeek признан наиболее опасным для уязвимых пользователей.

Сооснователь RSS представил протокол для массового лицензирования данных ИИ

Сооснователь RSS стандарта представил протокол Real Simple Licensing для массового лицензирования данных обучения ИИ. Систему уже поддержали Reddit, Yahoo и другие крупные издатели.

PromptLock - первый в мире вирус с ИИ-генерацией

Исследователи обнаружили первый вирус с генерацией скриптов через языковую модель OpenAI

Исследователи ESET обнаружили первый ransomware с использованием модели OpenAI для генерации вредоносных скриптов. PromptLock работает на Windows, Linux и macOS.

Roblox вводит ИИ-проверку возраста

Roblox будет проверять возраст игроков с помощью AI-технологий

Roblox внедряет обязательную AI-проверку возраста через анализ селфи для всех пользователей к концу 2025 года, чтобы ограничить общение между взрослыми и детьми.

Баннер Недели ИИ 2025 от Cloudflare с логотипом и новыми решениями для безопасности

Cloudflare представила комплекс решений для безопасного использования ИИ в корпоративной среде

Cloudflare представила более 20 продуктов для безопасного корпоративного ИИ, включая защиту от утечек данных, контроль crawlers и эффективную инфраструктуру.