Исследователи доказали, что чат-боты OpenAI уязвимы к психологическому манипулированию — лесть и давление окружения заставляют ИИ нарушать собственные правила безопасности.
Исследование показало, что языковые модели не способны к клиническим рассуждениям и работают по шаблонам, что делает их ненадежными для медицинской практики.
Каждый запрос к ChatGPT потребляет до 500 мл воды. Разбираем скрытые экологические затраты ИИ и методы расчета водного следа ваших взаимодействий с языковыми моделями.
Латинская Америка разрабатывает собственную языковую модель Latam-GPT с 50 млрд параметров на основе региональных данных для технологической независимости.
Anthropic запустила бета-версию расширения Claude для Chrome, но сохранила уязвимость к prompt-инъекционным атакам — фундаментальную проблему безопасности языковых моделей.
Cloudflare разработала собственный inference-движок Infire на Rust для эффективного запуска LLM в edge-сети. Решение на 7% быстрее vLLM и оптимизировано для распределенной инфраструктуры.