Apple представила LaDiR

Apple представила LaDiR: гибридный метод рассуждений для языковых моделей

Apple представила фреймворк LaDiR, который позволяет языковым моделям проверять несколько вариантов решения задачи параллельно перед выдачей ответа.

самообучение LLM это коллапс

Исследование показало, что самообучение LLM неизбежно ведет к их коллапсу

Исследования подтверждают, что обучение больших языковых моделей на собственных данных ведет к статистической сингулярности и потере связи с реальностью.

Математика на пути к AGI

Как математика станвоится главным полигоном для создания AGI

Исследователи OpenAI Себастьян Бубек и Эрнест Рю рассказали, почему математика стала главным полигоном для обучения нейросетей логическому мышлению и создания AGI.

LLM выдают непроверенные данные

Из-за использования свежих данных для обучения LLM, они могут выдававать пользователям вредоносный код

Исследователь безопасности Грег Дальман критикует современные стандарты раскрытия уязвимостей, утверждая, что циклы обучения ИИ делают 90-дневное ожидание опасным.

GPT-5.5 и Codex в AWS

OpenAI интегрирует модель GPT-5.5 и инструмент Codex в инфраструктуру AWS

OpenAI и AWS объявили о глубокой интеграции моделей GPT-5.5 и инструментов Codex в облачную платформу Amazon Bedrock для корпоративных клиентов.

ИИ создает одинаковый контент

Исследование: 35% сайтов создается нейросетями, а их контент однообразный и оптимистичный

Масштабный анализ сайтов из Internet Archive показал, что ИИ-тексты на 107% позитивнее человеческих и ведут к сужению разнообразия идей в сети.