Исследование показало, что самообучение LLM неизбежно ведет к их коллапсу
Исследования подтверждают, что обучение больших языковых моделей на собственных данных ведет к статистической сингулярности и потере связи с реальностью.
12 мая 2026
Исследования подтверждают, что обучение больших языковых моделей на собственных данных ведет к статистической сингулярности и потере связи с реальностью.
Исследователи OpenAI Себастьян Бубек и Эрнест Рю рассказали, почему математика стала главным полигоном для обучения нейросетей логическому мышлению и создания AGI.
Исследователь безопасности Грег Дальман критикует современные стандарты раскрытия уязвимостей, утверждая, что циклы обучения ИИ делают 90-дневное ожидание опасным.
OpenAI и AWS объявили о глубокой интеграции моделей GPT-5.5 и инструментов Codex в облачную платформу Amazon Bedrock для корпоративных клиентов.
Масштабный анализ сайтов из Internet Archive показал, что ИИ-тексты на 107% позитивнее человеческих и ведут к сужению разнообразия идей в сети.
Исследователи во главе с Алеком Рэдфордом создали модель Talkie, ограниченную знаниями 1930 года, чтобы изучить пределы экстраполяции ИИ без современных данных.