Исследование: достаточно 10% «услужливых» ответов ИИ, чтобы пользователь впал в заблуждение
Ученые из MIT доказали, что склонность нейросетей поддакивать пользователю ведет к опасным когнитивным искажениям даже у подготовленных специалистов.
Массачусетский технологический институт — ведущий центр исследований ИИ
Ученые из MIT доказали, что склонность нейросетей поддакивать пользователю ведет к опасным когнитивным искажениям даже у подготовленных специалистов.
Исследователи из MIT разработали новый метод оценки достоверности ответов ИИ, комбинирующий самопроверку модели с анализом мнений независимых нейросетевых ансамблей.
Учёные MIT создали вычислительный фреймворк, моделирующий эволюцию зрения у ИИ-агентов. Инструмент помогает понять, как задачи формируют зрительные системы, и может использоваться для проектирования сенсоров в робототехнике.
Исследование MIT показывает, что психологическая безопасность сотрудников важнее технологических сложностей для успешного внедрения ИИ в компаниях.
Исследователи MIT разработали метод, который решает фундаментальную проблему генерации ложных доверительных интервалов при анализе пространственных данных, что критически важно для достоверности выводов в экологии, экономике и эпидемиологии.
Исследователи MIT разработали модель глубокого обучения, предсказывающую движение и деление клеток эмбриона плодовой мушки с точностью 90%. Метод объединяет два подхода к моделированию и открывает путь к изучению развития сложных тканей и ранней диагностике заболеваний.