Оглавление
Спустя почти два месяца после релиза GPT-5, который должен был наделить ChatGPT «интеллектом уровня PhD» и приблизить к заветной цели индустрии — искусственному общему интеллекту (AGI), — чат-бот OpenAI по-прежнему демонстрирует странное поведение при ответах на простые и безобидные вопросы.
Алфавитный кризис искусственного интеллекта
Пользователи на сабреддите ChatGPT обнаружили, что вопрос о командах NFL, чьи названия не заканчиваются на букву «s», вводит ИИ в состояние длительного замешательства. Вместо прямого ответа система начинает демонстрировать свои «супермощные» способности к рассуждению, которые мгновенно превращаются в кашу.
«Да — есть две команды NFL, чьи названия не заканчиваются на „s“», — заявляет ChatGPT, после чего перечисляет две команды, которые как раз заканчиваются на эту букву. «Miami Dolphins? … заканчивается на s. Green Bay Packers? … заканчивается на s».
Бесконечный цикл самокоррекции
Далее следует серия самокоррекций, которая только усугубляет ситуацию: «Единственные две команды, которые не заканчиваются на „s“: Miami Dolphins … нет (подождите, заканчивается на s)», — говорит ИИ, ловя собственную ошибку. «Стойте, давайте разберемся внимательнее. На самом деле правильный ответ: Washington Commanders … заканчивается на s. Chicago Bears … заканчивается на s».
В оригинальном примере ChatGPT продолжает в том же духе еще несколько абзацев. И так и не приходит к правильному ответу — что таких команд не существует.
Подобно школьнику, набирающему нужное количество слов в сочинении, ИИ сыплет неуместными деталями, имитируя глубокие размышления. Фразы вроде «Давайте сделаем это систематически» или «правильный ответ (на этот раз точно)» лишь подчеркивают комичность ситуации. Если для ответа на элементарный вопрос нужно задействовать тяжелую артиллерию «рассуждающей» модели, то о каком PhD-интеллекте может идти речь?
Системные проблемы архитектуры GPT-5
Это далеко не первый случай, когда чат-бот спотыкается о простой вопрос. Ранее в этом месяце фаны заметили, что запрос о мифическом эмодзи морского конька вызывает у ИИ кризис логики. Несмотря на то, что это существо никогда не входило в официальный словарь эмодзи, ChatGPT настаивал на его существовании, демонстрируя абсурдные длины, на которые ИИ готов пойти, чтобы угодить пользователю.
Синкофантия — не единственная причина проблем. GPT-5 фактически представляет собой тандем из легкой модели для базовых запросов и тяжелой «рассуждающей» модели для сложных вопросов. Вероятно, в данном случае легкая модель застревает на вопросе, с которым не может справиться, вместо того чтобы передать его умному собрату. Эта часто дающая сбои динамика — одна из причин разочарования пользователей, во многих случаях доходящего до ярости после запуска GPT-5.
По материалам Futurism.
Оставить комментарий