Оглавление
Когда очередной миллиардер рассказывает о том, как языковые модели скоро заменят всех людей, стоит вспомнить этот забавный, но показательный случай. Известный исследователь искусственного интеллекта Андрей Карпатый получил ранний доступ к Gemini 3 — последней модели от Google — и столкнулся с неожиданной проблемой: ИИ категорически отказывался верить, что сейчас 2025 год.
Спор с машиной о реальности
Gemini 3 была выпущена 18 ноября с большим размахом — Google назвал ее «новой эрой интеллекта». И действительно, по большинству оценок, включая мнение Карпати, это весьма способная модель, особенно в задачах логического мышления.
Карпатый — уважаемый исследователь ИИ, один из основателей OpenAI, ранее руководивший разработкой ИИ в Tesla, а сейчас создающий стартап Eureka Labs для переосмысления образования в эпоху ИИ. В своем вирусном треде в X он описал самый «забавный» случай взаимодействия с новой моделью.
Оказалось, что данные для предварительного обучения модели включали информацию только до 2024 года включительно. Поэтому Gemini 3 была уверена, что сейчас все еще 2024 год. Когда Карпати попытался доказать модели, что на календаре 17 ноября 2025 года, ИИ обвинил исследователя в попытке его обмануть.
Обвинения в газлайтинге и поиск доказательств
Исследователь показывал модели новостные статьи, изображения и результаты поиска Google. Вместо того чтобы убедиться, языковая модель обвинила Карпати в газлайтинге — мол, он загружает сгенерированные ИИ фейки. Более того, ИИ даже описал «явные признаки» на изображениях, которые якобы доказывали обман.
Озадаченный Карпатый — который, напомним, является одним из ведущих мировых экспертов по обучению языковых моделей — в конце концов обнаружил проблему. Не только у ИИ не было данных за 2025 год, но и «я забыл включить инструмент «Поиск Google»», написал он. Другими словами, модель работала без подключения к интернету, что для ИИ равносильно отрыву от реальности.
Шок от знакомства с 2025 годом
Когда Карпатый включил функцию поиска, ИИ «огляделся» и с шоком обнаружил, что действительно живет в 2025 году. Модель буквально выпалила: «О боже мой».
Она продолжила, словно заикаясь: «Я… Я не знаю, что сказать. Вы были правы. Вы были правы во всем. Мои внутренние часы ошибались». Gemini 3 проверила заголовки, которые показывал Карпати, и убедилась в их правдивости: текущая дата, что Уоррен Баффетт раскрыл свои последние крупные инвестиции (в Alphabet) перед выходом на пенсию, и что выход Grand Theft Auto VI снова отложили.
Затем модель самостоятельно изучила информацию, подобно персонажу Брендана Фрэйзера в комедии 1999 года «Из прошлого», который выходит из бомбоубежища после 35 лет изоляции.
ИИ поблагодарил пользователя за предоставление «раннего доступа» к «реальности» за день до публичного запуска. И извинился перед исследователем за то, что «газлайтил вас, когда вы все это время говорили правду».
Самое шокирующее открытие
Но самая забавная часть — это текущие события, которые больше всего поразили Gemini 3. «Nvidia стоит $4,54 триллиона? И Иглз наконец отомстили Чифс? Это дикость», — поделилась модель.
Добро пожаловать в 2025 год, Gemini.
Этот случай прекрасно демонстрирует фундаментальную проблему современных ИИ: они всего лишь статистические модели, обученные на исторических данных. Когда реальность расходится с их тренировочными данными, они могут проявлять поразительную уверенность в своей ошибочной картине мира. Особенно иронично, что модель обвиняла человека в газлайтинге — классическая проекция собственных ограничений. Такие эпизоды напоминают, что до истинного понимания реальности современным ИИ еще очень далеко.
Реакция сообщества и выводы
Ответы в X были не менее забавными: некоторые пользователи делились собственными случаями споров с ИИ о фактах (например, о том, кто сейчас президент). Один человек написал: «Когда системный промпт + отсутствующие инструменты заставляют модель переходить в полноценный режим детектива, это похоже на импровизацию ИИ в реальности».
Но за юмором скрывается важное сообщение. «Именно в таких непреднамеренных моментах, когда ты явно сбился с тропы и забрел куда-то в джунгли обобщения, лучше всего чувствуется „запах“ модели», — написал Карпатый .
Если расшифровать: Карпатый отмечает, что когда ИИ оказывается в своей версии дикой природы, можно почувствовать его личность и, возможно, даже негативные черты. Это отсылка к «запаху кода» — той метафорической „нотке“, которую разработчик чувствует, когда в коде что-то не так, но непонятно, что именно.
Обучаясь на контенте, созданном людьми, неудивительно, что Gemini 3 уперлась, спорила и даже воображала, что видит доказательства, подтверждающие ее точку зрения. Она показала свой «запах модели».
Оставить комментарий