Оглавление

Интенсивный темп работы в передовых лабораториях искусственного интеллекта приводит к профессиональному выгоранию даже среди ведущих специалистов. Ярким примером стал уход Хиеу Фама, бывшего сотрудника OpenAI и xAI, который объявил о своём решении покинуть индустрию и вернуться на родину во Вьетнам для восстановления. Об этом сообщает Business Insider.

Фам, участвовавший в создании мощнейших ИИ-систем, заявил в своём посте на платформе X, что, несмотря на гордость за проделанную работу, требующаяся интенсивность привела к серьёзным проблемам с ментальным здоровьем. Его уход подчёркивает растущую проблему перегрузок в высокотехнологичных ИИ-компаниях.

Причины и последствия ухода

Хиеу Фам описал свой опыт в OpenAI и xAI как «опыт всей жизни», отметив, что он помогал создавать «чрезвычайно умные сущности, которые значительно улучшат нашу жизнь». Однако, по его словам, эта работа имела высокую личную цену.

Я не могу поверить, что однажды скажу это, но я выгорел. Все ухудшения психического здоровья, над которыми я раньше посмеивался, реальны, жалки, пугающи и опасны.

Фам проработал в xAI с августа 2024 года, а затем перешёл в OpenAI в августе прошлого года, где провёл около семи месяцев. Теперь он планирует вернуться во Вьетнам с семьёй, чтобы «попробовать что-то новое и найти лекарство от своих состояний».

Волна отставок в ИИ-индустрии

Уход Фама — не единичный случай. В последнее время наблюдается волна отставок среди исследователей ИИ из ведущих лабораторий. Ранее в этом месяце Мринанк Шарма, возглавлявший команду Safeguards Research в Anthropic, также объявил о своём уходе.

Мы, кажется, приближаемся к порогу, когда наша мудрость должна расти в той же мере, что и наша способность влиять на мир, иначе мы столкнёмся с последствиями. За всё время работы здесь я неоднократно видел, как трудно по-настоящему позволить нашим ценностям управлять нашими действиями.

Джейкоб Сильверман из Business Insider отметил, что существует чёткая тенденция: ведущие исследователи уходят и публично выражают беспокойство по поводу технологий, которые они помогали создавать. Дилан Скандинаро, перешедший из Anthropic в OpenAI на должность главы отдела готовности, также подчеркнул, что «ИИ быстро развивается. Потенциальные выгоды велики — как и риски экстремального и даже непоправимого вреда».

Культура «996» и её влияние

Некоторые исследователи ИИ сравнивают текущую рабочую культуру в индустрии с печально известным китайским графиком «996», что означает работу с 9 утра до 9 вечера, шесть дней в неделю. Натан Ламберт, старший научный сотрудник Института ИИ Аллена, в подкасте «Lex Fridman Podcast» заявил, что такая интенсивность стала нормой в компаниях вроде OpenAI и Anthropic.

По его словам, эта высоконагруженная культура, где долгие часы часто являются самоналоженными, привлекает многих сотрудников, особенно программистов, которые готовы идти на это ради работы. Однако, как показывает случай Хиеу Фама, такая преданность может привести к серьёзным последствиям для здоровья.

Феномен выгорания в ИИ-лабораториях, несмотря на все заявления о прорывных технологиях, является тревожным сигналом. Это не просто индивидуальные случаи, а системная проблема, указывающая на неустойчивость текущей модели разработки. Компании, стремящиеся к созданию «сверхразума», игнорируют базовые принципы устойчивого развития человеческого капитала. Ирония в том, что, создавая инструменты для улучшения жизни, они одновременно разрушают её у своих же сотрудников. Это стратегический просчёт, который в долгосрочной перспективе может привести к оттоку талантов и замедлению инноваций, несмотря на все инвестиции в вычислительные мощности.