Оглавление
На конференции Cloud Next ’26 компания Google анонсировала масштабное обновление своей инфраструктуры, представив восьмое поколение специализированных процессоров Tensor Processing Units (TPU). Как сообщает The Decoder, поисковый гигант впервые в истории разделил свои чипы на две специализированные ветки, ориентированные на разные этапы жизни нейросетей: обучение и инференс.
Стратегия Google в этот раз заметно отличается от подхода Nvidia. Вместо погони за экстремальной мощностью одного кристалла, компания делает ставку на масштабируемость. Чип TPU 8t предназначен для «тяжелого» обучения моделей, в то время как TPU 8i оптимизирован для выполнения запросов. Амин Вахдат из Google поясняет, что такое разделение продиктовано ростом популярности ИИ-агентов, которые постоянно планируют и дообучаются в процессе работы.
Архитектурные маневры: от чипов к мега-кластерам
Технические детали впечатляют своим размахом, хотя на бумаге новые TPU могут уступать будущим графическим процессорам Nvidia Rubin по чистой пропускной способности памяти. Однако Google парирует это возможностями своей сетевой инфраструктуры Virgo. Она позволяет объединять до одного миллиона чипов в единый вычислительный кластер, используя оптические переключатели для минимизации задержек.
Для оптимизации работы ИИ-моделей типа Mixture-of-Experts (MoE) в чип TPU 8i встроен специальный ускоритель Collective Acceleration Engine. Интересно, что оба варианта процессоров теперь работают в связке с Arm-чипами Axion собственной разработки Google. Это логичный шаг для компании, стремящейся к полной независимости своей экосистемы, подобно тому, как Apple перевела свои устройства на собственные процессоры.
Платформа Gemini Enterprise и концепция Agentic Enterprise
Программная часть анонса сосредоточена вокруг Gemini Enterprise Agent Platform. Это решение призвано упростить создание автономных агентов, которые могут выполнять сложные многоступенчатые задачи без постоянного контроля со стороны человека. Чтобы разработчики не запутались в сотнях однотипных ботов, Google внедрила централизованный реестр и инструменты визуального проектирования логики их работы.
Особое внимание уделено «памяти» агентов. Благодаря функции Memory Bank, цифровые помощники сохраняют контекст прошлых сессий, что избавляет пользователя от необходимости каждый раз объяснять задачу заново. Для безопасности предусмотрены криптографические идентификаторы каждого агента и детекторы аномального поведения, которые должны предотвращать бесконечные циклы рассуждений или попытки несанкционированного доступа к данным.
Ставка на миллионные кластеры впечатляет масштабом, однако для большинства компаний такая избыточность останется маркетинговой абстракцией, пока реальная стоимость инференса не упадет ниже психологической отметки. В итоге мы видим отличную «железную» базу, обернутую в софт, эффективность которого все еще сильно зависит от того, не решит ли агент галлюцинировать в рамках своего зашифрованного ID.
Интеллектуальный слой Workspace Intelligence
Для обычных пользователей наиболее заметным нововведением станет Workspace Intelligence. Это связующий слой, который объединяет данные из Gmail, Google Docs и Drive. Теперь ИИ-модели понимают контекст не в рамках одного открытого файла, а видят взаимосвязи между письмами, встречами в календаре и документами в облаке.
В практическом плане это означает, что Gemini может автоматически составить черновик презентации в Slides на основе обсуждения в Google Chat или собрать сводную таблицу в Sheets из цепочки писем. Для организаций, которые все еще используют экосистему Microsoft, Google подготовила упрощенные инструменты миграции, явно намекая на то, что «агентское» будущее в облаке Google выглядит более целостным.
Оставить комментарий