Оглавление
Сегодня две технологические компании объявили о расширении сотрудничества, которое должно упростить разработку собственных систем искусственного интеллекта на основе открытых моделей, сообщает Hugging Face.
Партнерство для клиентов Google Cloud
Клиенты Google Cloud уже активно используют открытые модели из репозиториев Hugging Face через различные сервисы компании. В Vertex AI самые популярные модели можно развернуть парой кликов через Model Garden. Для тех, кто предпочитает больший контроль над инфраструктурой, доступны аналогичные возможности в GKE AI/ML или предварительно настроенные среды от Hugging Face.
Также пользователи могут запускать задачи AI-инференса через Cloud Run GPUs, что позволяет развертывать открытые модели в бессерверном режиме.
Общий принцип совместной работы — создание бесшовного опыта, максимально использующего уникальные возможности каждого сервиса для предоставления клиентам выбора.
Шлюз к открытым моделям
Использование Hugging Face клиентами Google Cloud выросло в 10 раз за последние три года. Сегодня это выражается в десятках петабайт скачиваемых моделей ежемесячно и миллиардах запросов.
Для обеспечения оптимального опыта работы с моделями и наборами данных разрабатывается CDN Gateway для репозиториев Hugging Face. Этот шлюз будет кэшировать модели и наборы данных непосредственно на инфраструктуре Google Cloud, что значительно сократит время загрузки и повысит надежность цепочки поставок моделей.
Преимущества получат пользователи всех сервисов — от Vertex и GKE до Cloud Run и собственных решений на виртуальных машинах Compute Engine. Результат — ускорение времени до первого токена и упрощенное управление моделями.
Выгоды для пользователей Hugging Face
Сервис Inference Endpoints от Hugging Face позволяет развернуть модель парой кликов. Благодаря расширенному партнерству пользователи получат доступ к уникальным возможностям и экономической эффективности Google Cloud.
В планах — расширение доступных инстансов и снижение цен. Также упростится интеграция с платформами Google: переход со страницы модели к развертыванию в Vertex Model Garden или GKE займет всего несколько шагов.
Особое внимание уделяется TPU — специализированным AI-ускорителям Google седьмого поколения. Библиотеки Hugging Face получат нативную поддержку TPU, что сделает их использование таким же простым, как и GPU.
Также партнерство позволит Hugging Face использовать передовые технологии безопасности Google для защиты миллионов открытых моделей. Совместные усилия с Google Threat Intelligence и Mandiant направлены на обеспечение безопасности моделей, наборов данных и Spaces при ежедневном использовании Hugging Face Hub.
Это партнерство выглядит стратегически выверенным ходом в условиях усиливающейся конкуренции на рынке облачных AI-услуг. В то время как Microsoft делает ставку на эксклюзивные модели вроде GPT, Google и Hugging Face выбирают путь открытости — что может оказаться более привлекательным для предприятий, стремящихся сохранить контроль над своими AI-решениями. Особенно интересно обещание снизить цены — прямое свидетельство того, что облачные гиганты готовы к ценовой войне за клиентов.
Строим открытое будущее ИИ вместе
Цель сотрудничества — создание будущего, где каждая компания сможет строить собственный ИИ на основе открытых моделей и размещать его в собственной защищенной инфраструктуре с полным контролем.
Глубокая интеграция между платформами ускорит реализацию этого видения независимо от того, используете ли вы Vertex AI Model Garden, Google Kubernetes Engine, Cloud Run или Hugging Face Inference Endpoints.

Оставить комментарий