Google и Meta работают над ослаблением программного преимущества Nvidia.

Google с Meta работают над ослаблением программного преимущества Nvidia.

Google, входящий в Alphabet, работает над новой инициативой, направленной на улучшение работы своих чипов искусственного интеллекта с PyTorch, самой широко используемой в мире программной платформой для искусственного интеллекта. По словам людей, знакомых с этим вопросом, эта инициатива направлена на ослабление долголетнего доминирования Nvidia на рынке вычислений в области искусственного интеллекта.

Эта инициатива является частью агрессивного плана Google по превращению своих процессоров Tensor Processing Units в жизнеспособную альтернативу лидирующим на рынке графическим процессорам Nvidia. Продажи TPU стали важным двигателем роста доходов Google от облачных сервисов, поскольку компания стремится доказать инвесторам, что ее инвестиции в искусственный интеллект приносят прибыль.

Но одного только оборудования недостаточно для стимулирования внедрения. Новая инициатива, известная внутри компании как «TorchTPU», направлена ​​на устранение ключевого барьера, замедляющего внедрение чипов TPU, путем обеспечения их полной совместимости и удобства для разработчиков, которые уже создали свою технологическую инфраструктуру с использованием программного обеспечения PyTorch, сообщили источники. По словам некоторых источников, Google также рассматривает возможность открытия исходного кода некоторых частей программного обеспечения для ускорения внедрения среди клиентов.

По сравнению с предыдущими попытками поддержки PyTorch на TPU, Google уделяет TorchTPU больше внимания, ресурсов и стратегического значения, поскольку растет спрос со стороны компаний, которые хотят внедрить чипы, но считают программный стек препятствием, сообщили источники.

PyTorch, проект с открытым исходным кодом, активно поддерживаемый Meta Platforms, является одним из наиболее широко используемых инструментов для разработчиков, создающих модели искусственного интеллекта. В Кремниевой долине очень немногие разработчики пишут каждую строку кода, которую фактически будут выполнять чипы от Nvidia, Advanced Micro Devices или Google.

Вместо этого эти разработчики полагаются на такие инструменты, как PyTorch, который представляет собой набор заранее написанных библиотек кода и фреймворков, автоматизирующих многие общие задачи при разработке программного обеспечения искусственного интеллекта. История PyTorch, впервые выпущенного в 2016 году, тесно связана с разработкой Nvidia CUDA, программного обеспечения, которое некоторые аналитики Уолл-стрит считают самым сильным щитом компании от конкурентов.

Инженеры Nvidia потратили годы на то, чтобы обеспечить максимально быструю и эффективную работу программного обеспечения, разработанного с помощью PyTorch, на своих чипах. Google, напротив, уже давно использует внутреннюю армию разработчиков программного обеспечения, которые используют другой фреймворк кода под названием Jax, а его чипы TPU используют инструмент под названием XLA для эффективного выполнения этого кода. Большая часть собственного программного обеспечения Google в области искусственного интеллекта и оптимизации производительности была построена на основе Jax, что увеличило разрыв между тем, как Google использует свои чипы, и тем, как клиенты хотят их использовать.

Представитель Google Cloud не прокомментировал детали проекта, но подтвердил Reuters, что этот шаг предоставит клиентам возможность выбора.

«Мы наблюдаем огромный и растущий спрос как на нашу инфраструктуру TPU, так и на GPU», — сказал представитель. «Наша цель — предоставить разработчикам необходимую гибкость и масштабируемость, независимо от того, на каком оборудовании они решили работать».

TPU ДЛЯ КЛИЕНТОВ.

Долгое время Alphabet резервировал львиную долю своих собственных чипов, или TPU, исключительно для внутреннего использования. Это изменилось в 2022 году, когда подразделение облачных вычислений Google успешно лоббировало контроль над группой, продающей TPU. Этот шаг значительно увеличил объем TPU, выделяемых Google Cloud, и по мере роста интереса клиентов к ИИ, Google стремился извлечь выгоду, наращивая производство и продажи TPU внешним клиентам.

Однако несовместимость между фреймворками PyTorch, используемыми большинством разработчиков ИИ в мире, и фреймворками Jax, для работы с которыми в настоящее время наиболее точно настроены чипы Google, означает, что большинство разработчиков не могут легко перейти на чипы Google и добиться от них такой же производительности, как от чипов Nvidia, без значительных дополнительных инженерных работ. Такая работа требует времени и денег в условиях быстро развивающейся гонки в области ИИ.

В случае успеха, инициатива Google «TorchTPU» может значительно снизить затраты на переход для компаний, которые ищут альтернативу графическим процессорам Nvidia. Доминирующее положение Nvidia укрепляется не только благодаря ее оборудованию, но и благодаря экосистеме программного обеспечения CUDA, которая глубоко интегрирована в PyTorch и стала стандартным методом, с помощью которого компании обучают и запускают крупные модели искусственного интеллекта.

Корпоративные клиенты сообщают Google, что TPU сложнее применять для задач искусственного интеллекта, поскольку исторически они требовали от разработчиков перехода на Jax, фреймворк машинного обучения, предпочитаемый внутри Google, а не на PyTorch, который уже используют большинство разработчиков искусственного интеллекта, сообщают источники.

СОВМЕСТНЫЕ УСИЛИЯ С META.

Чтобы ускорить разработку, Google тесно сотрудничает с Meta, создателем и администрирующим PyTorch, согласно источникам. Два технологических гиганта обсуждают сделки, которые позволят Meta получить доступ к большему количеству TPU, о чем впервые сообщил The Information.

Ранние предложения для Meta были структурированы как услуги, управляемые Google, в рамках которых такие клиенты, как Meta, устанавливали чипы Google, предназначенные для запуска программного обеспечения и моделей Google, а Google предоставлял операционную поддержку. Meta стратегически заинтересована в разработке программного обеспечения, которое упрощает работу TPU, с целью снижения затрат на инференцию и диверсификации своей инфраструктуры искусственного интеллекта за счет отказа от графических процессоров Nvidia, чтобы получить преимущество в переговорах, сообщили источники.

Meta отказалась от комментариев.

В этом году Google начал продавать TPU напрямую в центры обработки данных клиентов, а не ограничивать доступ к своему собственному облаку. Амин Вахдат, ветеран Google, в этом месяце был назначен руководителем отдела инфраструктуры искусственного интеллекта и подчиняется непосредственно генеральному директору, Сундару Пичаи.

Google нужна эта инфраструктура как для работы собственных продуктов искусственного интеллекта, включая чат-бота Gemini и поиск на основе искусственного интеллекта, так и для обслуживания клиентов Google Cloud, который продает доступ к TPU таким компаниям, как Anthropic.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *