Amazon.com Inc. планирует использовать чипы стартапа Cerebras Systems Inc. наряду со своими собственными процессорами Trainium; по заявлению компаний, такая комбинация позволит более эффективно запускать программное обеспечение искусственного интеллекта.
Amazon Web Services, крупнейший поставщик облачных вычислительных мощностей, начнет предлагать новый сервис на основе этого соглашения во второй половине 2026 года, согласно заявлению, опубликованному 13 марта. Финансовые условия не разглашаются.
Это партнерство знаменует собой новую попытку удовлетворить огромный спрос на вычислительную инфраструктуру для искусственного интеллекта. По словам вице-президента Amazon Web Services, Нафеи Бшары, обе компании готовились к этому сотрудничеству в течение нескольких лет. Он отметил, что AWS будет внедрять столько чипов, сколько потребуется для удовлетворения спроса.
Для Cerebras, который планирует первичное публичное размещение акций, наличие Amazon в качестве клиента помогает повысить узнаваемость компании на огромном потенциальном рынке. AWS — первый из гипермасштабируемых операторов (крупнейших операторов центров обработки данных), который взял на себя обязательство использовать продукцию Cerebras.
Для компании Cerebras, планирующей первичное публичное размещение акций (IPO), сотрудничество с Amazon помогает повысить её узнаваемость на огромном потенциальном рынке. AWS стал первым, из крупнейших операторов центров обработки данных, кто взял на себя обязательство использовать решения Cerebras.
Чипы от двух компаний будут работать вместе в так называемых инференционных вычислениях — процессе запуска программного обеспечения ИИ и генерации ответов на входящие запросы.
В рамках уникальной схемы, чип Trainium 3 от Amazon будет заниматься предварительной обработкой, то есть интерпретацией запросов пользователя. Затем Wafer Scale Engine от Cerebras возьмет на себя управление и сгенерирует ответы.
Такая так называемая дезагрегированная работа обычно имеет недостаток: обмен данными между различными компонентами замедляет процесс. В данном случае компании стремятся получить преимущество за счет использования специализированных чипов, которые могут более оперативно обрабатывать задачи инференции. Улучшение будет особенно заметно в областях, требующих постоянного взаимодействия с пользователем, таких как создание компьютерного кода, выполняемое в несколько этапов.
Хотя сервис, использующий только Trainium, вероятно, по-прежнему будет дешевле, новое комбинированное чиповое решение будет привлекательным «там, где время — деньги», сказал Бшара.
Генеральный директор Cerebras, Эндрю Фельдман, привлек в качестве клиентов некоторых из крупнейших пользователей оборудования для искусственного интеллекта и рассматривает эти успехи как подтверждение правильности необычной конструкции чипов своей компании.
Cerebras стал пионером уникального подхода к обработке информации с использованием огромных чипов, способных обрабатывать огромные объемы данных за один раз. Компания стремится к широкому внедрению своей технологии, чтобы бросить вызов лидеру рынка — компании Nvidia Corp. Стартап также управляет собственными дата-центрами, которые демонстрируют возможности его компонентов и приносят постоянный доход.
Объявление Amazon «делает самые быстрые вычисления доступными гораздо более широкой аудитории», — сказал Фельдман. Amazon имеет «огромный охват».
Хотя Amazon также является крупным клиентом Nvidia, компания добилась успехов в разработке собственных чипов. Эти усилия направлены на повышение экономической эффективности ее центров обработки данных и предоставление компании возможности предлагать уникальные услуги.


Добавить комментарий