Рами Синно, стоя на корточках возле картотечного шкафа, пытается извлечь диск размером с пляжный мяч из коробки, когда в его лаборатории раздается глухой стук. Он смеется: «Я только что уронил материал стоимостью в десятки тысяч долларов».
Выпрямившись, Синно демонстрирует золотистую пластину из кремния, сверкающую под флуоресцентным светом лаборатории. Круглый диск разделен на около 100 прямоугольных плиток, каждая из которых содержит миллиарды микроскопических электрических переключателей. Это мозг самого продвинутого чипа Amazon на сегодняшний день: Trainium 2, о котором было объявлено в декабре.
Долгое время компании, занимающиеся искусственным интеллектом, полагались на компанию Nvidia для разработки передовых чипов, необходимых для обучения самых мощных моделей ИИ в мире. Однако с ростом конкуренции в области ИИ, такие облачные гиганты, как Amazon и Google, усилили свои внутренние усилия по разработке собственных чипов, стремясь захватить долю на быстрорастущем рынке облачных вычислений, который в начале 2025 года оценивался в 900 миллиардов долларов.
Незаметная лаборатория в Остине, штат Техас, — это место, где Amazon делает ставку на господство в полупроводниковой сфере. Синно является ключевой фигурой. Он — директор инженерного отдела в Annapurna Labs, дочерней компании Amazon по разработке чипов, принадлежащей облачному подразделению Amazon Web Services (AWS). Надев защиту для ушей и приложив карту к считывателю, чтобы войти в защищенное помещение, Синно с гордостью демонстрирует набор готовых Trainium 2, которые он помогал разрабатывать и которые функционируют так, как обычно в дата-центре. Ему приходится кричать, чтобы его было слышно сквозь шум вентиляторов, которые отводят горячий, нагретый чипами воздух в систему кондиционирования здания. Каждый чип легко помещается в ладони Синно, но вычислительная инфраструктура вокруг них — материнские платы, память, кабели передачи данных, вентиляторы, радиаторы, транзисторы, источники питания — означает, что эта стойка из 64 чипов возвышается над ним, заглушая его голос.
Хотя это устройство велико, оно лишь представляет собой уменьшенную копию естественного окружения чипов. Вскоре тысячи этих суперкомпьютеров размером с холодильник будут перемещены в несколько секретных мест в США и соединены вместе, чтобы образовать «Проект Рейнир» — один из крупнейших кластеров дата-центров в мире, названный в честь огромной горы, возвышающейся над штаб-квартирой Amazon в Сиэтле.
Проект Рейнир — ответ Amazon на проект «Stargate», оцененный в $100 миллиардов, реализуемый OpenAI и Microsoft, о котором президент Трамп объявил в Белом доме в январе. Meta и Google также строят аналогичные так называемые «гипермасштабируемые» дата-центры, стоящие десятки миллиардов долларов каждый, чтобы обучать свои будущие поколения мощных моделей ИИ. Крупные технологические компании потратили последнее десятилетие, накапливая огромные запасы наличности; теперь они все вкладывают ее в гонку по созданию гигантской физической инфраструктуры, необходимой для создания ИИ-систем, которые, по их мнению, радикально изменят мир. Вычислительная инфраструктура такого масштаба ранее не существовала.
Точное число чипов, участвующих в Проекте Рейнир, общая стоимость его дата-центров и их расположение — все это строго охраняемые секреты. Amazon утверждает, что завершенный Проект Рейнир станет «крупнейшим кластером ИИ-вычислений в мире», подразумевая, что он больше, чем Stargate. Сотрудники здесь предпочитают отвечать агрессивно на вопросы о вызовах со стороны OpenAI. «Stargate легко объявить,» — говорит Гади Хут, директор по продукту Annapurna Labs. «Давайте сначала посмотрим, как его реализуют.»
Проект Рейнир предназначен специально для одного клиента: компании Anthropic, которая согласилась на долгосрочную аренду этих огромных дата-центров. Там на сотнях тысяч чипов Trainium 2 Anthropic планирует обучать преемников своей популярной линии моделей ИИ Claude. Чипы внутри Рейнира будут в совокупности в пять раз мощнее, чем системы, использованные для лучших из этих моделей. «Это гораздо больше,» — говорит Том Браун, сооснователь Anthropic.
Никто не знает, к чему приведет этот резкий скачок в вычислительной мощности. Генеральный директор Anthropic Дарио Амодеи публично предсказал, что «мощный ИИ» (термин, который он предпочитает искусственному общему интеллекту) может появиться уже в 2026 году. Это означает, что Anthropic считает весьма вероятным то, что Проект Рейнир, или один из его конкурентов, станет тем местом, где родится ОИИ.
Антропик является не только клиентом Amazon; компания частично принадлежит этому технологическому гиганту. Amazon вложил 8 миллиардов долларов в Anthropic за миноритарный пакет акций компании. Причудливым образом большая часть этих денег будет потрачена на аренду дата-центров AWS. Эта странная взаимосвязь иллюстрирует интересный аспект движущих сил индустрии ИИ: Amazon фактически использует Anthropic как демонстрацию концепции для своего бизнеса дата-центров ИИ.
Это аналогичная динамика отношения Microsoft и OpenAI, а также Google и его дочерней компании DeepMind. «Иметь передовую лабораторию в вашем облаке — это способ сделать ваше облако лучше,» — говорит Браун, сооснователь Anthropic, ответственный за взаимодействие компании с Amazon. Он сравнивает это с партнерством AWS и Netflix: в начале 2010-х годов компания была одним из первых крупных клиентов AWS. Из-за огромной инфраструктурной задачи доставки быстрого видео пользователям по всему миру «это означало, что AWS получила все отзывы, необходимые для создания всех систем, работающих в таком масштабе,» — говорит Браун. «Они проложили путь для всей индустрии облачных вычислений.»
Теперь все поставщики облачных услуг стремятся повторить этот паттерн в эпоху ИИ, говорит Браун. «Им нужен кто-то, кто пройдет через джунгли и с помощью мачете расчистит путь, потому что до этого никто не проходил по этому пути. Но как только вы это сделаете, появляется красивая тропинка, и все могут следовать за вами.» Инвестируя в Anthropic, который затем тратит большую часть этих денег на AWS, Amazon создает то, что оно любит называть маховиком: самоподдерживающийся процесс, который помогает ему разрабатывать более продвинутые чипы и дата-центры, снижает стоимость вычислений, необходимых для работы ИИ-систем, и демонстрирует другим компаниям преимущества ИИ, что в свою очередь приводит к большему числу клиентов для AWS в долгосрочной перспективе. Стартапы, такие как OpenAI и Anthropic, получают славу, но настоящими победителями становятся крупные технологические компании, управляющие основными мировыми облачными платформами.
Конечно, Amazon по-прежнему сильно зависит от чипов Nvidia. Между тем, кастомные чипы Google, известные как TPU, считаются многими в отрасли превосходящими чипы Amazon. И Amazon не является единственной большой технологической компанией, обладающей долей в Anthropic. Google также инвестировал около 3 миллиардов долларов, получив 14% акций. Anthropic использует как облако Google, так и облако Amazon, чтобы не зависеть от одного из них. Несмотря на это, Проект Рейнир и чипы Trainium 2, которые заполнят его дата-центры, являются кульминацией усилий Amazon по ускорению своего маховика до лидирующего положения.
Чипы Trainium 2, говорит Синно, были разработаны при активной обратной связи от Anthropic, который делился с AWS информацией о взаимодействии своего программного обеспечения с оборудованием Trainium 1 и предлагал, как улучшить следующее поколение чипов. Такое тесное сотрудничество нетипично для клиентов AWS, говорит Синно, но оно необходимо для того, чтобы Anthropic могли конкурировать в беспощадной сфере передового ИИ. Возможности модели в основном связаны с количеством вычислений, затраченных на ее обучение и использование, поэтому чем больше вычислений вы получите за свои деньги, тем лучше будет ваш итоговый ИИ. «На том уровне, на котором они работают, каждая доля процента улучшения производительности имеет огромное значение,» говорит Синно об Anthropic. «Чем лучше они могут использовать инфраструктуру, тем лучше будет их возврат на инвестиции, как клиента.»
Чем более сложными становятся внутренние чипы Amazon, тем меньше ему понадобится полагаться на лидера индустрии Nvidia — спрос на чьи чипы значительно превышает предложение, что позволяет Nvidia выбирать клиентов и взимать высокие цены. Но также есть и другая динамика, которую сотрудники Annapurna надеются, что она даст Amazon долгосрочное структурное преимущество. Nvidia продает физические чипы (известные как GPU) напрямую клиентам, что означает, что каждый GPU должен быть оптимизирован для работы в одиночку. Amazon, тем временем, не продает свои чипы Trainium. Она просто предоставляет доступ к ним, работающим в дата-центрах под управлением AWS. Это означает, что Amazon имеет возможность находить оптимизации, которые Nvidia будет тяжело воспроизвести. «У нас гораздо больше степеней свободы,» говорит Хут.
Вернув кремниевую пластину в коробку, Синно перемещается в другую часть комнаты, указывая на различные стадии процесса разработки чипов, которые — возможно, очень скоро — помогут вызвать в существование мощные новые ИИ. Он с волнением перечисляет статистику о Trainium 3, который ожидается позже в этом году, и который будет вдвое быстрее и на 40% более энергоэффективным, чем его предшественник. Нейронные сети, работающие на Trainium 2s, помогали команде в разработке будущего чипа, говорит он. Это показывает, как ИИ уже ускоряет скорость собственного развития, в процессе, который становится все быстрее и быстрее. «Это маховик,» говорит Синно. «Абсолютно.»
Источник: Time