Искусственный интеллект, Технологии | Олег Брагинский, Марина Строева
Основатель «Школы траблшутеров» Олег Брагинский и ученица Марина Строева показывают, почему классические процессоры больше не выдерживают нагрузку, как NVIDIA захватила инфраструктуру искусственного интеллекта и отчего будущее индустрии решают уже не алгоритмы, а плотность транзисторов и скорость обмена данными между чипами.
Артилект – не битва алгоритмов, а война транзисторов. Именно архитектура процессоров определяет скорость развития технологии, рост инвестиций на финансовом рынке, лидеров отрасли и даже технологический суверенитет многих стран.
Чтобы лучше разобрать, начнём с основ. Долгое время королём вычислений был CPU (Central Processing Unit) – центральный процессор. Универсальный солдат, который умеет всё: открывать вкладки в браузере, считать налоги в Excel, управлять операционной системой.
Но у CPU есть фундаментальная особенность: процессор выполняет задачи последовательно. Может иметь 8, 16 или даже 64 ядра, где каждое – сложнейший механизм, заточенный под логику «если-то». Но искусственный интеллект работает иначе.
Нейросеть – гигантская математическая матрица, в которой, чтобы сгенерировать одно слово, нужно перемножить миллиарды чисел одновременно. Для CPU это всё равно что заставить одного математика решать миллион примеров первого класса по очереди – справится, но займёт вечность.
Тут на сцену вышли GPU (Graphics Processing Unit) – графические процессоры. Изначально создаваемые для видеоигр, чтобы отрисовывать пиксели. Каждая точка на экране – отдельный расчёт. Поэтому в GPU не 16 мощных ядер, а тысячи маленьких и простых.
В 2012 году произошло историческое событие: исследователи поняли, что архитектура GPU идеально подходит для обучения нейросетей. Оказалось, что миллион «первоклассников» (ядер GPU) решают матричные задачи ИИ в тысячи раз быстрее, чем один «профессор» (CPU).
Началась эпоха доминирования NVIDIA. Сегодня это не просто компания, производящая видеокарты, а инфраструктурный гигант. Чипы серии H100, H200, а теперь и новейшая архитектура Blackwell, стали золотым стандартом индустрии.
NVIDIA сделала две гениальные вещи. Во-первых, создали CUDA – программную прослойку, которая позволяет программистам писать код под их железо. Во-вторых, поняли: узкое место – не только вычисления, но и память, что спровоцировало выпуск HBM (High Bandwidth Memory).
HBM – «стопки» чипов памяти, которые припаиваются прямо рядом с графическим процессором. Но даже этого мало. Когда обучается модель уровня GPT-5, нужны десятки тысяч таких чипов. И здесь возникает главная проблема: как заставить 30’000 процессоров работать как один мозг?
NVIDIA решила это с помощью NVLink – сверхскоростных магистралей между чипами. В новых системах Blackwell скорость обмена данными между GPU достигает терабайт в секунду. Это больше не набор видеокарт, а единый гигантский суперкомпьютер, распределённый по стойкам.
Однако у GPU есть минус – они всё ещё слишком универсальны. Чипы умеют рендерить игры, монтировать видео и обучать ИИ. Но если ваша задача – только ИИ, вы платите за лишние транзисторы. И мир стал двигаться к ASIC (Application-Specific Integrated Circuit).
ASIC – чипы, созданные под одну конкретную задачу. Самый яркий пример – Google TPU (Tensor Processing Unit). Лишены всего лишнего: нет блоков для отрисовки графики, сложной логики CPU. Чистая математическая мощь. Сегодня Google уже разворачивает седьмое поколение своих TPU.
По этому же пути идут все техногиганты. Amazon делает чипы Trainium и Inferentia. Microsoft представила Maia. Даже OpenAI Сэма Альтмана ищет миллиарды долларов, чтобы построить собственную сеть заводов и проектировать процессоры.
Прогресс приучил нас, что процессоры становятся мощнее каждые два года. Но закон Мура упёрся в физику. Транзисторы стали размером в несколько атомов. Дальше – квантовый туннелинг, когда ток начинает просто «протекать» сквозь стенки, и чип превращается в кусок греющегося кремния.
Инженеры нашли выход в чиплетах (Chiplets). Вместо того чтобы пытаться сделать один огромный и сложный чип, что очень дорого и часто ведёт к браку, производят несколько маленьких «кубиков» и соединяют на одной подложке, собирая, как конструктор LEGO.
В итоге видим картину: традиционная архитектура фон Неймана, где процессор и память разделены, доживает последние дни в ИИ. Учёные всё чаще обсуждают In-Memory Computing – вычисления прямо в памяти и нейроморфными чипами. Процессоры не считают нули и единицы постоянно, а реагируют на импульсы. Это может снизить энергопотребление в тысячи раз.
Ещё одна прорывная технология – фотонные вычисления. Вместо электронов в чипах будут летать фотоны. Свет не греется, не имеет массы, движется быстрее тока. Если сработает, получим скачок производительности, который сделает H200 похожими на калькуляторы из 80-х.
Если индустрия не найдёт способ сделать процессоры эффективнее, ИИ останется игрушкой для богатых. Но новые архитектуры, вроде TPU или фотонных чипов, снизят стоимость вычислений в 100 раз. ИИ станет таким же дешёвым и вездесущим, как электричество в розетке.
Тут возникает новая беда – энергопотребление. Современный топовый чип для ИИ потребляет более 1’000 Ватт. Это как включённый обогреватель, размером с почтовую марку. Если поставите 100 таких чипов в одну стойку, обычный воздух их не охладит.
Поэтому индустрия массово переходит на жидкостное охлаждение. Вода или специальные диэлектрические растворы текут прямо по медным пластинам, прижатым к кристаллам процессоров. Без хорошего охлаждения система сгорит быстрее, чем успеет что-то посчитать.
Искусственный интеллект – продукт глубокой переработки кремния. Инфраструктура ИИ – не только бетонные коробки дата-центров, но и прежде всего микроскопические лабиринты внутри процессоров, требующие энергии и воды.
Новый прорыв в машинном сознании возможен только если обуздать физику: охладить раскалённые кристаллы, ускорить передачу данных между чипами, найти замену классическому транзистору.
Мир ИИ стоит на плечах гигантов, сделанных из кремния. И пока читаете эту статью, где-то в недрах дата-центра тысячи маленьких ядер перемножают матрицы, потребляя киловатты энергии, чтобы просто ответить на ваш следующий вопрос.