Масштаб планов и цена вопроса
Заявленные планы крупнейших технологических компаний по развертыванию вычислительных мощностей под искусственный интеллект в период с 2026 по 2032 годы выглядят беспрецедентно. Речь идёт примерно о 150 ГВт в эквиваленте текущих ИИ-кластеров на базе архитектуры Blackwell, что соответствует около 6 трлн долларов инвестиций при средней оценке порядка 40 млрд долларов за 1 ГВт мощности.
Для сравнения: на конец 2025 года совокупные ИИ-мощности всех бигтехов, включая OpenAI, оцениваются всего в 12–14 ГВт. Иными словами, предполагается увеличение на порядок всего за семь лет от базы 2025 года. Даже по меркам технологического сектора это выглядит экстремально.
Экспоненциальная гипотеза
В основе этих планов лежит идея экспоненциального роста: если большие языковые модели непрерывно масштабировать — увеличивать параметры, объём данных и вычисления, — рано или поздно произойдёт качественный скачок. В этой логике ИИ должен достичь уровня, при котором сможет заменить человека в исследовательской и изобретательской деятельности, радикально ускорить технологический прогресс и кратно повысить производительность экономики.
В предельной форме эта концепция сводится к стремлению создать универсальный когнитивный инструмент, превосходящий человеческий мозг по эффективности. Ключевым теоретическим основанием здесь выступает так называемый закон масштабирования. Но действительно ли он работает безусловно?
В чём суть закона масштабирования
В упрощённом виде закон масштабирования утверждает: если взять одну и ту же архитектуру модели и последовательно наращивать три фактора — параметры, данные и вычисления, — качество будет предсказуемо улучшаться.
-
увеличение размера модели ведёт к снижению средней ошибки;
-
рост объёма данных повышает устойчивость к редким и нетипичным паттернам;
-
наращивание вычислений и времени обучения позволяет глубже раскрыть потенциал архитектуры.
При большем количестве знаний, примеров и эмпирических связей модель действительно демонстрирует рост производительности. С точки зрения формальной статистики и машинного обучения эта логика выглядит непротиворечивой.
Аналогия с человеческим обучением
Человек не рождается с готовыми навыками и знаниями. Они формируются через длительное обучение и накопление опыта. За жизнь человек воспринимает огромные объёмы информации, хотя осознанно усваивает лишь малую часть. Со временем этого оказывается достаточно, чтобы ориентироваться в сложной среде, принимать решения, оценивать риски и иногда создавать новые идеи и концепции.
У машины есть принципиальное преимущество: она способна «запоминать» весь массив данных и обрабатывать его с колоссальной скоростью, на порядки превосходящей человеческую. Теоретически путь, который человек проходит за десятилетия, можно «загрузить» в модель за минуты. Вопрос в том, приводит ли это автоматически к качественно более высокому интеллекту.
Ограничения масштабирования
На практике рост масштабов сталкивается с рядом фундаментальных проблем.
Во-первых, существует эффект исчерпания качественных данных. По мере расширения обучающих корпусов система всё чаще сталкивается с шумными, вторичными и токсичными данными, что размывает понятийный аппарат и ухудшает интерпретацию.
Во-вторых, увеличение вычислений само по себе не даёт результата без надёжной обратной связи и чёткого критерия истинности. Обучение без качественной верификации начинает усиливать ошибки, а не устранять их.
В-третьих, рост числа параметров не гарантирует улучшения, если сами параметры остаются дефектными и не проходят многоуровневую проверку и балансировку.
Архитектурный тупик
Независимо от масштабов обучения современные большие языковые модели остаются архитектурно ограниченными. Они не обладают полноценным самообучением, имеют узкий набор обратных связей и не умеют динамически перестраивать внутренние параметры. Им недоступно формирование устойчивых причинно-следственных и иерархических связей, отбор существенных факторов, а также функции планирования, целеполагания и мотивации, характерные для человеческого мышления.
В результате такие модели хорошо работают в «стационарном мире прошлого» — там, где закономерности уже зафиксированы в данных. Но в динамичном мире настоящего, с непредсказуемыми вариациями и отсутствием однозначных решений, их эффективность резко снижается. Экспромт в сложной физической и социальной среде остаётся для них недостижимым.
Экономический итог
Из этого следует ключевой вывод: сам по себе закон масштабирования работает лишь до определённой границы и при жёстких условиях. За её пределами дополнительные триллионы долларов инвестиций могут не дать ожидаемого экономического эффекта. Риск заключается в том, что 6 трлн долларов, запланированных на расширение ИИ-мощностей, принесут отдачу существенно ниже ожиданий — не из-за недостатка ресурсов, а из-за фундаментальных ограничений текущего подхода.

