Работает ли закон масштабирования — и оправданы ли триллионные инвестиции в ИИ

Масштаб планов и цена вопроса

Заявленные планы крупнейших технологических компаний по развертыванию вычислительных мощностей под искусственный интеллект в период с 2026 по 2032 годы выглядят беспрецедентно. Речь идёт примерно о 150 ГВт в эквиваленте текущих ИИ-кластеров на базе архитектуры Blackwell, что соответствует около 6 трлн долларов инвестиций при средней оценке порядка 40 млрд долларов за 1 ГВт мощности.

Для сравнения: на конец 2025 года совокупные ИИ-мощности всех бигтехов, включая OpenAI, оцениваются всего в 12–14 ГВт. Иными словами, предполагается увеличение на порядок всего за семь лет от базы 2025 года. Даже по меркам технологического сектора это выглядит экстремально.

Экспоненциальная гипотеза

В основе этих планов лежит идея экспоненциального роста: если большие языковые модели непрерывно масштабировать — увеличивать параметры, объём данных и вычисления, — рано или поздно произойдёт качественный скачок. В этой логике ИИ должен достичь уровня, при котором сможет заменить человека в исследовательской и изобретательской деятельности, радикально ускорить технологический прогресс и кратно повысить производительность экономики.

В предельной форме эта концепция сводится к стремлению создать универсальный когнитивный инструмент, превосходящий человеческий мозг по эффективности. Ключевым теоретическим основанием здесь выступает так называемый закон масштабирования. Но действительно ли он работает безусловно?

В чём суть закона масштабирования

В упрощённом виде закон масштабирования утверждает: если взять одну и ту же архитектуру модели и последовательно наращивать три фактора — параметры, данные и вычисления, — качество будет предсказуемо улучшаться.

  • увеличение размера модели ведёт к снижению средней ошибки;

  • рост объёма данных повышает устойчивость к редким и нетипичным паттернам;

  • наращивание вычислений и времени обучения позволяет глубже раскрыть потенциал архитектуры.

При большем количестве знаний, примеров и эмпирических связей модель действительно демонстрирует рост производительности. С точки зрения формальной статистики и машинного обучения эта логика выглядит непротиворечивой.

Аналогия с человеческим обучением

Человек не рождается с готовыми навыками и знаниями. Они формируются через длительное обучение и накопление опыта. За жизнь человек воспринимает огромные объёмы информации, хотя осознанно усваивает лишь малую часть. Со временем этого оказывается достаточно, чтобы ориентироваться в сложной среде, принимать решения, оценивать риски и иногда создавать новые идеи и концепции.

У машины есть принципиальное преимущество: она способна «запоминать» весь массив данных и обрабатывать его с колоссальной скоростью, на порядки превосходящей человеческую. Теоретически путь, который человек проходит за десятилетия, можно «загрузить» в модель за минуты. Вопрос в том, приводит ли это автоматически к качественно более высокому интеллекту.

Ограничения масштабирования

На практике рост масштабов сталкивается с рядом фундаментальных проблем.

Во-первых, существует эффект исчерпания качественных данных. По мере расширения обучающих корпусов система всё чаще сталкивается с шумными, вторичными и токсичными данными, что размывает понятийный аппарат и ухудшает интерпретацию.

Во-вторых, увеличение вычислений само по себе не даёт результата без надёжной обратной связи и чёткого критерия истинности. Обучение без качественной верификации начинает усиливать ошибки, а не устранять их.

В-третьих, рост числа параметров не гарантирует улучшения, если сами параметры остаются дефектными и не проходят многоуровневую проверку и балансировку.

Архитектурный тупик

Независимо от масштабов обучения современные большие языковые модели остаются архитектурно ограниченными. Они не обладают полноценным самообучением, имеют узкий набор обратных связей и не умеют динамически перестраивать внутренние параметры. Им недоступно формирование устойчивых причинно-следственных и иерархических связей, отбор существенных факторов, а также функции планирования, целеполагания и мотивации, характерные для человеческого мышления.

В результате такие модели хорошо работают в «стационарном мире прошлого» — там, где закономерности уже зафиксированы в данных. Но в динамичном мире настоящего, с непредсказуемыми вариациями и отсутствием однозначных решений, их эффективность резко снижается. Экспромт в сложной физической и социальной среде остаётся для них недостижимым.

Экономический итог

Из этого следует ключевой вывод: сам по себе закон масштабирования работает лишь до определённой границы и при жёстких условиях. За её пределами дополнительные триллионы долларов инвестиций могут не дать ожидаемого экономического эффекта. Риск заключается в том, что 6 трлн долларов, запланированных на расширение ИИ-мощностей, принесут отдачу существенно ниже ожиданий — не из-за недостатка ресурсов, а из-за фундаментальных ограничений текущего подхода.

Ссылка на основную публикацию