Когда интеллект измеряется мегаваттами: что на самом деле движет прогрессом ИИ
За последние несколько лет искусственный интеллект превратился из технологического эксперимента в глобальную индустрию, где каждая новая модель обещает стать умнее, быстрее и полезнее предыдущей. Снаружи может показаться, что успех крупнейших разработчиков определяется некими уникальными алгоритмами или «секретными рецептами», которые компании тщательно скрывают. Однако исследование ученых из Массачусетского технологического института (MIT) предлагает совершенно иной взгляд на природу этого прогресса — и он оказывается куда более прозаичным.
Чтобы понять, что именно определяет развитие современных языковых моделей, исследователи проанализировали огромный массив данных: 809 крупных моделей, созданных в период с октября 2022 года по март 2025-го. Этот период оказался особенно показателен — именно тогда произошел настоящий взрыв интереса к генеративному ИИ, а новые модели начали появляться с беспрецедентной скоростью.
Именно в этом стремительном потоке инноваций ученые попытались выделить фундаментальные факторы успеха. Они разделили их на четыре категории: объем вычислительных ресурсов, общие алгоритмические достижения, фирменные инженерные решения и индивидуальные особенности архитектуры моделей. На первый взгляд, все эти элементы кажутся примерно равнозначными. Однако цифры, полученные в ходе анализа, резко меняют эту картину.
Выяснилось, что подавляющая часть прогресса — от 80 до 90 процентов — объясняется исключительно масштабом вычислений, использованных при обучении моделей. Иначе говоря, чем больше вычислительной мощности было задействовано, тем выше оказывались итоговые способности системы. Алгоритмы, архитектурные тонкости и инженерные оптимизации при этом играли заметно меньшую роль.
Это открытие разрушает популярный миф о том, что лидеры рынка обладают неким уникальным технологическим преимуществом. Вклад фирменных алгоритмов и инженерных решений, по оценкам исследователей, составляет всего 14–18 процентов. Безусловно, это важная часть развития технологий, но она явно несопоставима с влиянием огромных вычислительных ресурсов.
Особенно наглядно этот эффект проявляется, если посмотреть на динамику последних лет. Всего за три года объем вычислений, затрачиваемых на обучение крупнейших моделей, увеличился примерно в пять тысяч раз. Такой скачок трудно представить в любой другой отрасли: фактически речь идет о гигантском росте инфраструктуры — дата-центров, графических ускорителей и специализированных чипов.
При этом алгоритмический прогресс тоже не стоял на месте. Улучшения в методах обучения позволили повысить эффективность примерно в 7,5 раза. Особенно заметно это оказалось в работе с небольшими моделями, где оптимизация алгоритмов может существенно снизить требования к ресурсам. Но даже такие достижения меркнут на фоне стремительного роста вычислительных мощностей.
Интересно и другое наблюдение исследователей: эффективность разных компаний заметно отличается. Некоторые разработчики смогли добиться сопоставимых результатов, используя в 61 раз меньше вычислительных ресурсов, чем их конкуренты. Это показывает, что инженерное мастерство и оптимизация все же имеют значение — просто их влияние ограничено масштабом доступной инфраструктуры.
Из этих данных постепенно вырисовывается новая реальность индустрии ИИ. Если раньше ключевым фактором считались идеи и алгоритмы, то теперь на первый план выходит доступ к гигантским вычислительным мощностям. В ближайшие годы успех в гонке искусственного интеллекта, вероятно, будет определяться не столько оригинальностью математических решений, сколько возможностями строить и обслуживать огромные дата-центры. Таким образом, современный ИИ оказывается не только научной или программной задачей, но и инфраструктурным проектом планетарного масштаба. И чем дальше развивается эта технология, тем очевиднее становится: интеллект машин все чаще измеряется не строками кода, а количеством чипов, электроэнергии и вычислительных циклов, вложенных в их обучение.
Подготовил Роман БОНДАРЧУК, УзА