a16z и OpenRouter опубликовали анализ 100 триллионов токенов реального использования LLM — крупнейшее эмпирическое исследование в индустрии. Главный сюрприз: более половины всего использования open-source моделей приходится на ролеплей и творческие диалоги.
Пока индустрия соревнуется в бенчмарках по математике, пользователи массово строят интерактивные истории и разговаривают с AI-персонажами. OSS-модели здесь выигрывают за счёт гибкости и отсутствия жёстких ограничений модерации. Программирование при этом сильно растёт и остается территорией Anthropic — Claude обрабатывает более 60% кодинг-запросов.
Китайские модели за год выросли с 1% до почти 30% рынка. DeepSeek, Qwen, Kimi K2 серьёзно потеснили западных игроков. При этом монополия сменилась фрагментацией: если год назад DeepSeek контролировал более половины OSS-сегмента, сейчас ни одна модель не удерживает больше 25%.
Доля Азии в глобальных расходах на AI удвоилась — с 13% до 31%. Северная Америка всё ещё лидирует, но уже составляет меньше половины.
Исследователи вводят понятие “эффекта хрустальной туфельки” — ранние когорты пользователей, нашедшие идеальное соответствие между задачей и моделью, показывают retention в 40% на пятый месяц. Остальные бесконечно мигрируют. Быть первым, кто решил конкретную задачу, оказывается важнее, чем быть объективно лучшим. Это работает и в обратную сторону — модели без чёткой ниши при запуске теряют пользователей независимо от последующих улучшений.
Спрос при этом неэластичен — то есть мало зависит от цены. Пользователи платят премиальную цену за токены на топовые модели, когда для задач нужно качество. При этом использование дешевых моделей резко увеличивается — я как-то рассказывал в видео про парадокс Джевонса, когда снижение цены на ресурс не приводит к сокращению расходов, а увеличивает потребление.
Главный вывод — потребление AI становится ориентированным на агентов и мультимодельным.
И напомню, что это статистика OpenRouter и там нет запросов, сделанных напрямую к производителям моделей (OpenAI, Anthropic, Google и так далее) и нет статистики других агрегаторов или платформ, предоставляющих доступ к развернутым моделям, типа Groq или Nebius. Так что grain of salt будет нелишним.