После просмотра подкаста (Коняев - чума!) я вроде понял, в чём минус ИИ, и провёл небольшое исследование этого вопроса. Ниже - обзорная статья, которая охватывает фундаментальные ограничения современных LLM через призму интерполяции и энтропии, технологические прорывы 2025 года, рыночную динамику ключевых игроков (Google, Broadcom, Intel), экономику вычислений и революционные перспективы развития ИИ.
Представьте себе ИИ как опытного клерка в огромной библиотеке. Он знает почти все книги наизусть, но никогда не напишет свою собственную. Почему? Давайте разберемся.
ИИ обучается на океане данных из интернета, книг и кода. По сути, он ищет самый вероятный путь между точками в многомерном пространстве. Это называется интерполяцией. В итоге получается, что ИИ работает внутри знакомого мира данных. Он усредняет весь человеческий опыт. Попросите его написать стихотворение в стиле Пушкина - и он просто смешает существующие тексты. Ничего нового. Только гладкие, правдоподобные ответы. Получается интеллектуальный консерватизм.
Энтропия в термодинамике и теории информации - это мера беспорядка. В человеческом творчестве энтропия становится силой. Она позволяет создавать неожиданные, но ценные связи. Разработчики специально ограничивают "температуру" модели - случайность в ответах. Чтобы не получить полный бред. Модель держится ближе к самым вероятным словам. Вот почему ИИ избегает энтропии.
А вот человеческий фактор совсем другой. Гениальность часто балансирует на грани хаоса. Настоящее открытие - это всегда выход за рамки обучающих данных. Экстраполяция, а не усреднение. Человек может придумать то, чего никогда не видел.
Интерполяция - безопасное движение по проторенным тропам. Она хороша для оптимизации, перевода, кодинга. Там где важна структура, а не новизна. Энтропия и экстраполяция - риск. ИИ не понимает реальный мир. Он не отличит гениальный бред от просто бреда.
Вывод простой: ИИ - заложник прошлого. Он всегда смотрит назад, чтобы ехать вперед. Стремится к порядку и вероятности. А живой разум растет из контролируемого хаоса. Из способности создавать смысл там, где статистика видит только пустоту. Поэтому ИИ сегодня - отличный помощник, но сомнительный творец. Он дает "лучшее среднее". А нам иногда нужно "худшее, но уникальное".
Индустрия сейчас переходит от простого угадывания слов к настоящему мышлению. В 2025 году появились ключевые изменения, которые пытаются преодолеть эти ограничения.
Раньше ИИ умнел за счет роста данных при обучении. Теперь акцент на вычисления во время ответа. В этом случае модели вроде OpenAI o1 используют "цепочку рассуждений". Вместо мгновенного ответа ИИ "думает" перед тем, как ответить. Проверяет себя, исправляет ошибки. Благодаря этому такие модели решают задачи, которых не было в обучающих данных. Через логический вывод, а не простое усреднение.
Стартап Liquid AI разрабатывает архитектуру, совсем не похожую на обычные трансформеры. Параметры жидких сетей меняются в реальном времени, а не как статичные модели после обучения. Такая гибкость позволяет им адаптироваться к изменениям среды. Это критично для робототехники и автономных систем. Летом 2025 года Liquid AI показали второе поколение - в разы эффективнее конкурентов.
В конце 2024 - начале 2025 случился бум ИИ-агентов. В отличие от простых чат-ботов, эти агенты - полноценные системы с инструментами, браузером и файлами. У них есть долгосрочные цели. Главное отличие в том, что при неудаче агенты пробуют разные пути. Они не повторяют заученное. Это снижает зависимость от интерполяции, поскольку ориентируются на реальные результаты.
Современные модели уходят от чистого текста к видео и сенсорным данным. Цель в том, чтобы ИИ понимал не только статистику слов, но и причинно-следственные связи реального мира. Интуитивную физику. Это предотвращает галлюцинации чистой интерполяции. Итог: переход от "ИИ знает все" к "ИИ умеет думать и действовать". Мы учим модели не просто помнить ответы, а искать их с нуля. Через логику. Это попытка применить энтропию и выйти за рамки усреднения.
Аргумент о клиентской базе как ключе к победе Alphabet в 2025 году подтверждается. Но стратегия шире простого использования охвата.
Google использует свою базу для незаметного внедрения ИИ. Пользователям не нужно менять приложения. AI Overviews охватывает 1,5 миллиарда пользователей - более 50% поисковых запросов в 2025 году сопровождаются ИИ-ответами. Это самый массовый генеративный продукт в истории. А интеграция Gemini в Docs и Gmail держит корпоративных клиентов, создавая высокие барьеры для перехода к конкурентам.
Google на равных с OpenAI. Gemini 3 (ноябрь 2025) - лидер в мультимодальности. Обрабатывает видео, аудио, изображения с огромным контекстом до 1 миллиона токенов. Анализирует целые библиотеки кода или часы видео. К концу 2025 года модель часто опережает GPT-5.2 в генерации контента и работе с данными, хотя GPT-5 сохраняет лидерство в логическом рассуждении и программировании.
Google разрабатывает собственные TPU с 2015 года. Конкуренты зависят от Nvidia. Собственные TPU снижают себестоимость ответов и обеспечивают мощность для обучения следующего поколения моделей. В 2025 году Google направит около $75 млрд на капитальные затраты - большую часть на ИИ-инфраструктуру, конкурируя с Amazon и Microsoft.
Несмотря на лидерство, победа не абсолютна. OpenAI выпустила браузер в конце 2025 года для конкуренции с Chrome. Anthropic и новые игроки вроде DeepSeek забирают долю в глубоких исследованиях и кодинге. А правительство США остается главным риском через антимонопольные иски.
Итог: Google эффективно конвертирует базу в лидерство через инфраструктуру и интеграцию. К концу 2025 года сам стал силой, определяющей рынок.
Для производства TPU Google использует разделение труда. Сам проектирует архитектуру, доверяет детализацию и производство партнерам.
Главный партнер - Broadcom по специализированным ИИ-чипам (ASIC). В 2025 году помог с седьмым поколением TPU v7. Google - крупнейший заказчик, обеспечивает 80% продаж ИИ-ускорителей Broadcom. В марте 2025 года Google расширил партнеров, добавив MediaTek для модулей ввода-вывода новых чипов. Это снижает зависимость от Broadcom и сокращает расходы.
TSMC занимается изготовлением кристаллов. Современные TPU v6 и v7 производятся по 3 нм и 5 нм техпроцессам. В 2025 году TSMC увеличила мощности упаковки для проектов Google через MediaTek.
Итог: Google контролирует дизайн и логику. Broadcom и MediaTek превращают чертежи в схемы. TSMC печатает на кремнии. Это сделало Google главным конкурентом Nvidia на рынке ASIC-ускорителей.
Акции Broadcom (AVGO) упали более чем на 12% за несколько дней в середине декабря 2025 года. Причина - финансовый отчет за четвертый квартал от 11 декабря.
Давление на маржинальность: Прогноз снижения валовой прибыли на 100 базисных пунктов в первом квартале 2026 года. ИИ-оборудование менее прибыльно, чем традиционное ПО.
"Недостаточный" объем заказов на ИИ: Портфель заказов $73 млрд. Но аналитики сочли это мало относительно ожиданий рынка.
Риски импортозамещения: Комментарии CEO Хока Тана о переходе клиентов на собственные чипы.
Общая ротация в секторе: Падение усилилось выходом из "перегретых" акций ИИ. Как Nvidia и AMD. Из-за слабых прогнозов Oracle и опасений окупаемости ИИ-инвестиций.
По данным аналитиков и отчетности 2025 года, Google - крупнейший клиент Broadcom в ИИ. Оценки HSBC показывают, что на долю заказов Google приходится 78% выручки в сегменте ASIC и 58% от общего объема поставок специализированных чипов. Выручка Broadcom от ИИ в 2025 году достигла $20 млрд (рост 65%), где большую часть составляют заказы Google и чипы шестого-седьмого поколений. Google - один из трех "гиперскейлеров" вместе с Meta и OpenAI. Высокая доля заказов от таких гигантов стала причиной падения акций в декабре, создавая риски снижения маржинальности и волатильность.
Итог: Google обеспечивает 20% всей выручки полупроводникового сегмента Broadcom. Критический партнер для 80% успеха ИИ-ускорителей.
В 2025 году перенос части производства чипов Google на Intel Foundry Services перешел из гипотез в обсуждения. К декабрю 2025 года вероятность подкрепляется факторами.
Google перевела мобильные процессоры на TSMC в 2025 году. Но TSMC перегружена Apple и Nvidia. Google диверсифицирует поставщиков для серверных TPU.
Google рассматривает технологию упаковки Intel EMIB для будущих ускорителей (TPU v9 к 2027 году). Альтернатива решению CoWoS от TSMC.
Intel запустила 18A в массовое производство в 2025 году - аналог 1.8 нм. Microsoft уже клиент. Аналитики прогнозируют, что Google последует. Intel предлагает заводы в США - снижение геополитических рисков и налоговые льготы.
Google работает через посредников. Broadcom для текущих TPU, MediaTek для будущих. Intel Foundry может предложить лучшие условия. Broadcom адаптирует дизайн под фабрики Intel.
Итог: Полного ухода от TSMC не будет. Вероятна гибридная модель к 2026-2027 годам:
Проектирование с Broadcom/MediaTek
Производство у TSMC
Упаковка или часть компонентов у Intel
Цель - снижение зависимости от одной фабрики в ИИ-гонке.
Переход от простой интерполяции к глубокому рассуждению вызвал рост спроса на вычисления в 2025 году. Это Inference Scaling Laws.
Раньше основная нагрузка - на обучение. Теперь - на инференс. Пример: Новые модели вроде OpenAI o1 и o3 тратят в десятки раз больше времени на ответ, чем GPT-4. Исследования декабря 2025 года: модели с рассуждением потребляют в 30 раз больше энергии на 1000 запросов. Дело в том, что чтобы победить энтропию и дать верный ответ, ИИ запускает тысячи внутренних циклов проверки. Это требует экспоненциально больше операций.
Скачок сделал главным ограничителем не алгоритмы, а физику. Энергопотребление к концу 2025 года удвоится до 23 ГВт - это как Нидерланды по выработке углеводородной энергии. Гиганты планируют вложить более $1 трлн в инфраструктуру, включая ЦОД Stargate за $500 млрд.
Индустрия осознала: масштабирование "времени размышления" эффективнее для сложных задач (математика, кодинг, наука), чем рост данных. Флагманы вроде o3-pro конца 2025 года думают над запросом минуты, используя ресурсы как целые кластеры прошлых лет.
Итог: Интеллект ИИ пропорционален сожженному электричеству при размышлении. Энергоэффективность и дешевая энергия - ключ к победе.
Рост энергопотребления сделал "экономику токена" приоритетом в 2025 году. Волна оптимизации на всех уровнях.
Вместо универсальных GPU - чипы только для инференса. Компании вроде Groq показывают эффективность LPUs в десятки раз выше. Кастомные чипы Google (TPU v6/v7), Amazon (Trainium 3) и Microsoft (Maia 100) замещают Nvidia, снижая себестоимость запроса на 40-60%.
Прогресс идет через оптимизацию размышления, не размера. Спекулятивное декодирование позволяет маленькой модели набрасывать ответ, а большой - проверять его, снижая задержку и стоимость в разы. Дистилляция рассуждений дает флагманам обучать компактные модели имитировать логику для запуска "умных" функций на дешевом железе.
Массовое внедрение Blackwell (B200) в 2025 году - ответ на кризис. Энергоэффективность в 25 раз выше при инференсе. Сокращение операционных расходов в 10 раз при масштабе.
Квантование переводит модели на низкую точность (FP4/FP6 вместо FP16), делая их в 4 раза меньше по памяти и в 2-3 раза быстрее. Агенты и маршрутизация направляют 80% рутинных задач на дешевые малые модели, оставляя дорогие вычисления только для сложных проблем.
ЦОДы строятся "power-first": близость к дешевой энергии важнее, чем к потребителю. Некоторые гиганты инвестируют в малые модульные реакторы (SMR) для фиксации стоимости электричества.
Итог: Парадокс. Суммарные требования растут, но стоимость "умного" токена упала в 280 раз за два года. Гонка между ростом сложности и удешевлением.
Революционные шаги затрагивают физику процесса или базовую математику. Отказ от архитектуры фон Неймана и обратного распространения.
Ожидаемый сдвиг: данные передаются фотонами вместо электронов.
Революция: Свет не имеет массы, почти не греется. Компании вроде Lightmatter поставляют интерконнекты для ЦОДов уже в 2025 году.
Эффект: Ускорение матричных вычислений в 100-1000 раз. Снижение энергопотребления на порядки. Обуздание энтропии без новых электростанций.
Современный ИИ работает циклично, постоянно потребляет энергию. В отличие от мозга, где нейрон "вспыхивает" только при сигнале.
Революция: Переход к импульсным сетям, работающим по событию.
Эффект: Перенос мощного ИИ с дата-центров на устройства. ИИ уровня GPT-5 на батарее смартфона месяцами.
В 2024-2025 стартапы вроде FinalSpark дают облачный доступ к нейроплатформам из человеческих нейронов.
Революция: Биологические нейроны обрабатывают неопределенность эффективнее кремния в миллионы раз. Самообучаются без итераций.
Эффект: Системы с настоящей экстраполяцией. Решения за пределами обучающих данных.
Джеффри Хинтон предложил отказаться от метода обратного распространения для всех LLM.
Революция: Новые алгоритмы вроде Forward-Forward позволяют учиться в один проход. Как биологический мозг.
Эффект: Скорость обучения вырастет в разы. Требования к памяти упадут. ИИ станет адаптивным в реальном времени.
К концу 2025 года квантовые компьютеры IBM и Google достигли уровня интеграции в гибридные облака.
Революция: Кубиты идеальны для поиска глобального минимума в сложных пространствах вероятностей.
Эффект: Где классический ИИ интерполирует между точками, квантовый видит всю структуру мгновенно. Находит ответы, невозможные классически.
Итог: Если эволюция - быстрее и дешевле, революция - переход от вычисления интеллекта к его физическому воплощению. Перестать имитировать разум статистикой. Начать строить на принципах, близких к природе мышления.
UPD отредактировал пост в Cursor на Grok Code, устал объяснять Gemini 3 (хотя факты собирал через ИИ-чат в Google-поиске). А вайб-кодинг даётся Gemini 3 лучше всех, по моим ощущениям.