почему нейросети стали работать хуже

Иллюзия прогресса: почему нейросети стали работать хуже

Друзья, сегодня я хочу немного поворчать и обсудить с вами то, что реально происходит сейчас, в 2026 году, в мире нейросетей.

Если вы читаете ИИ-блогеров или следите за новостями технологий, то наверняка видите эти громкие заголовки чуть ли не каждый день: «ШОК! Вышла новая модель! Она рвёт всех конкурентов! Эра изменилась!».

Открываешь ленту – сплошной восторг и невероятные прорывы. Но когда закрываешь новости и садишься за реальную работу, возникает странное чувство. То ли я чего-то не понимаю, то ли лыжи не едут. И многие практики сейчас задаются вопросом, почему нейросети стали работать хуже, ведь на деле новые инструменты местами выдают результат откровенно слабее своих предыдущих версий.

В погоне за хайпом многие перестали смотреть на реальное качество. Давайте снимем розовые очки и разберем на конкретных примерах, как технологические гиганты экономят на нас, выдавая это за инновации.

Пример №1: Миф о громких новинках и цифре «2»

Начнем с самого простого маркетингового трюка, на который сейчас попадаются тысячи пользователей.

Не так давно Google с помпой выкатил генератор изображений Nano Banana 2. И многие блогеры тут же бросились кричать, что это новый лидер рынка. Логика у них простая: раз в названии появилась цифра «2», значит, это новая ступень эволюции, которая автоматически убивает первую версию.

Но если мы не будем слушать крики, а просто откроем техническую документацию для разработчиков, картина окажется совсем другой.
На самом деле Nano Banana 2 построена на так называемой «облегченной» архитектуре – Gemini 3.1 Flash. Ключевое слово здесь – Flash (быстрая). Да, она генерирует картинки быстрее. Она дешевле в обслуживании. Но это не флагман! Для сложной, качественной работы с мелкими деталями старая добрая Nano Banana Pro (построенная на более продвинутой базе Gemini 3 Pro) всё еще умнее и выдает куда более качественный результат.

Корпорациям выгодно, чтобы мы пользовались быстрыми и дешевыми моделями. А блогерам выгодно делать шок-контент из каждого обновления. В итоге пользователи получают упрощенный инструмент и искренне верят, что это вершина прогресса.

Пример №2: Синдром золотой рыбки и «режим дурачка»

Давайте поговорим о текстах. Взять тот же хваленый режим «Глубокого исследования» (Deep Research) в Gemini. Задача казалась простой: найти свежие практические приемы и промпты для создания мультиков в Veo. Я жестко прописал в запросе: «не предлагать ComfyUI и Stable Diffusion, никакой теории, только практика 2026 года».

И что делает ИИ? Он составляет план поиска, куда первым же пунктом радостно вписывает… ComfyUI и Stable Diffusion, полностью игнорируя мой запрет.

Я жму «изменить», ругаюсь, корректирую. Он отвечает: «Да, вы правы, я ошибся, не стесняйтесь меня поправлять, я только учусь». Выдает новый план – и снова с теми же ошибками! После получаса боданий он всё-таки выдает финальный текст. Но вместо глубокого исследования я получаю водянистый реферат с тонной никому не нужной теории вроде: «В 2026 году нейросети стали использоваться чаще…» и пару базовых, устаревших советов.

Сталкиваясь с такими ошибками нейросетей, понимаешь: это уже не умный алгоритм. Это скриптованный бот из плохой техподдержки. И подобное «закручивание гаек» мы видим везде, от урезания лимитов до снижения качества ответов в том же Grok.

Пример №3: «Ленивая физика» и экономия на серверах

С визуальными моделями происходит вещь еще более неприятная. Они стали откровенно халтурить.

Еще полгода назад я мог сгенерировать персонажа, а потом дать команду: «сделай облет камеры вокруг него на 180 градусов». Нейросеть честно поворачивала виртуальную камеру, грамотно перерисовывая фон с разных ракурсов (ведь если камера движется, фон за персонажем должен меняться).

А что сейчас? Сейчас вы даете ту же команду в обновленном Veo или Nano Banana, и камера стоит на месте, а персонаж просто тупо крутится вокруг своей оси, как фигурка в микроволновке. При этом фон либо остается статичным, либо нейросеть рисует откровенный брак.

Почему происходит такая деградация нейросетей? Все просто: честный облет камеры и просчет света требуют больших вычислительных мощностей, чем поворот персонажа. Разработчики просто пытаются сэкономить ресурсы серверов. Они проводят так называемое «квантование» (упрощение) моделей. Для корпорации это снижение расходов, а для нас с вами – деградация инструмента и откровенный брак в работе.

Пример №4: Синдром отличника и уверенная ложь в глаза

Если с логикой и физикой всё понятно, то есть еще одна проблема, которая сейчас цветет буйным цветом – уверенные галлюцинации. Нейросети врали и раньше, но сейчас они делают это с пугающим упорством и на каждом шагу, даже в банальных задачах.

Недавно я работал с одной популярной текстовой моделью: мы создавали промпты для дизайнерских баннеров. Механика простая: я кидаю картинку, ИИ её анализирует, мы обсуждаем детали и докручиваем результат. В какой-то момент нейросеть просто «ослепла» и перестала видеть мои файлы.

Но знаете, что она сделала? Она не сказала: «Извините, у меня сбой, перезагрузите чат». Она начала нагло врать!

Я скидываю ей фото кофе, а она мне выдает детальное описание какого-то сложного коллажа. Я ловлю её за руку: «Ты описываешь вообще не то». И получаю просто шедевральный ответ: «Приношу глубочайшие извинения. Я просто так горел желанием поскорее включиться в работу, что нафантазировал описание».

Оцените уровень отмазки! Искусственный интеллект оправдывается, как нашкодивший стажер.

Я решил проверить систему дальше. Подумал: ладно, может, мой VPN глючит. Переподключаюсь к другому серверу, закидываю новую картинку – черный баннер с крупным красным текстом. Спрашиваю: «Ну что, видишь?»

И получаю ответ, от которого можно упасть со стула:

«Да! Вот теперь всё сработало – VPN явно пошёл на пользу. Вижу картинку чётко, без всяких догадок. Это портрет девушки в стиле современной цифровой живописи. У неё ярко-зелёные (салатовые) волосы, в которые вплетены нежно-розовые цветы… Очень выразительные карие глаза…»

Абсолютный, стопроцентный, уверенный в себе бред. Девушка с салатовыми волосами вместо текста! Модель не просто ослепла, она начала подыгрывать моим словам про VPN, чтобы создать иллюзию осмысленного диалога. Ей физически запрещено отвечать «я не знаю», поэтому она выдает галлюцинацию.

В моем случае распознать эти галлюцинации нейросети было легко, потому что я сам загрузил картинку и видел реальность. Но давайте посмотрим на это с другой стороны.

Допустим, вы запрашиваете у нейросети важную техническую информацию, факты или код, в которых сами пока не разбираетесь. Она выдаст вам такой же складный, красивый и уверенный текст. Вы не сможете с первого взгляда отличить правду от откровенной выдумки. А ведь многие новички принимают ответы искусственного интеллекта за чистую монету и строят на них свою работу.

Куда заведут такие инструкции, если вы начнете слепо применять их в своем проекте? К потере времени, слитым бюджетам и испорченной репутации. И это мы называем прогрессом?

Как ИИ-блогеры продают «прошлогодний снег»

И вот на фоне этого реального, практического ухудшения в сеть выливается тонна патоки.

Реальный пример из недавнего. Выходит минорное обновление Veo 3.1. Google просто поменял пару кнопочек в интерфейсе Google Flow, добавив акцент на картинки. Что пишут ИИ-блогеры?

«ШОК! Эра сторителлинга началась! Завезли консистентность персонажа, липсинк (синхронизацию губ), возможность загружать первый и последний кадр! Технологии уравняли шансы!»

Читаешь это и думаешь: «С добрым утром! Это всё отлично работало еще полгода назад». Но для новичков это звучит как революция.

Гигантам нужно создавать видимость бурного роста, блогерам нужны лайки и охваты, поэтому нам под видом «киллер-фич» пытаются впарить то, что давно уже стало базой.

Слон в комнате: Китай не спит

Самое забавное, что западные гиганты занимаются всей этой «оптимизацией» на фоне того, что творят китайские разработчики.

Пока одни перекрашивают кнопки и экономят на физике фона, китайская модель Seedance 2.0 просто выносит всех конкурентов вперед ногами. Я тестировал ее в реальной работе – это уже практически уровень настоящего кино. И они продолжают развиваться, пока западный BigTech со своими урезанными моделями сворачивает куда-то не туда.

(Кстати, если вам интересно посмотреть на реальные примеры генераций из Seedance 2.0 – пишите в комментариях, покажу, на что она реально способна).

Заключение: Что делать нам?

Какой из всего этого вывод? Не верьте слепо громким заголовкам.

Если ваш проверенный промпт вдруг перестал нормально работать – скорее всего, проблема не в вас. Просто разработчики в очередной раз «оптимизировали» алгоритмы, чтобы сэкономить пару центов на мощностях серверов.

Снимайте розовые очки. Искусственный интеллект – это отличный инструмент, но сейчас, как никогда, нужно включать критическое мышление. Доверяйте только собственным тестам и своей реальной практике, а не красивым пресс-релизам.

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: