Объясняем простыми словами, что такое нейрослоп. Почему бесполезный ИИ-контент стал проблемой и как его распознать.
С развитием искусственного интеллекта интернет переживает новую волну информационного шума. Всё чаще пользователи сталкиваются с текстами, изображениями и видео, которые с первого взгляда могут выглядеть правдоподобно, но они шаблоны (возникает ощущение, что вы где-то уже видели этого персонажа или оттенок желтого), зачастую обманчивы и при этом создаются в огромных количествах, вытесняя по-настоящему содержательный контент.
Для описания этого явления появились отдельные термины — «слоп», «нейрослоп», «ИИ-слоп». Разберемся в значениях этих слов, а также в том, почему подобного контента становится всё больше и как он влияет на цифровую среду и современное общество.
Слово slop в переводе с английского языка изначально означало помои или еду такой жидкой консистенции, что ее неприятно есть. Но в последние несколько лет появилось еще одно значение — контент (текст, видео, изображение), сгенерированный искусственным интеллектом (ИИ). Словарь австралийского английского языка Macquarie Dictionary назвал AI Slop словом 2025 года. AI (Artificial Intelligence) в переводе с английского — «искусственный интеллект».
Слоп стал особенно распространен в 2024 году, когда Google внедрил свою модель Gemini в результаты поиска для американских пользователей. То есть над ссылками, которые обычно выдает система, стал появляться ответ на запрос, созданный с помощью искусственного интеллекта. Кто-то по старинке пролистывал вниз, чтобы самостоятельно найти достоверные источники и узнать ответ, но многие люди доверялись ИИ. При этом Gemini собирает данные не только на проверенных сайтах, а вообще везде, в том числе и там, где информация могла быть сгенерирована другим ИИ. Так и распространяется дезинформация, после которой родители кормят шестимесячных малышей непонятно чем, а турист едет в «обязательное для посещения место», которого в реальности не существует.
По данным исследования Kapwing (сервиса по генерации видео с помощью ИИ) в 2025 году более 20% видео, которые алгоритм Ютуба показывал новым пользователям в ленте Shorts, были нейрослопом. Чтобы это выяснить, команда проекта создала новый аккаунт и изучила предлагаемый в ленте контент. Например, на индийском канале Bandar Apna Dost публикуются абсурдные шортсы (короткие видео) о приключениях обезьяны и мускулистого персонажа, напоминающего Халка. Герои сражаются с демонами и сбегают на спортивной машине от полицейских. Многие ролики набирают десятки миллионов просмотров, хотя смысловая нагрузка в них нулевая.
Тексты, созданные автоматически или с минимальным участием автора, часто выглядят грамотно и структурированно, но при внимательном чтении оказываются пустыми по содержанию. Это может быть не только статья в интернете, но и целая книга, созданная ИИ. Например, писательница Джейн Фридман за одну неделю отправила жалобы на 29 романов, сгенерированных с использованием ее имени.
Основные признаки:
С визуальными материалами та же история — на первый взгляд изображение может показаться адекватным, но при внимательном рассмотрении можно увидеть семь пальцев или непонятно на чём держащийся стакан. Нейросети легко генерируют кадры событий, которых не было, компрометирующие сцены с участием известных людей, «пруфы» для фейковых новостей, эмоциональные изображения для манипуляции вниманием (катастрофы, скандалы).
Основные признаки:
Современные инструменты позволяют создавать видеоролики практически без участия человека — от сценария до озвучки. Сфера влияния сгенерированных видео примерно такая же, как и у изображений, — от политики до маркетинга. К примеру, одна из недавних реклам, сгенерированных ИИ, вызвавшая большой резонанс — рождественский ролик от Coca-Cola. Мало кто оказался в восторге от того, что ремейк теплой культовой рекламы 1995 года создал холодный искусственный интеллект. В комментариях шутят, что это отличная реклама для Pepsi, а один из пользователей иронично заметил: «Ничто так не создает рождественское настроение, как тот факт, что папу уволили, потому что его заменил ИИ, который теперь делает анимацию». Также у ролика есть и заметные визуальные сбои. Например, в разных сценах у фирменных грузовиков Coca-Cola меняется количество колес, а также длина самих автомобилей. Вероятно, это связано с тем, что генеративные видеомодели часто не способны сохранять согласованность персонажей и объектов между кадрами — многие системы создают видео покадрово, не имея устойчивой памяти о предыдущих сценах.
Основные признаки:
Главная причина — резкое снижение стоимости производства контента. Если раньше создание статьи, иллюстрации или видеоролика требовало времени, навыков и целой команды, то сегодня всё это может сгенерировать за несколько минут один человек. Это значит, что количество публикаций перестает быть ограниченным ресурсом — достаточно грамотно сформулировать промпт (запрос). Например, месяц пользования ChatGPT (чат-бота с ИИ) стоит от 6 $, а Midjourney (ИИ для создания изображений) — 10 $.
Еще одна причина — социальные сети, которые поощряют создание ИИ-контента. В эпоху, когда внимание пользователя стало главным объектом конкуренции, пригодятся любые способы, чтобы его удержать. Алгоритмы социальных сетей ориентированы прежде всего на вовлеченность и частоту публикаций, а не на глубину содержания. Поэтому контент, который быстро производится и адаптируется под тренды, и получает преимущество в распространении.
Главная проблема слопа не в самом факте существования посредственного контента (он был всегда), а в его масштабе и скорости распространения. Массовое производство автоматически созданных текстов, изображений и видео снижает качество информационной среды и влияет на то, как люди получают знания, принимают решения и в целом формируют представление о мире.
Когда интернет заполняется огромным количеством поверхностных материалов, становится всё сложнее находить достоверную и полезную информацию. Генеративные модели обучаются на существующих данных, и, когда автоматически созданный контент начинает ссылаться на другой автоматически созданный контент, возникает замкнутый цикл, в котором ошибки тиражируются и постепенно воспринимаются как факты.
Постоянное потребление поверхностного и легковоспроизводимого контента может формировать привычку к упрощенным форматам и снижать запрос на более сложные, требующие концентрации материалы. Сейчас ради захвата внимания пользователя даже Санкт-Петербургская академия художеств оживляет картины. В комментариях пишут, что администратор канала (говорят, его ведет сам ректор Семён Михайловский) «шутить изволит». Но в глобальном смысле это как раз напоминает про тренд на упрощение восприятия информации, в том числе визуальной.
ИИ влияет не только на производство контента, но и на повседневные практики принятия решений. Всё больше людей используют чат-боты как универсальный инструмент для выполнения самых разных задач — от составления меню на неделю и планирования дня до написания рабочих писем и консультаций по поводу здоровья. Людей, которые регулярно полагаются на советы нейросетей в бытовых и профессиональных вопросах, называют слопперами.
ИИ действительно помогает снизить рутинную нагрузку. Однако постоянная опора на готовые ответы может снижать возможности самостоятельного анализа и формирования собственного мнения. Меняется и сам язык коммуникации: люди постепенно начинают заимствовать стиль нейросетей — такая унификация речи снижает выразительность языка как каждого человека в отдельности, так и в коллективном плане.
ИИ заметно влияет на экономику творческих индустрий. С одной стороны, это снижает порог входа в креативную сферу, кому-то дает зарабатывать больше (в том числе недобросовестным пользователям), но с другой — у многих авторов снижаются количество заказов и цены на услуги. Согласно исследованию Высшей школы экономики, совокупные потери авторов к 2030 году могут достигнуть триллиона рублей.
Есть и другая проблема: персональный стиль, который креаторы нарабатывали годами, стало легко копировать. Как в том тренде, когда любой пользователь всего за секунду мог создать иллюстрацию в стиле японской студии анимации Ghibli. В индустрии принимаются разные меры — например, за прошлый год музыкальный сервис Spotify удалил более 75 миллионов треков, созданных ИИ, ввел новый фильтр музыкального спама, начал отслеживать имитацию голосов артистов, а сейчас разрабатывает систему маркировки участия ИИ в создании композиций.
Лишь немногие из тех, кто общается с нейросетью, задумываются о том, что происходит в этот момент с серверами и какой урон это наносит экологии. Хранение и обработка данных требуют значительных вычислительных ресурсов и энергопотребления. К примеру, в коммуне Киликура (Чили) находятся дата-центры, работающие с ИИ, и для охлаждения серверов требуется огромное количество воды, при этом Чили переживает засуху. Чтобы осветить проблему осознанного потребления ИИ, в начале 2026 года был запущен спецпроект Quili.AI — чат-бот, который один день работал с помощью людей. В течение 24 часов жители коммуны Киликура сидели за компьютерами и вручную отвечали на вопросы пользователей, которые те обычно задают ChatGPT, опираясь на собственный опыт и здравый смысл.
В своей статье «Идея ИИ-слопа — это слоп» итальянский философ и художник Франческо Д’Иза задает провокационный вопрос: «Почему открытие того, что мы можем производить мусор с помощью машин, сделало нас слепыми по отношению к тому факту, что человечество никогда не справлялось с этим лучше?».
По его мнению, создание скучных, вторичных произведений не является особенностью искусственного интеллекта — это базовое свойство любой культурной деятельности. На каждое произведение искусства, которое мы сегодня считаем шедевром, приходятся тысячи забытых работ. Художественный канон — это лишь уцелевшая вершина огромного айсберга посредственных произведений. «Большая часть человеческого производства всегда была слопом. Посредственность — не сбой технологии, а базовый уровень культуры», — пишет философ.
С этой точки зрения машины воспроизводят шаблоны и клише, которые уже присутствуют в человеческом мышлении, действуя скорее как зеркало культурных привычек, чем как их источник. Проблема, по мнению Д’Изы, заключается не в технологиях, а в наших ожиданиях от них — в склонности воспринимать ИИ либо как угрозу, либо как чудо, но не как продолжение человеческих практик.
Д’Иза также отмечает, что общественная тревога вокруг новых технологий повторяет знакомый исторический сценарий — от печатного станка до телевидения, от видеоигр до интернета. Каждую новую медиасреду обвиняли в разрушении внимания и деградации культуры. Обычно за этапом паники следует адаптация, после чего технология становится частью культурной нормы. Генеративный ИИ, по его мнению, — лишь очередная стадия этого цикла.
ИИ-слоп вызывает дискомфорт, возможно, потому, что он отражает коллективную сторону нашей культуры, где изобилие тривиального — не аномалия, а неизбежный побочный продукт творчества и одновременно его сырье. Культура всегда развивалась через переработку собственных клише и повторений. В этом контексте важной задачей становится не защита «святости человеческого» от машин, а развитие способности различать действительно значимое среди огромного потока информации, то есть критического мышления.
Расслоение интернета. В некоторых исследованиях, например в статье нидерландского ученого Джулиана Нейлана, высказывается опасение, что из-за ИИ будет не только распространяться ложная информация, но и усиливаться цифровое неравенство. То есть разные люди и так имеют разный доступ к технологиям и интернету, в зависимости как минимум от страны проживания и уровня дохода. А теперь для адекватной ориентации в онлайн-среде им будут необходимы новые знания и инструменты. Сеть может фактически разделиться на слои: более обеспеченные люди смогут позволить себе платные подписки на проверенные источники и оплату помощников для проверки фактов. В то время как люди с ограниченными ресурсами будут сталкиваться с ненадежными источниками и либо самостоятельно анализировать их, тратя на это больше сил и времени (что не всегда будет на 100% эффективно), либо доверять информации, сгенерированной ИИ.
Фильтрация слоп-контента. Уже создаются инструменты обнаружения материалов, созданных ИИ — такие как GPT Zero, Isgen, GigaChek от Сбера и другие. Пока они работают не идеально, периодически выдают ложноположительные результаты. Сенатор Артем Шейкин предлагал наносить водяные знаки на контент, сгенерированный ИИ.
Культурные изменения. В условиях перепроизводства автоматически созданных материалов растет ценность форматов, которые сложно имитировать, — от живых трансляций и подкастов с приглашенными экспертами до визуальных практик, например аналоговой фотографии и перформативного искусства. Контент, требующий непосредственного участия автора, будет восприниматься как маркер доверия и подлинности.
Критическое мышление будет оставаться важнейшим навыком. Слоп может оказаться не только проблемой, но и симптомом более глубокой трансформации цифровой культуры — перехода от дефицита информации к ее избытку, где главная задача пользователя — отличать действительно значимое.