«GPT-слепота»: что не так с ИИ-текстами и почему живые голоса все еще решают
ИИ-тексты — это просто, быстро и удобно. Вот только у этой медали есть обратная сторона: генеративному контенту становится все сложнее привлекать внимание аудитории. В медиапространстве формируется новое явление — GPT-слепота. Что это такое и почему полный отказ от человеческого начала в текстах ведет нас в никуда — рассказала Наталья Белкова, генеральный директор 4D

Рекламные креативы, рассылки, посты в соцсетях и лонгриды в СМИ — нейросети помогают маркетологам и пиарщикам автоматизировать рутину и сократить время на производство контента.
По данным исследования HubSpot, 51% маркетологов генерирует тексты рассылок с помощью нейросетей. ИИ позволяет увеличить средние показатели open rate (подписчиков, открывших письмо) на 30%. Среди SMM-специалистов 49% использует нейросети для написания текстов, а 47% — для генерации фото- и видеоконтента.
46% компаний задействуют нейросети при создании лонгридов, экспертных статей и комментариев. Очевидно, что эта тенденция будет усиливаться даже в форматах, которые по умолчанию предполагают уникальный стиль. Например, в тех же колонках или авторских блогах.
Проблема в том, что по мере экспансии ИИ мы рискуем столкнуться со снижением восприимчивости аудитории к такому контенту. Уже сегодня по аналогии с «баннерной слепотой» в креативной индустрии можно говорить о новом явлении — GPT-слепоте.
Откуда берется GPT-слепота
1. Однотипность стиля и структуры
За последние пару лет нейросети научились писать заметно лучше. Тем не менее генеративный контент все еще сохраняет ряд стилистических недостатков: тавтологию, канцеляризмы и обилие речевых штампов, например, когда на два абзаца текста приходится пять конструкций в духе «не только, но и».
Авторский комментарий по длине предложений может напоминать цитаты Льва Толстого, но при этом еще с обилием терминов и сложных оборотов. Экспертная статья от робота часто похожа на «окрошку» из существительных с минимумом глаголов и логических связок.
Вторая проблема – это однотипность, которая проявляется как на уровне стиля, так и на уровне структуры. Получается стандартизированный контент с типовыми подзаголовками, подпунктами и списками. Посты в новостных лентах, публикации в «телеграм»-каналах, статьи на профильных ресурсах – все сливается в один большой текст. Сохранить идентичность и узнаваемость в таких условиях бренду может быть очень сложно.
2. Отсутствие личного начала
Генеративный контент часто упрекают в искусственности, которая сохраняется даже несмотря на все успехи разработчиков по «очеловечиванию» текстов.
Проблема в том, что «писать, как человек» не равно быть человеком, и уж тем более — самобытной личностью интересной аудитории. Безусловно, мы можем попросить Chat GPT написать эмоциональный текст, добавить разговорного стиля, юмора или метафору «для тех, кто в теме». Но скорее всего получится так себе: плоские шутки вместо иронии, размытый смысл, путаница в отсылках к культурному коду.
Полезный и качественный контент — это здорово, но сам по себе он не всегда мотивирует аудиторию следить за экспертом. Нам важно проникнуться к автору искренней симпатией и действительно захотеть читать его тексты. Здесь на первый взгляд выходит сочетание авторского стиля и уникальной подачи материала. Человек может написать пост «в сердцах», поделиться с подписчиками эмоциями «по горячим следам», харизматично пошутить, придумать авторский речевой оборот. Нейросетям это пока недоступно.
Важный момент: это касается не только узкоспециализированных экспертов, но и тех, кто работает на широкую аудиторию. В конце концов мы живем в эпоху новой искренности. Звездами соцсетей сегодня становятся не идеальные «пилатес-принцессы», а домохозяйки с кредитами и многодетные семьи из глубинки. Сымитировать стиль таких инфлюенсеров у ИИ едва ли получается.
3. Скепсис со стороны разных аудиторий
Скепсис по отношению к ИИ-текстам в равной мере характерен для разных аудиторий, просто в каждом сегменте свои триггеры.
Эксперты чаще склонны отождествлять ИИ-контент с низким качеством и даже «читерством». Они также чаще обращают внимание на лингвистические ляпы, недочеты в стиле или логике повествования. При этом определять генеративные тексты им зачастую удается сравнительно неплохо. Так, ученые Рурского университета выяснили, что специалисты в области медицины и гуманитарных наук способны распознавать ИИ в статьях с точностью до 70%.
Для B2C-аудитории основным триггером GPT-слепоты становится однотипность. Идентичная структура, стандартные темы и заголовки – все это снижает восприимчивость к тексту. По данным отчета Hootsuite, 62% пользователей стараются меньше взаимодействовать с постами, если узнают, что те сгенерированы ИИ.
Что еще не так с ИИ-контентом? Кейсы
Даже если нейросетный контент станет совершенными с точки зрения языка – полностью исключить человека из процесса все равно не получится. Почему так? Разберу на реальных примерах.
ИИ не создает ничего нового
Нейросети не генерируют уникальные решения, а лишь предлагают уже имеющиеся варианты, пусть и в разных комбинациях. Иногда это может быть плюсом. Например, в статье о воспитании детей мы очевидно хотим опираться на реально существующие педагогические концепции, а не «фантазии» робота. Однако в ряде случаев такой подход рискует обернуться для бренда плагиатом.
Пример:
Мы использовали Chat GPT для мозгового штурма креативов к рекламной кампании FMCG-бренда. Некоторые из предложенных ИИ вариантов настолько понравились, что их едва не взяли в разработку. Только после очень скрупулезного мониторинга мы выяснили, что фактически идентичные креативы уже использовали в своих коммуникациях другие бренды.
Факт-чекинг
Даже платные версии популярных LLM-моделей порой могут выдавать откровенную чушь, причем весьма убедительно. Каким бы достоверным и адекватным ни казался ответ, его обязательно надо перепроверять вручную. Это касается как рядового факт-чекинга, так и проверки на уровне идей. В противном случае, ошибку рано или поздно обязательно обнаружат, а репутация компании пострадает. Это особенно актуально для узкопрофессиональных ниш, хотя и в B2C риск разоблачения исключать нельзя.
Пример:
PR-отдел девелоперской компании создавал видео ко Дню строителя. Ролик был посвящен известным архитекторам и гражданским инженерам, чьи открытия изменили отрасль. Пиарщики в теме разбирались недостаточно, поэтому к сбору информации привлекли нейросеть.
ИИ предложила десять персоналий с подробным рассказом об их заслугах. Контент готовили запустить в продакшн, как вдруг выяснилось, что один из героев — это полностью вымышленный персонаж. Ошибку нашел копирайтер, который заинтересовался рандомным фактом во время редактуры текстов. Видео планировалось опубликовать во внутренних соцсетях компании, где «подлог» точно не остался бы незамеченным. Вместо благодарности от сотрудников руководство получило бы хейт и обвинения в некомпетентности.
«Все как у людей»
Чем больше компаний интегрируют ИИ в решение рутинных задач, тем более шаблонным и «усредненным» становятся идеи, креатив и сам контент. Если тридцать экспертов в нише PR попросят Chat GPT составить контент-план для авторских «телеграм»-каналов, то даже с разными промтами результаты рискуют оказаться плюс-минус похожими. Вместо аутентичного канала получится «все как у людей».
Пример:
Пиарщик медицинской клиники готовил темы для питчинга СМИ в преддверии Дня всех влюбленных. Раньше он всегда придумывал их самостоятельно, но в этот раз решил упростить задачу с помощью Chat GPT. Среди предложенных нейросетью вариантов в основном были стандартные ситуативные комментарии (например «Польза поцелуев», про которую 14 февраля пишут многие СМИ).
Но нашлась и одна неизбитая тема – о редком кардиологическом заболевании с говорящим названием «Синдром разбитого сердца». Ранее публикаций об этой болезни в контексте праздника почти не выходило. Пиарщик счел тему очень оригинальной, запитчил ее в федеральное СМИ, взял комментарий у кардиолога и согласовал с врачом финальный результат. Вот только в последний момент в публикации отказали, так как редакция получила сразу несколько идентичных комментариев от разных медицинских компаний.
Учитывая, что в прошлом тема вообще не пользовалась популярностью, логично предположить, что внезапный всплеск интереса к ней — заслуга именно массового использования нейросетей. С учетом специфики связки «ниша – инфоповод» ИИ выдал одинаковые ответы, хотя сами промты могли быть разными. В результате многие положились на Chat GPT, соблазнились иллюзией «новизны», потратили время на работу с экспертами, но все равно остались без упоминания в медиа.
Человеку нужен человек (и бизнесу тоже)
Нейросети не умеют погружаться в проблемы клиентов и выходить за рамки типичных задач в коммуникации. Вместо критического мышления они используют шаблоны, которые не всегда применимы к реальным ситуациям и тем более нестандартным кейсам.
Пример:
Шведский IT-стартап Klarna полностью заменил операторов клиентской поддержки на ИИ-агентов. Руководство инвестировало в развитие решений на базе нейросетей с целью оптимизации расходов. Однако уже через год компания начала нанимать людей обратно, так как без них качество ответов заметно снизились.
Что делать брендам
Чтобы не стать жертвами GPT-слепоты, брендам важно выстроить четкую структуру работы с нейросетями. Программа максимум – привлечь отдельного консультанта по внедрению ИИ. Программа минимум — самостоятельно проанализировать внутренние процессы и компетенции сотрудников.
- Анализируйте контент
Определите, что и в какой мере стоит доверить ИИ. Креативы для таргета, SEO и рассылки можно делегировать почти полностью. Колонки, экспертные материалы и тексты для авторских каналов — едва ли.
- Обучайте сотрудников
Не жалейте ресурсов на обучение сотрудников работе с нейросетями и доступ к оригинальному программному обеспечению. У того же Chat GPT процент ошибок, стиль и качество текстов сильно варьируются в зависимости от платной или бесплатной версии.
- Тренируйте мозг
Развитие ИИ в будущем может способствовать снижению когнитивных способностей человека. Исследование Microsoft и университета Карнеги-Меллон (США) показало, что чрезмерная зависимость от ИИ при выполнении рутинных задач может ослаблять способность людей к критическому мышлению, интуиции и логике. Особенно это характерно для тех, кто делегирует ИИ весь пул задач «под ключ», включая проверку информации.
- Не спешите отказываться от человеческого начала в работе
Иначе уже скоро мы окажемся в собственноручно вырытой яме из некачественного контента, фейков и однотипных текстов, которые не будут вызывать у аудитории ничего кроме раздражения.