Тренды

Как написанные искусственным интеллектом тексты влияют на ранжирование веб-сайтов Google

Фрилансер, переводчик и англоязычный копирайтер. Участник «Экспертного клуба» Национальной Гильдии Фрилансеров

В статье рассматриваются уязвимости автоматических текстов и их влияние на рейтинг веб-сайта. Приводятся результаты исследований, факты, свежие данные, обзор литературы, перспективы 2026. Изложенная информация будет полезна для действующих копирайтеров, разработчиков, веб-дизайнеров, владельцев сайтов и всех, кто работает с веб-контентом, веб-ресурсами и текстами.

После обновления March Core Update 2024 Джон Мюллер (John Mueller), руководитель команды Google по взаимодействию поисковика с веб-разработчиками, заверил, что Google не применяет санкции к контенту, созданному с помощью искусственного интеллекта, только на основании его происхождения. Это правда, но есть нюанс.

В октябре 2025 года компания Graphite AI SEO Platform [1] проанализировала 65 тысяч англоязычных статей, изучая влияние автоматических текстов на позиции сайтов в выдаче. Исследование охватывало период с января 2020 по май 2025.

В этот временной интервал доля статей, написанных ИИ, увеличилась с 5% до 48%. Резкий скачок произошел в ноябре 2022 после запуска ChatGPT.  Выборка URL-адресов совершалась из базы данных с открытым кодом Common Crawl, содержащей более 300 миллиардов веб-страниц с добавлением 5 миллиардов страниц ежемесячно. Репозиторий является одним из крупнейших источников обучения большинства LLM.

Результаты показали, что 86% статей, занимающих высокие позиции в Google, написаны людьми, и лишь 14% — сгенерированы AI. Аналогичная ситуация наблюдалась и с самими чат-ботами: 82% статей, цитируемых ChatGPT и Perplexity, написаны человеком, и только 18% — нейросетями.

Локальные исследования коррелируют с выводами Graphite. По данным портала Writesonic [2], по состоянию на июль 2025 года из 487 результатов в выдаче поисковика, 83% верхних позиций занимает контент, созданный человеком.

Официально ни Google, ни сами языковые модели не пессимизируют машинный контент. Но на практике ИИ-тексты явно подвергаются остракизму и опасны для сайта.

Были и исключения. Ресурсы с автоматическими текстами, не прошедшие редакцию человеком, ненадолго повышались в выдаче (если быть точной, то на 4% и продолжительностью лишь до 48 часов). Но это именно исключения и несовершенство детекторов — алгоритмов обнаружения искусственного интеллекта.

Факты транслируют [3], что трафик сайтов с нетронутыми нейротекстами может упасть в диапазоне от 12% до 73%, а с поверхностно отредактированными — на 42,17%.

Что делать, если веб-сайт понижен в поисковой выдаче?

Если ресурс значительно потерял позиции из-за нейротекстов, то запоздалая обработка контента человеком не поможет.

В ноябре 2025 на платформе Reddit пользователь задал вопрос о возможности восстановления позиций сайта с AI-контентом. Юзер интересовался, сможет ли его ресурс вернуться в индекс Google, если он перепишет весь контент вручную.

Отвечая на этот вопрос [4], Джон Мюллер прямо указал, что простой рерайт ИИ-текстов не изменит отношения к ним Google:

«Важно не переписать тексты, а переосмыслить всю стратегию контента и его ценность для пользователей», и рекомендовал «рассматривать ситуацию как возможность начать новый проект». Такой подход, по его мнению, позволит избежать почти нерешаемых проблем, связанных с историей [5] старого домена, и послужит мотивацией для создания качественного, оригинального и достоверного контента.

Какой контент Google считает достоверным?

 

При анализе текстов Google руководствуется принципами E-E-A-T [6]. Эти оценки распространяются на весь контент в интернете, а не только на категорию YLYM (сайты по темам здравоохранения и финансов). Google прямо указывает, что ключевую роль играет Trustworthiness (T), достоверность, а все остальные признаки рассматриваются как дополнительные.

У ненадежных страниц с недостоверным контентом, всегда будет низкий E-E-A-T, независимо от того, насколько опытными (E), экспертными (E) или авторитетными (A) они кажутся.

Что такое ненадежная страница в глазах Google?

 

Ненадежным веб-контентом считается тот, в котором отсутствует достоверная информация, подкрепленная подлинными фактами из авторитетных источников или цитатами экспертов. Контент, которому не хватает trustworthiness, который похож на спам или не содержит полезной информации, понижается в рейтинге.

Проблема в том, что инструменты искусственного интеллекта не гарантируют точность фактов. LLM, к сожалению, оказались весьма эффективными генераторами дезинформации [7].

По прекрасному промпту ИИ напишет текст, который будет звучать «экспертно», «опытно» и включать массу несуществующих данных, событий, новостей, даже достопримечательностей. При этом машина может запросто ссылаться на релевантные источники, которые… не содержат этих вымышленных фактов.

Нет надежности = нет индексации.

Личный опыт. Однажды я писала текст для сайта производителя металлических листов с перфорацией. Определенным размерам и формам перфораций соответствуют определенные коды в номенклатуре изделий. Эти материалы широко используются в строительстве и имеют единую классификацию кодов. ИИ выдавал ложные коды. Я указывала, что его данные не соответствуют действительности. В ответ мой оппонент уверенно заявлял, что еще раз всё проверил, информация достоверна, и указывал ссылки на источники. Конечно, ни в одном из них не было ни слова в поддержку его утверждений. Можно было указать нужные коды в промпте, но меня заинтересовало, почему ИИ игнорирует реальные коды в источниках, которые он просматривал. Ответа я не нашла.

Разработчики и тренеры LLM понемногу работают над этим изъяном. Например, нейросеть Perplexity обучена ссылаться только на авторитетные сайты с подтвержденной информацией. В большинстве же случаев вам придется проверять и перепроверять за нейросетью все факты и данные.

Низкая оригинальность

 

Высокий процент плагиата стал почти визитной карточкой языковых моделей. Повторение общей или широкодоступной информации без добавления новых идей и личного опыта, чем и занимаются LLM, наносит ущерб рейтингу сайта.

Когда несколько веб-ресурсов используют схожие инструменты ИИ, они в итоге публикуют практически идентичный контент, который Google расценивает как дублирование и спам.

Личный опыт. В сентябре 2025 года я готовила тексты для сайта бытовых услуг в г. Лос-Анжелесе. Заказчик прислал ссылки на веб-ресурсы и соцсети конкурентов. По мере изучения росло и мое изумление. Клонированные тексты, формулировки и структуры на каждом сайте, в каждом блоке. Сначала я решила, что это некачественный рерайт друг у друга. Но, проверив контент, выяснила, что все размещенные материалы были сгенерированы ИИ.

Если вы задаете языковой машине тождественные инструкции на одну и ту же тему для одной и той же аудитории в одной и той же географической зоне, вы получаете шаблонные, пустые и одинаковые тексты.

— ИИ оптимизирует под наиболее вероятный текст, а не под оригинальность, — быстро и честно ответила мне модель на вопрос об уникальности.

Дело даже не в качестве и детальности промптов. Дело в кардинально разных подходах человека и нейросети к написанию текстов.

Чем отличаются «антропогенные» тексты от машинных?

 

С точки зрения любой LLM лучший текст тот, в котором все слова в каждом предложении подобраны с наибольшей вероятностью в рамках заданного промпта, стиля и темы. Искусственный интеллект не производит свои идеи, не вкладывает эмоциональные реляции, не видит контент с разных ракурсов. По этой программе работают абсолютно все модели. Некоторые способны к самообучению, некоторым необходим тренер, но общий принцип работы не меняется. Это означает, что полностью сгенерированный ИИ контент хорошо определяется Google. Тексты, которые находятся вне векторов и вероятностей считаются написанными человеком.

Алгоритм Google SpamBrain [8] определяет участие ИИ, обращая внимание на [9]:

Непредсказуемость. Тексты нейросетей основаны на идеально структурированных фразах, идеальном синтаксисе и идеально соответствующих ожиданиям словах. Программа Google понимает, что чем более предсказуемы слова в тексте, тем выше вероятность того, что контент создан ИИ. Тексты людей не подчиняются машинным закономерностям.

Внезапные изменения. Тексты, созданные людьми, демонстрируют большую вариативность в длине предложений, словарном запасе, грамматических конструкциях и эмоциях. LLM склонны к объективному стилю, активно используют списки, числа и символы, оптимизируют длину предложений, предпочитают употреблять больше глаголов, меньше прилагательных. Это результаты исследования, проводившегося на шести предобученных LLM (семейства LLaMa на архитектуре Transformer, Falcon с многопоточным вниманием и Mistral со скользящим окном внимания). Анализировались морфологические, синтаксические, психометрические и социолингвистические аспекты текстов, написанных людьми и машинами [10] [11].

Зато никто лучше ИИ не умеет молниеносно находить информацию и сшивать контекстно релевантный контент. Неважно, что в результате получается компилятивный плагиат.

Личный опыт. Несколько лет назад я писала эссе на одну редкую тему для узкой аудитории. В бэкграунде имелась только одна небольшая статья в газете The Washington Post. Через пару лет мне стало интересно, как бы эту тему осветил ИИ. Задав инструкции ChatGPT, через восемь секунд я получила «франкенштейна» из своего эссе и газетной заметки. 

Мультиязычные сайты с переводом версий искусственным интеллектом

 

Googleоценивает сайты с ИИ-переводами так же, как с автоматически созданными текстами. Снижает позиции. Причина в том, что языковые модели переводят и пишут по одному принципу: выбирая слова с наибольшей вероятностью.

Даже простые детекторы искусственного интеллекта давно рассматривают машинные переводы как тексты с участием ИИ. Я хотела бы поделиться с вами результатами одного интересного исследования на эту тему.

Тексты, написанные людьми на семи языках — боснийском, чешском, немецком, латышском, словацком, испанском и шведском — перевели на английский через нейросеть. Для обнаружения участия ИИ использовались 14 общедоступных детекторов, включая DetectGPT, GPTZero и классификатор текстов OpenAI. Исходные тексты получили оценку 95% «написано человеком». Но машинный перевод — 70% «написано человеком» [12].

Даже с учетом несовершенства алгоритмов обнаружения, падение «человечности» на 25% создает угрозу сайтам. Детектор Google гораздо строже и придирчивее, соответственно, приписывает переведенным текстам еще большую степень автоматизации и снижает рейтинг всего веб-ресурса.

На самом деле, корень зла находится не в машинных переводах. Мысль, что разные языковые версии сайта могут представлять собой обычный перевод — распространенное заблуждение. Около 70% компаний испытывают трудности в продвижении своих продуктов и услуг на зарубежных рынках именно из-за культурных и языковых различий. Текст для иноязычной версии должен не переводиться в привычном смысле, а модифицироваться под бизнес-задачи, учитывать экстралингвистические факторы и даже дизайн сайта. Здесь требуются дополнительные приемы: интернационализация, транскреация, иные ключевые слова и иные акценты в тексте для удержания посетителя при беглом просмотре страницы. Перевод должен быть «кастомизирован» под другие боли, другие потребности и другую лингвокультуру. Это то, что не может выполнить ни один существующий ИИ. 

Детекторы и водяные знаки Gemini

 

«Существует столько степеней использования ИИ в работе, что точное обнаружение невозможно», — заявил представитель Google в интервью изданию Axios.[13]

Примечательно, что детекторы часто отдают приоритет искусственному интеллекту.  

Личный опыт. Я проверяла свои статьи, написанные полностью вручную, на нескольких детекторах. Везде получила от 4% до 12% вероятности ИИ-генерации, хотя в результатах ни один фрагмент не был подсвечен как созданный нейросетью.

Проблема автоматического распознавания текста, генерируемого искусственным интеллектом, является крайне острой и останется таковой в будущем [14].

Ввиду отсутствия стопроцентного метода определения ИИ и не особо радужных перспектив, Google пошел другим путем. Не выявлять, а маркировать.

Технология SynthID Text, встроенная в Gemini, вставляет в тексты так называемые водяные знаки. Эти метки не исчезают при редактировании текстов, при копировании в Word, и переносятся на сайты. Таким способом поисковик пытается снизить количество ложноположительных определений.

Интернет ответил мгновенно: через неделю появились инструменты обнаружения маркеров. На самом деле, скрытые метки можно найти, даже просто скопировав текст в установленный на каждом компьютере Блокнот. Да, удалить водяные знаки пока реально. Нет, такая уловка не спасет от санкций Google.

«Взаимодействие человека и LLM сейчас симбиоз, а не дихотомия» —утверждает Стефано Соатто, профессор кафедры вычислительных систем в Калифорнийском университете и вице-президент Amazon Web Services. Коллаборация включает не только само написание контента или перевод на другие языки. С помощью нейросетей авторы создают черновики, осуществляют редактирование, исправляют ошибки, дописывают разделы, добавляют информацию и т.д.

Для целей обнаружения малопонятно, как классифицировать эти гибридные тексты: частично созданные ИИ, или частично созданные человеком. И где проходит граница определения: один процент, пять, пятьдесят? Graphite для своего анализа детерминировал тексты как «написаны человеком», если процент участия машины не превышал пятьдесят [1]. А Google SpamBrain считает такие 50/50 тексты спамом и снижает рейтинг сайта.

Помогут ли гуманизаторы?

 

Детекторы разные, разброс их результативности широчайший, и ни один гуманизатор не гарантирует универсальный обход, даже если обещает это. В мире автоматического копирайтинга гарантий не бывает вообще.

Такие инструменты хороши для простых тем, коротких текстов, блогов и постов. В разработке же целевого контента каждое слово на вес всей индексации. Гуманизатор нальет воды, добавит разговорных фраз, неуместных артефактов и лирики. У Google незатейливый выбор: или понизить, или повысить. «Раскрашенные» очеловечивателем нейротексты обычно испытывают действие первого выбора, увлекая за собой в пропасть весь сайт.

Задача веб-контента, и ваша, не обмануть поисковики и детекторы, а добавить стоимости продукту и продвинуть его на рынке.

Перспективы автоматического контента 2026


Повышение интеллекта LLM

Языковые модели продолжат совершенствоваться и виртуозно имитировать человеческое письмо. Google тоже.

Это обоюдная эволюция: чем искуснее LLM, тем умнее поисковик. На уровне ранжирования ничего не изменится, Google не перестанет пессимизировать сайты с автоматическими текстами. Самое интересное нас ждет в мире гуманоидов.

Законодательные ограничения

Ежегодно в декабре месяце толковый словарь Merriam-Webster [15] выбирает слово года. В 2025 победу, с большим отрывом, одержало слово «slop» — низкокачественный контент, производимый в умопомрачительных объемах искусственным интеллектом. 

На выдуманные ИИ-новости ведутся даже мировые агентства, распространяя сначала фейковые сенсации, потом — извинения. Абсурдные видеоролики, нелепые рекламные изображения, невменяемые книги, slop-отчеты о работе в компаниях, slop-ВКР и курсовые в образовании, дипфейки, мошенничество, воровство контента брендов, материальный и репутационный ущерб.

Защита интеллектуальной собственности стала предельно актуальным вопросом. Некоторые платные веб-сайты, тексты которых написаны людьми, блокируют индексацию сервисом Common Crawl. Таким методом ресурсы надеются исключить цепочку репозиторий-обучающий пул LLM-генерация текстов-потеря прибыли.

Проблема, разумеется, не в самих нейросетях. Когда беззастенчивость юзеров масштабируется на макроэкономический уровень, законодательные органы стран вынуждены реагировать. В Китае и Евросоюзе уже действуют акты об обязательной маркировке любого AI-контента. В России аналогичный закон для видеоконтента рассматривается в Госдуме [16].

2026 год принесет правовое регулирование отрасли. 

Если юридические меры затронут текстовый контент, то это поможет не только в правильном обнаружении доли ИИ в текстах. Повысится и чистота обучения языковых моделей: им прекратят скармливать их же тексты.

Заключение

 

Зоркие стражи Google враждебно настроены к контенту, написанному искусственным интеллектом. Сами будучи алгоритмами, они видят «собратьев» издалека, и преследуют их с нечеловеческим упорством.

Используйте LLM как прикладное орудие труда, идеального подчиненного.  Ответственность за веб-тексты несете вы, поэтому поручите машине минорные вопросы. А важные задачи по созданию текстов оставьте эталонной нейронной сети, которой мечтают стать все языковые модели, — своему мозгу, опыту и навыкам.

Список литературы и источников

 

В порядке первых упоминаний в статье:

  1. Graphite.io, More Articles Are Now Created by AI Than Humans, 2025
  2. Saloni Kohli, Does Google Penalize AI Content? What You Need to Know in 2025, Jul 22, 2025
  3. Neil Patel, Google’s Spam Update Just Completed: Here’s What Happened
  4. Reddit, Can a site with low-quality AI content recover and be indexed if I rewrite everything manually and switch languages? Nov 2025
  5. Reddit, Indexed but invisible in Google SERP — could my domain’s history be the issue? Oct 2025
  6. Google Search Central, Что такое принципы Е-Е-А-Т и как ими пользуются специалисты по оценке качества
  7. Kathleen C. Fraser, Hillary Dawkins, Svetlana Kiritchenko, Detecting AI-Generated Text: Factors Influencing Detectability with Current Methods, Journal of Artificial Intelligence Research 82 (2025) 2233–2278, April 2025 (стр.36)
  8. Google Search Central, SpamBrain: наше наиболее эффективное решение в борьбе со спамом
  9. Indigoextra, How Google detects and penalizes AI content
  10. Muñoz-Ortiz, A., Gómez-Rodríguez, C. & Vilares, D. Contrasting Linguistic Patterns in Human and LLM-Generated News Text. Artif Intell Rev 57, 265 (2024)
  11. Tengler, K., Brandhofer, G. Exploring the difference and quality of AI-generated versus human-written texts. Discov Educ 4, 113 (2025)
  12. Weber-Wulff, D., et al. (2023). Testing of detection tools for AI-generated text. International Journal for Educational Integrity, 19(1), 26.
  13. Megan Morrone, Exclusive: AI writing hasn't overwhelmed the web yet, Axios, Oct 14, 2025
  14. Kathleen C. Fraser, Hillary Dawkins, Svetlana Kiritchenko, исследования Detecting AI-Generated Text: Factors Influencing Detectability with Current Methods, опубликованного в апреле 2025 в Journal of Artificial Intelligence Research 82 (2025) 2233–2278 (стр.37)
  15. Merriam-Webster, Word of the Year: Slop, Dec 14, 2025
  16. СОЗД, Законопроект № 1069302-8 «О внесении изменений в Федеральный закон «Об информации, информационных технологиях и о защите информации»»
  • 221