• »
  • »

Экспертные способы анализа внешних ссылок сайта

Айрат Рахимзянов    |    10 июня 2025
Время чтения 16 минут
В этом материале мы поделились отработанным на практике подходом к системной проверке внешнего ссылочного профиля и подготовке данных для файла Google Disavow Links. Этот метод стал частью наших внутренних процессов, успешно применяется на разных проектах и регулярно совершенствуется.

Введение

В этой статье описан подход к анализу внешнего ссылочного профиля сайта, как его найти мы описывали ранее. Основная цель — отделить качественные ссылки от потенциально вредных.

В процессе мы формируем два итоговых списка. Первый — включает надёжные ссылки, индексацию которых важно поддерживать и при необходимости ускорять с помощью специализированных инструментов. Второй — содержит проблемные домены, которые впоследствии исключаются из расчётов поисковых систем с помощью Google Disavow Links.

Оформление

При подготовке файла важно уделить внимание его аккуратному и грамотному оформлению. Поскольку документ передаётся клиенту, он должен производить впечатление тщательно проработанного и выполненного на высоком профессиональном уровне.

После создание ссылочной базы у вас должен образоваться файл с 18 листами-таблицами, на 16 из которых расположены внешние ссылки на продвигаемый сайт. Нам осталось лишь расставить статусы донорам, такие как: “Good”, “Bad”, “Medium”.

Как ускорить процесс в разы — читайте ниже!

Анализ ссылок

При анализе ссылочного профиля приоритет — это выявление качественных ссылок. Сбор плохих доноров — лишь побочный процесс.

Отклонение некачественных ссылок через Google Disavow Links имеет ограниченный эффект и полезно в основном при ручных санкциях, поэтому не является нашей основной задачей.

Главная цель — как можно раньше найти максимум ценных ссылок и обеспечить их индексацию.

Автоматическая проверка

Если у сайта большой ссылочный профиль, то на его ручную проработку уйдёт очень много времени. Чтобы ускорить процесс проработки, нужно в первую очередь воспользоваться быстрыми автоматическими средствами фильтрации доменов по категориям (или "маскам"). Рассмотрим эти способы ниже.

Коды ответов + наличие ссылки

Отправляем все ссылки по выбранному источнику в SEO Screaming Frog, чтобы получить их коды ответов и проверить наличие ссылки на продвигаемый сайт в коде страниц. Если ссылки нет, то помечаем их как “Bad”.

Маски/паттерны данных

Ищем повторяющиеся признаки у ссылок, по которым можно понять, что целая группа сайтов — спам. Чтобы отнести домен к нужной категории, смотрим на такие столбцы как:
  • Domain zone
  • Domain
  • Код ответа
  • Наличие ссылки
  • Title донора
  • URL донора
  • Посадочный URL
  • Анкор донора
  • Тип ссылки (текст/изображение)
Используя автоматическую проверку, можно ускорить процесс анализа в разы! Ниже будут описаны самые распространённые спамные конструкции.

Код ответа 200 + нет ссылки

К категории “Medium” стоит автоматически относить URL с кодом ответа 200, если в их коде больше нет ссылки на продвигаемый сайт. Проверять такие страницы вручную не имеет смысла — если ссылки там уже нет, они нам не нужны.

Хотлинки

Хотлинкинг — это распространённая практика, при которой сайты используют чужие изображения, загружая их напрямую с внешнего сервера. В результате вор контента не только использует чужой визуал, но и расходует ресурсы стороннего хостинга.

Пример из нашей практики:
В столбце "Referring page URL" мы видим, что большинство ссылок с сайтов доноров имеют подозрительную конструкцию URL:

https://unverdorben.org/zanussi-zhp637x-k.html
https://rh3.com.mx/mvfm2-k.html
https://ciarista.com/lg-a100-k.html

При проверке небольшой группы таких ссылок становится понятно, что они нетематичные и некачественные.

При дальнейшем анализе можно заметить, что все ссылки такого типа ссылаются на файлы изображений:

https://site.ru/upload/iblock/a55/zanussi-zhp637x-1.png
https://site.ru/upload/iblock/6dc/66.jpg
https://site.ru/upload/iblock/1a4/3483_r7513.jpg

Всё это указывает на то, что ссылочный профиль сайта заспамлен через хотлинкинг. Нам нужно пометить такие домены как некачественные. Для этого воспользуемся фильтром по столбцу "Referring page URL" - указываем "-k.html". Так мы сразу избавляемся от большей части доменов, которые нам уже не нужно чистить руками.
Фильтрацию “не глядя” лучше применять только при массовом хотлинкинге и быть максимально уверенным, что под отклонение не попадут качественные сайты, заимствующие картинки в благих целях, например при размещении ссылок на биржах, где мы можем использовать ссылку на изображение или СМИ, которые также могут заимствовать наши картинок.

Open redirect в 1С-Битрикс

В "1С-Битрикс" есть функция перенаправления пользователей с одной страницы на другую, например, при смене URL или для рекламы. Она работает через параметр goto, который позволяет указывать любой внешний адрес.
Примеры:

https://целевой_сайт/bitrix/redirect.php?goto=http://сторонний_сайт/
https://целевой_сайт/bitrix/rk.php?goto=http://сторонний_сайт/

Злоумышленники могут использовать это для обмана — например, подменить ссылку в письме или рекламе. Пользователь сначала попадает на настоящий сайт, а затем автоматически — на вредоносный. Это называется открытое перенаправление.

Пример из нашей практики:
В столбце "Target URL" мы видим, что большинство ссылок имеют редирект на сторонние сайты:

https://site.ru/bitrix/redirect.php?goto=https://uangnyataonline.com/
https://site.ru/bitrix/redirect.php?goto=https://sakartvelo.pro
https://site.ru/bitrix/redirect.php?goto=https://ofio.pl/

Следует прометить эти домены как некачественные. Воспользуемся фильтром по столбцу "Target URL" - "bitrix/redirect.php". Так мы сразу избавляемся от существенной части некачественных доноров.

Анкоры

Некачественные домены также можно находить по анкорам ссылок, например:

Title

Поиск спамных доменов по Title можно осуществлять двумя способами:
  • Сортировкой Title от А до Я,
  • Использованием фильтра.

Пример:

Domain

Иногда найти спамные домены можно через сами названия доменов, например площадка blogspot.com является заспамленной, отклоняем её по умолчанию.

Пример:

Дорвеи

Дорвей — это тип поискового спама: страницы создаются специально под определённые запросы, чтобы занять высокие позиции в поиске. Основная цель — привлечь трафик и затем перенаправить посетителей на другой сайт.

Эти примеры охватывают лишь самые типичные спам-шаблоны, но их на практике бывает гораздо больше. Прежде чем переходить к ручной проверке, желательно по максимуму отсеять спам с помощью фильтров — это существенно экономит время и упрощает дальнейшую работу

Ручная проверка

После автоматической очистки останется список доменов, которые нужно проверить вручную — просто открыть их в браузере и оценить. Делать это по одной ссылке из таблицы неудобно и долго, поэтому для ускорения процесса лучше воспользоваться сервисами массового открытия URL-адресов, например: Bulk URL Open.

Анализ ссылок в ручном режиме подразумевает проверку:
  • Доступности страницы и донора в целом (в том числе с VPN).
  • Тематичности страницы и донора в целом.
  • Качества текста.
  • Заспамленности страницы.

Отклонение доменов

Создание файла .txt для Google Disavow Links

После завершения анализа ссылок продвигаемого сайта нам нужно собрать доноров со статусоv “Bad” в единый список для в .txt файле, важно его правильное оформление.

Вот основные принципы:
  • Полнота. Список должен содержать все некачественные доноры сайта в данный конкретный момент времени,
  • Корректность. Список не должен содержать качественные площадки, попавшие в список по ошибке,
  • Учёт зеркал. Список должен состоять из 2-х "блоков". Первый блок - это домены без протоколов (www, http, https и их комбинаций) с приставкой "domain:", а второй блок представляет из себя копию первого с приставкой "domain:www.". Использование доноров в 2-х написаниях (без "www" и с "www") необходимо для того, чтобы добавить в исключения потенциальные зеркала сайтов,
  • Не дублировать IP. Во второй блок не нужно добавлять IP адреса доноров из 1-ого блока,
  • Сортировка от А до Я. Списки некачественных доноров должны быть отсортированы в рамках своих блоков от А до Я.

Загрузка .txt файла в GDL

Чтобы загрузить готовый файл в Google Disavow Links в выпадающем списке просто выбираем необходимый нам проект. Далее загружаем файл ("Заменить" → "Заменить" → "Открыть")
Если файл для отклонения содержит больше 100 000 доменов, то сервис его не примет. Чтобы сократить количество, можно объединить поддомены в один основной домен и отклонить только его. В крайнем случае — исключить дублирующиеся зеркала с www, это уменьшит объём почти вдвое

Индексация хороших ссылок

Этот шаг является самым важным и основным, то, ради чего была проделана такая большая работа, поэтому тут нужно быть крайне внимательным!

Проверка индексации

Для этого мы используем инструмент от Rush Analytics, но вы можете использовать любой другой. Вот подробная инструкция:
  • заходим в Rush Analytics в инструмент "Проверка индексации";
  • создаем проект (если он ещё не создан);
  • добляем туда "Good" ссылки со всех источников и запускаем проверку индексации;
  • выгружаем файл и открываем его;
  • через фильтр находим ссылки, которые не проиндексировались в ПС Яндекс и Google;
  • создаём .txt файлы для отправки в telegram-ботов для дальнейшей индексации.

Добавление ссылок в индексатор Telegram

На данном этапе у нас должны быть два файла со ссылками, важно их не перепутать!

Как проиндексировать ссылки:
  • Для Яндекса заходим к боту "Link_Indexing_bot" и загружаем в него файл "Индексация ссылок в Yandex site.ru.txt" (Режим "Normal").
  • Для Google заходим к боту "SpeedyIndex" и загружаем в него файл "Индексация ссылок в Google site.ru.txt".

Итог

Вот таким образом мы проработали ссылочный профиль продвигаемого сайта и отправили непроиндексированные ссылки в ботов. Задача трудоемкая, но очень важная и полезная для продвижения в SEO, а именно такая проработка позволяет сосредоточиться на действительно ценных ссылках, улучшить видимость сайта в поиске и снизить риски санкций со стороны поисковых систем.