Блог Яндекса для вебмастеров

Перезапускаем раздел Ссылки в Яндекс Вебмастере

Для обновленного раздела Ссылки мы переработали алгоритм, по которому собираем и показываем данные. В инструменте доступна статистика по внутренним и внешним ссылкам без ограничений по HTTP-статусам проверок. Вы можете проверить, кто ссылается на ваш сайт, и не нарушены ли пользовательские сценарии. Это помогает заметить, если посетитель переходит на неработающую страницу вашего сайта или с вашего сайта — на сломанную страницу в интернете.  

Ссылки нужны Поиску, чтобы находить и индексировать новый и полезный контент. Поэтому в разделе храним ссылки, которые поисковые роботы Яндекса обошли и обновили в течение последнего года. Например, в раздел могут попасть ссылки, которые были созданы давно, но робот обошел их за последний год. И, напротив, в разделе может не быть давно существующих ссылок, если робот давно не переобходил их. Определенные страницы могут быть уже известны поисковому роботу, и поэтому ссылки на них могут не отображаться в разделе или обновляться редко. 

Внешние ссылки теперь показываем со всеми статусами

Это поможет комплексно оценить состояние внешних ссылок сайта. В разделе можно посмотреть как ссылки без ошибок, так и те, которые по какой-то причине перестали работать. Смотрите на основные HTTP-статусы: работающие ссылки (статусы 2xx или 3xx), и неработающие (статусы 4xx и 5xx). Подробнее о разделе читайте в Справке. 

Для Внутренних ссылок добавили типы ошибок и динамику их появления 

Теперь показываем статистику по неработающим внутренним ссылкам в динамике. Это позволит вовремя заметить проблемы пользователей. Подробнее о работе со внутренними ссылками читайте в Справке.

55 комментариев
Stanislav K.
30 мая, 15:17
ДАЛАДНА! (с)
Спустя 5 лет)
Спасибо и на этом
Allithave.ru
30 мая, 15:56
Лишь бы стабильно работал
seo@engineer-history.ru
30 мая, 16:16
наконец-то. Я уже состарился за это время
Артём В.
5 июня, 18:42
seo@engineer-history.ru,
Согласен! Вообще странные они в Яндексе, заливают про высокие технологии, ИИ и прочею ерунду, а у самих базовый функционал годам не работает, что в Вебмастере, что в Директе, да везде хватает косяков — хотят выглядеть крутыми, а таковыми не являются ))))
Артём В.,
в десятку, с языка сняли
Константин Илющенко
30 мая, 16:21
Спасибо!
Дмитрий Хохлов
30 мая, 16:27
Отличная новость!
Савелий Куприянов
30 мая, 16:49
Сервис показывает битые ссылки на страницах, на которых их уже давно нет. Эти страницы индексируются, и поисковик знает, что битых ссылок там нет уже.


Вот и спрашивается, зачем эта информация и что с ней делать?)

Савелий Куприянов,
полностью с Вами согласна, только вот кто Вас прочитает и исправит проблему. Яндекс не про хорошую работу. Большая бестолковая организация.
p.papshoi-webdelo
30 мая, 17:44
Спасибо! Надеемся на стабильную работу инструмента

androidapplications-ru
30 мая, 18:02
Ого!
Иван Краснощёкий
8 июня, 15:22
androidapplications-ru,
Посмотреть фильм бесплатно онлайн надежда долоцка знакомства секреты общение встречи отношения Карелия фото видео посмотреть
Иван Краснощёкий
8 июня, 15:22
Посмотреть для взрослых видео чат
domocentr-main
30 мая, 19:00
Спасибо!
Это, конечно, здорово, что решили опять запустить раздел «Ссылки», но вот что интересно: я обнаружил на свой сайт около 25k ссылок с дорвеев. Они берут картинки с моего сайта и в итоге на меня ссылаются.


Я давным давно писал о проблеме в поддержку, что в поиске по картинкам, почему-то, показываются не мои оригинальные изображения, а изображения именно с дорвеев. Эта проблема есть по сей день. Зачем Яндексу держать в индексе 25k дорвеев и показывать в поиске по картинкам не оригинальные сайты, а именно дорвеи — загадка.


В итоге, раздел «Ссылки» снова работает и это восхитительно. Но как анализировать ссылки из-за десятков тысяч мусорных ссылок с дорвеев — ума не приложу. Спасибо, что есть возможность отфильтровать по ИКС и сразу большинство мусора порезать (у всего мусорного ИКС=10 или ИКС=0, как правило, но попадаются дорвеи, где ИКС больше 30, а там уже и нормальные сайты можно отсеять).


В качестве предложения: было бы отлично сразу видеть ссылки в разрезе dofollow / nofollow и видеть анкоры ссылок (можно было бы отслеживать, к примеру, негативные отзывы и как-то с ними работать).
Обновлено 30 мая, 20:32
Александр Воловиков
30 мая, 21:51
Стас,
Не у Вас одного такое.
Стас,
у меня тоже такое, однотипные дорвеи попарсили картинки.
Овчинников Александр
31 мая, 12:50
Стас,
аналогичная проблема
Стас,
тоже самое, яндекс это не видит????
mambetova.natali
4 июня, 22:09
Стас,
аналогичная ситуация. Писали в поддержку, сказали, спасибо, что обратили внимание, чтобы разобраться нам нужен месяц.
Артём В.
5 июня, 18:46
Тихо, тихо, ребят, а то опять сейчас закроют этот раздел лет на 10 теперь 🤣
Иван М.
11 июня, 12:22
Стас,
Так поставь хот линк на картинки и они не смогу у них открываться (если берет из вашего сервера, а не залили уже себе; смотри по ссылке на доре, ведёт ли на тебя. 


Бан по ip tables иногда помогает тоже, если вор парсит прямо из твоего сервера (отключает как входящие запросы с ип допа, так и выходящие: 
1.) sudo iptables -t filter -A OUTPUT -d ип дора/32 -j REJECT
2.) sudo iptables -t filter -A INPUT -s ип дора/32 -j DROP. 


Второй момент: там можно поставить галочку "группировать ссылки по сайтам" и станет проще анализироват ваши доры.
Обновлено 11 июня, 12:23
Иван М.,
И как данный подход?
Перестал ли Я.вебмастер учитывать ссылки на изображения как "Внешние"?
То, что на говносайтах изображения не открываются - это хорошо, но как быть с оставшимися урлами на них?
Александр Воловиков
30 мая, 21:52
Спасибо за выполненную просьбу!
Павел Гречко
31 мая, 10:45
что делать если ссылаются на мои какие то картинки которые 404?
Ура товарищи! Заработало. Занялись вебмастерской нактонец-то
promokodiru.Ru
1 июня, 12:24
То же самое, берут картинки с моего сайта и ссылаются на мой сайт. И таких ссылок десятки тысяч. Как это всё отображается на результаты выдачи моего сайта?
Иван Краснощёкий
8 июня, 15:24
promokodiru.Ru,
ВидеоПосмотреть
Обновлено 8 июня, 15:26
promokodiru.Ru
1 июня, 12:31
Тысячи ссылок с дорвеев на мой сайт? Как сделать так, чтобы их не учитывать при ранжировании? Мой сайт скатился с ТОП-10 до 60+ по всем запросам. Есть такая возможность, чтобы не учитывать данные ссылки, как это к примеру сделано в Google?
dimitri.denisovitch
1 июня, 13:21
В общем нечего не изменилось просто включили раздел - Ссылки. И не без глюков конечно.
К примеру:
Был 1 домен, переехал на 2 в итоге страница https://старый домен/russkie-serialy-2021-goda/ теперь 301 на https://новыый домен/belarus/ - причем тут категория Беларусь, только Яндексу известно...

Должно быть https://старый домен/russkie-serialy-2021-goda/ на https://новый домен/russkie-serialy-2021-goda/
Все 301 не смотрел, но уверен аналогично...

Из текста блога, можно сделать вывод, что ссылки будут учитываться в ЯВ только те, которые бот Яндекса перепроверил в течении года. Значит половина вылетит за год, так-как бот Яндекса по какой-то причине не прошел по ней. Вперед на биржу ссылок, и так каждый год...
Совет Яндексу - работает, не лезь... Хватит улучшать, по сути все только ухудшаете.
dimitri.denisovitch,
как вы здорово подметили. Кто эти волшебные люди в розовых очках, которые радуются новшеству???
Ванька
2 июня, 12:48
3 года "улучшали процессы подготовки данных" в результате ничего не изменилось. Как было так и осталось. Тот кто это придумал должен пойти, уволиться и никогда не работать в IT компнаиях.
Артём В.
5 июня, 18:48
Ванька,
аккуратнее — а то половину яндекса разогнать придётся 😂🤪
Ванька
7 июня, 11:05
Артём В.,
так там половина сотрудников это иностранные агенты, в том числе руководство. Уничтожают Яндекс изнутри, создают проблемы бизнесу.
Благлдарю!
Артём В.
5 июня, 19:27
Слов нет — одни эмоции!!!!!
Ну неужели это случилось! 
По такому случаю попросил Суно написать песню: https://suno.com/song/86c1c934-cd6c-4d54-a33a-5de345dbbc97
Куркин Степан
5 июня, 19:44
Я вижу теперь очень много мусорных ссылок на мой сайт. Как их убрать? 
Vladimir.Denisov.NN63
6 июня, 22:38
Чёт пока криво работает.
Ванька
7 июня, 11:04
"которые поисковые роботы Яндекса обошли и обновили в течение последнего года" - вот это кто придумал? Почему в течение года? Почему нельзя просто взять и отображать все внешные ссылки. Откуда вы взяли "год"? Почему не 2 года, не 3, не 10. Откуда у вебмастера такое глупое руководство, я в шоке.
Виталий
7 июня, 11:42
Всегда был вопрос. Почему, если на сайте скрыты для индексации страницы пагинации (в роботс допустим), то ВСЕ ссылки пагинации на ВСЕХ страницах Яндекс считает как "НЕРАБОЧИЕ ссылки сайта" и вполне возможно занижает сайт. Ссылки рабочие, просто страницы на которые они ведут не требуют индексации. А получается 100500 нерабочих ссылок. Этот вопрос как-то возможно поправить?
Дмитрий С.
18 июня, 02:26
Почините этот вылет
https://yandex.ru/search/?text=%D1%81%D1%82%D0%BE%D0%BC%D0%B0+%D0%BD+%D0%B2+%D1%82%D0%B0%D0%BC%D0%B1%D0%BE%D0%B2%D0%B5&clid=2270455&banerid=6300004276%3ASW-29dccedcb33d&win=390&from=omb&lr=20663

Инфа не актуальна. ЯБоты тупят. Приходится писать сюда.
Алексей Щедров
26 июня, 00:29
куча ссылок с припаркованных доменов. икс у этих доменов от 10 до 80.
типа этого - https://sheben-sostav.autotym.ru

https://graviy-sostav.wikirap.ru
Как сказала перед смертью моя бабушка - Лучше поздно, чем как всегда). Лишь бы работало). 
vasilymakarenkov
30 июня, 18:31
Если долго мучаться, то точно получиться. Респект!
advokati-saratov
7 июля, 16:49
Очень радостно на сердце стало! Молодцы!
Bukovkin-it 🚀🖥️
8 июля, 14:25
Обратные ссылки годами не видно,соответственно вес не передаётся как и икс не меняется. Вопрос-почему? Эффекта от этих обновлений ноль. Один сайт хорошо индексирует я, второй плохо. Вопрос почему, ответ мы не знаем. 5 баллов. 
Лина Деко
18 июля, 11:11
Как убрать информацию по ненужным ссылкам. Например, разработчик при создании сайта наделал ссылок со странным урлом, теперь это все висит в системе и меня саму пугает...
platon
Сотрудник Яндекса18 июля, 17:07
Здравствуйте! Если ранее роботу стали известны ссылки на страницы по таким адресам, он может периодически обращаться к ним, проверяя на доступность, а информация о них будет отображаться в Вебмастере. Со временем, если на такие страницы не ведут внешние ссылки, информация может быть удалена из базы. Точных сроков хранения и удаления ссылок из памяти робота мы назвать не можем. Он самостоятельно определяет сроки на основе алгоритма.


Если вы не хотите, чтобы робот обращался к этим страницам, вы можете запретить их индексирование в файле robots.txt. В этом случае робот будет знать, что индексировать их не нужно, и не будет к ним обращаться.
Обновлено 18 июля, 17:08
platon,
а как быть с обратной ситуацией? 
Человек оформил на сайте ссылку и опечатался, ссылка ведёт в 404. Страница со ссылкой была проиндексирована, ошибочная ссылка выделена и попала в раздел "Неработающие внутренние ссылки на сайте". 
Далее ошибочная ссылка исправляется на правильную, для страницы взводится время модификации, робот Яндекса проходит по ней и переиндексирует уже версию без битой ссылки -- НО в списке неработающих ссылок эта ссылка остаётся. И, похоже, навсегда.
Есть ощущение, что это несколько снижает полезность данного сервиса. Не должен ли робот иметь возможность удалять данные ссылки из списка, если их уже нет на страницах, которые он переиндекировал?
Сергей
27 июля, 10:40
 Сайт не отображается на мобильных устройствах, в чем причина  https://pansionat-prestarelyh-voronezh.ru/
Николай Егорьев
28 июля, 20:01
Щас благодарные вебмастера накупят вам ссылок для индексации нового полезного контента :)
Многолетнаяя борьба Яндекса со ссылочным спасмом закончилась позорным поражением Яндекса.
Виктор
31 июля, 16:20
Не понимаю вообще, зачем это сделали. Такое впечатление, что после покупки Яндекса у голландцев, алгоритм поиска вернули к 2015 году. Тогда ссылочная масса имела большое значение для продвижения. Ведь понятно, что подзабытые биржи ссылок обретут второе рождение, как и посредники. Нужно будет через них добавлять десятки тысяч внешних ссылок, закупленных на бирже. Эти ссылки сразу же будут биться и веб-мастера будут сутками сидеть и вычищать битые ссылки через веб-мастера. Зачем это сделали? Ведь вполне качественный сайт может потерять свои позиции в поиске из-за большого количества битых ссылок. А без десятков тысяч внешних ссылок не будет продвижения сайта в поиске. А не лучше ли было бы доверить ранжирование сайтов в листах выдачи ИИ? Он должен быть обучен как обычный пользователь (я подозреваю, что так и было до момента покупки) и выдавать в ТОП сайты с отличным юзабилити, а не с десятками тысяч внешних ссылок. То есть если пользователь (ИИ) находит ответ на главной странице, в крайнем случае через 1 клик, то такой сайт должен быть в ТОПе. В связи с этим совершенно непонятно почему вы ограничили количество файлов на главной странице до 10. Ведь в этом случае пользователь не поймет даже туда ли он попал. Конечно, вам выгодно, чтобы в ТОПе были сайты, которые платят за рекламу продвижения в поиске, а не те, которые действительно качественные. Поэтому вы и перелопатили алгоритм поиска и вернули его в допотопные времена.
Самое лучшее, что вы можете сделать, это вернуть алгоритм поиска, каким он был до момента покупки Яндекса вами