Блог Яндекса для вебмастеров

Поддержка атрибута rel=”canonical” роботом Яндекса

Пост в архиве.

Сегодня мы включили поддержку атрибута rel=”canonical”.
Что это такое и зачем это нужно?

На вашем сайте могут присутствовать страницы с разными URL, но с очень похожим (или одинаковым) содержанием. Например, одна и та же страница сайта может быть доступна по двум адресам:

www.examplesite.ru/pages?id=2
www.examplesite.ru/blog


Алгоритмы поисковых систем умеют определять среди таких дублей основную страницу, которая попадет в поисковую выдачу. Однако не всегда выбор поискового робота может совпадать с предпочтениями владельца сайта.

С помощью атрибута rel=”canonical” вы можете указать, какая страница является «канонической» – предпочтительной для индексации и появления в результатах поиска. Если Яндекс будет знать о том, что содержание страниц одинаково, он проиндексирует и добавит в результаты поиска только одну из них, выбранную владельцем сайта. 
Таким образом можно избежать дублирования содержания страниц в результатах поиска и дать возможность поисковому роботу уделять больше внимания индексированию других, не менее важных страниц сайта.

Подробную информации об использовании тега rel=”canonical” читайте в Помощи Яндекс.Вебмастера.


Команда Поиска
86 комментариев
Даниил Чистофоров
19 января 2016, 11:28

А работать будет так же выборочно, как и noindex, да?:)

В чем заключается выборочность работы noindex?

Даниил Чистофоров
19 января 2016, 11:28

В том, что довольно часто noindex игнорируется роботом.

Можно примеры? Хотя бы один

Даниил Чистофоров
19 января 2016, 11:28

Как уже сказали ниже - Спорить с платоном безполезно.

Пример я показать не смогу. Проверялось на своихх сайтах. Сайт занимал определенные позиции в топе. Часть ключей закрывали в noindex. Плотность уменьшалась, но на позициях это не сказывалось никак. Эксперемент показал, что ноиндекс работает если закрываешь целый блок текста, но если выборочно закрыть тегом только некоторые слова из текста, то тег игнорируется. Вы конечно можете сказать, что это не так, но...

Это логичная система Посиковых алгоритмов. Как правило страница с закрытыми блоками не попадает в поиск, Однако так как на вашей странице открыт практически весь контент, и эта страница продвигается думаю, система и долна егнорировать ноиндес.

Возмем пример: вы продвигаете дорвейную страницу в топ, но помимо этого напихиваете её все возможным говном, которые влияей на позиции сайта, и ставите на это ноиндекс, по сути это получается обман ПС, выводи в топ, но между тем на странице может размещатся все что угодно, вплоть до мата и рекламы порно. Естественно, что бы такого избежать страницы которые высоко ранжируются ПС, должны тчательно проверятся и ноиндекс должен игнорироватся.!

 

По  новой фишечке яндекса =) Да спасибо вещь полезная =) Но что то во мне тоже есть некоторые сомнения, хотя так как очень часто сталкиваюсь что яндекс берет не те страницы в поиск, должен согласится что этот инструмент будет весьма полезен, и вот как раз сейчас на одном сайте его и заюзаем =)) ггг =) ДЛя проверки ))

Сайт занимал определенные позиции в топе. Часть ключей закрывали в
noindex. Плотность уменьшалась, но на позициях это не сказывалось никак.

а с чего вы взяли, что плотность должна повлиять?

вам бы поучиться...

рекомендую

Даниил Чистофоров
19 января 2016, 11:28

Тар, ну уж ты бы не умничал) Я на серче начитался уже))

почитай почитай, поучись...

а на серче из любого при желании можно упячку сделать админским ресурсом. там подправить, там не дать сказать, там удалить, и усе...

так что мнение, которое вы обо мне составили на серче несколько не соответствует действительности.

ваш тезис здесь показывает ваше незнание вопроса.

если вы напишете масло масляное 20 раз, то маслянее не станет, мало того, оно может и не испортиться...

поучитесь эксперименты ставить правильно, мой вам совет, а то наплодилось...аналитегов, пернуть негде.

У меня есть пример.

Вот страница: http://www.valnet.ru/m7-76.phtml. Всё закрыто ноуиндексами. А в серпе страница есть, весь текст в сохраненной текстовой копии тоже есть. Что скажите?

 

Скажу следующее:

Ваши вопросы мне не понятны. По html коду видно, что есть два блока noindex - в топе и в подвале. Основной текст открыт для индексации.

Т.е. предпосылка, что всё закрыто не верна.

Какое отношение тег noindex имеет к появлению страницы в результатах поиска по произвольному запросу? С помощью тега noindex можно указать роботу, что текст из данного блока не нужно индексировать.

Исходя из описания в предыдущем предложении следует, что к сохраненной копии noindex также не имеет никакого отношения.

Итак, как оно работает:

Блок, не закрытый в noindex (по этому тексту искомая страница находится)

http://yandex.ru/yandsearch?text="Настоящие+методические+рекомендации+по+определению+рыночной+стоимости+земельных+участков+разработаны+Минимуществом+России"+url:http://www.valnet.ru/m7-76.phtml&lr=213

Блок, закрытый в noindex (по этому тексту искомая страница не находится)

http://yandex.ru/yandsearch?text="через+сеть+Интернет+без+отрыва+от+производства+для+оценщиков"+url:http://www.valnet.ru/m7-76.phtml&lr=213

Благодарю, что потратили время на мой вопрос.

Но всё же, если посмотреть хорошо в код, то открывается сразу после и не закрывается (у него нет пары). Теоретически весь текст должен быть в ноуиндексе.

В предыдущем посте я "смешала" серп и сохранённую копию, что неверно и я признаю свою ошибку в постановке вопроса.

Вижу. Ваша структура:


 

....



Т.е. вы говорите: мы неправильно используем теги, почему у вас ничего не работает? =)

> мы неправильно используем теги
это не мой сайт, Вы ранее просили пример, я кинула ссылку.

Вопрос был в другом: игнор яндексом тега noindex в конкретном случае.

Считаю, что вопрос можно снять с обсуждения, т.к. вышла путаница с количеством открытых и закрытых тегов. Проверить на данном примере игнор роботом  noindex - невозможно.

Спасибо, что открыли глаза на ошибку в тегах.

Здорово. Спасибо!

давно пора!

Херня все это, они только говорят, на деле нихера работать не будет, так же как с директивой host в robots.txt

Что не так с директивой host в robots.txt?

А то, что робот часто вообще на нее внимания не обращает...

Робот всегда обращает внимание на директиву Host. Другое дело, что результат может расходиться с ожидаемым, если:

- хосты, связанные Host, не являются зеркалами (Host - рекомендация, не строгое указание)

- Host указывает на хост с перенаправлением

- robots.txt не валиден

C Платоном спорить бесполезно, он всегда прав;-)

Скажите, canonical можно указать на другой сайт ?

Если нет, то как склеить страницы разных сайтов... только отдельные страницы не трогая большую часть сайтов ?

301й поставил, но Яндекс не понимает...

Спасибо.

посмотрим насколько этот атрибут будет работать :)

спасибо за отличное нововведение, может это наконец-то улучшит борьбу с дублями.

еще бы что-нить эдакое для борьбы с копипастерами придумали и было бы супер!

если проиндексировались 2 страницы

www.examplesite.ru/pages?id=2
www.examplesite.ru/blog

Поможет ли атрибут canonical исключить из поиска страницу www.examplesite.ru/pages?id=2 ?

Если на эту страницу www.examplesite.ru/pages?id=2 стоят ссылки, то передастся вес на страницу www.examplesite.ru/blog ? Или лучше использовать 301 редирект?

 

С помощью атрибута rel=”canonical” вы можете указать, какая страница является «канонической» – предпочтительной для индексации и появления в результатах поиска.
Дубли клеются или игнорируются? Например, если на случайный дубль страницы стоят ссылки, будут ли они учитываться при всяких-разных расчетах по ссылочному массиву?

 

Дубли склеиваются.

Дубли не склеиваются. Обратите внимание на магазины наручных часов. Реальных страниц у некоторых сайтов в 5-7 (!) раз меньше, чем проиндексировано Яшкенази. В индексе - сплошные дубли.

Риторический вопрос: почему когда я применяю rel="canonical" для Гугла, это хорошо сказывается на позициях сайта в Гугле, а когда я применяю аналогичную выдумку Яндекса Clean-param в Robots.txt, то это опускает сайт в Яндексе? Я же Яндексу хочу сделать приятно: экономлю его слабенькие вычислительные ресурсики.

В общем, как всегда: выслушай Яндекс и сделай наоборот.

Хорошая новость.

Будем молиться чтобы работало корректно :)

Леонид Забелин
19 января 2016, 11:28

"не рекомендуется создавать цепочки, каждый элемент которых указывает, что каноническим является следующий url в цепочке."

http://help.yandex.ru/webmaster/?id=1111858

 

Черт, уже не сработает, ясно))))

А я уж подумал, каким боком майнтейнер Ubuntu относится к поиску, и зачем он в составе тега))

Отличная новость! Яндекс теперь дружит с rel=canonical.

В Wordpress canonikal уже применяется по умолчанию. Понятно, что это призвано определить одну, главную страницу из дублей, но что со страницами, на которых отражены выдержки с разных страниц.

Сослаться не получится, но и уникальной её не назовёшь, однако такие "сборные" страницы, тех же рубрик к примеру, по моему обязаны присутствовать в индексе, потому что на них собирается концентрированная информация, помогающая найти то, что нужно пользователю по теме.

Интересно, решилась ли проблема дублей страниц с комментариями в Blogger с расширением ?showComment

Екатерина Михайлова
19 января 2016, 11:28

Да, очень важный вопрос для многих. Жаль, что на него не ответили. В теории должны, вопрос, сколько ждать придется, пока все страницы склеятся... Народ уже волнуется, а вдруг не склеятся:-)

Куда мир катится, яндекс уже даже robots.txt не слушается, жопа!!!!!:-O

И я уже даже не про host говорю, даже Disallow игнорируется...

а что делать если у меня показывает под разными доменами? или домен 3 уровня становится (а раз было и 7 уровня) голлавнее главного? это тут можно поправить?

Вы это о чем?

я о том что 1 адрес есть. а яндекс ловитя  в поиске другие адреса копии и выдает их за главного. ошибка ужасная!

Сергей Полывьянов
19 января 2016, 11:28

Это очень страшная ошибка. Она постоянно вылезает. Получается прикол. Что Яндекс рекомендует делать сайты для посетителей. Но в топе вдаются сайты оптимизированные под такие баги.

Удалить, вместе со спамом который тут написали.

Михаил Мятов
19 января 2016, 11:28

www.examplesite.ru/pages?id=2
www.examplesite.ru/blog

Если на страницу вела куча ссылок и она имело первое место по слову "site". Затем был внедрен новый движок, старый при этом остался для того чтобы позиции не потерять, и требуется сделать так, чтобы вылазила полная копия страницы www.examplesite.ru/pages?id=2, в  новом движке имеющая адрес www.examplesite.ru/pages/2, без потери позиций, то что нужно сделать?

В этом случае надо делать 301. Мы сделали. Сработало. Позиции сохранили, URL-ы постепенно сменились, вес передался (касается как Я, так и G).

устал с ТП общаться после обновления движка vbulletin - ничего путного сказать не могут по поводу выпадания сайта из индекса, кроме как:

В данный момент Ваш сайт уже участвует в поиске по адресу главного зеркала infofree.ru без www : http://yandex.ru/yandsearch?text=site:www.InfoFree.ru&pag=u&surl=www.InfoFree.ru&lr=213 .

 

Однако, после анализа и классификации страниц Вашего сайта наши алгоритмы решили ограничить его в поиске.

 

- поискового спама нет;
- в июне проекту исполняется 7 лет;
- на форуме больше 800 000 сообщений, оставленных пользователями;
- в своё время, форум был одним из самым посещаемых в Екатеринбурге, благодаря льготной доступности большинству провайдеров;
- на сайте нет страниц "предназначенных для робота-индексатора";
- SEO-ссылки по умолчанию предусмотрены в версии vbulletin 4.x (на которую я обновился), другие поисковые системы их успешно понимают;

 

 Дак не могло ли это произойти как раз из-за того, что новая версия  сайта использует этот тэг?

Пример:

http://infofree.ru/forum/showthread.php/49317-socialnaja-set-InfoFree.ru

http://infofree.ru/forum/showthread.php/49317-Социальная-сеть-InfoFree.ru
 

 

Давно ждал этого события! Спасибо
Очень полезная вещь. Спасибо, думаю это многим пригодится.

Поддерживается ли канонизация на поддомены?

Возможно ли для страниц на news.examplesite.ru канонизировать страницы с examplesite.ru ?

 

Нет.
В помощи об этом написано: "Робот не учтет атрибут, если в качестве канонического указывается url с другого хоста или поддомена хоста, на котором атрибут указан".

не описано- что будет с дублями?

Сергей Полывьянов
19 января 2016, 11:28

А почему нельзя ставить rel=”canonical” именно на нужную страницу. Иначе это нереально ставить на второстепенные. не дай бог если в алгоритме яндекса опять будут баги, то то может случится так что все страницы вообще по другим запросам выикенет и оставит только канонческие. Т.е будет еще хуже..

А в чем прикол?

Лишний мусор итак закрывается в файле robots.txt!

Такой вопрос, бьюсь с подобной проблемой довольно давно, и данный метод как я понима не поможет, или поможет?

сайт http://vetservice.ru

Страница http://vetservice.ru/index.php переведена на страницу http://vetservice.ru/veterinarnaya_klinika (ссылок на сайте на index.php нет, все заменено на veterinarnaya_klinika)

Берет он по запросу http://vetservice.ru/veterinarnaya_klinika с индекса через хтаксес:

RewriteRule ^veterinarnaya_klinika$ index.php

Понятное дело что сделать через 301 по типу Redirect 301 /index.php http://vetservice.ru/veterinarnaya_klinika я не могу так как получиться замкнутый круг и ошибка. Каким образом мне объяснить Яндексу, чтобы в выдаче он давал http://vetservice.ru/veterinarnaya_klinika а не index? Так как фактически это одна страница.

И второй вопрос, ну или дополнение:

то же самое, но успешно я проделал с другой страницей, она не индекс и ее я перезамкнул через промежуточный файл:

Был файл veterinar.php, посвященный вызову ветеринара на дом. решил сделать из него http://vetservice.ru/vizov_veterinara_na_dom

Это не индекс и тут сделал проще, veterinar.php переименовал в vizovveterinara.php, а далее редиректы

RewriteRule ^vizov_veterinara_na_dom$ vizovveterinara.php

Redirect 301 /veterinar.php http://vetservice.ru/vizov_veterinara_na_dom

И все бы нормально, при запросах что veterinar.php, что vizov_veterinara_na_dom выводиться нужная страница, а vizovveterinara.php для Яндекса невидим, но он никак не хочет выплюнуть из пасти veterinar.php, и посылает пользователя на него, а потом уже хтаксес его перекидывает правильно. И очень давно это уже происходит. Я так понимаю rel=”canonical” тут тоже не помощник. И если такой фокус тут еще удался, то с индексом так не переиграть уже, там остальной сайт висит.

Может вопросы и делитантские, просто я чего-то не понимаю, прошу не пинать сразу.

У меня контент страницы, со страницами дублеров копируются автоматически, и нужно вставить тег на одной странице и он отобразиться по всем дублерам, в том числе появитья и на основной странице.

Так  у большенства наверно, но не видел ответа на вопрос: а если этот тег стоит на странице и указывает на эту же страницу, это не ошибка?

 С уважением.

Интересует тот же вопрос. Поясню.
есть две страницы:
1. http://mim1.ru/category/kuhonnye-garnitury/

2. http://mim1.ru/category/kuhonnye-garnitury/offset20/

 

контент очень похож, главная из них первая.

на обоих страницах стоит 

<linkrel="canonical" href="http://www.mim1.ru/category/kuhonnye-garnitury/" /> 


Вопрос:

нужна ли строка:

<link rel="canonical" href="http://www.mim1.ru/category/kuhonnye-garnitury/" /> 

на главной странице:

http://mim1.ru/category/kuhonnye-garnitury/

Прошу дать разъяснения вот по какому вопросу. Атрибут rel=”canonical” можно задавать несколькими способами: 1. В коде страницы в разделе <head> как <link rel="canonical" href="http://test/" />. 2. В виде заголовка HTTP как Link: <http://test/>; rel="canonical". Некоторые модули CMS (например, модуль metatag для Drupal 7) прописывает одновременно оба этих rel=”canonical” на странице, двумя способами. Эксперты по продвижению компании Link-Assistant считают, что это ошибка и поисковые системы будут игнорировать наличие rel=”canonical”. Хочется понять позицию Яндекс по этому вопросу.
Елена Першина
9 августа 2016, 10:46
Наш индексирующий робот поддерживает оба варианта использования canonical, поэтому, если на сайте будет использовать оба варианта одновременно, а значение атрибута будет совпадать, робот корректно обработает это указание.
А подскажите, как поведет себя робот, если в canonical указать страницу, которая отдаёт не 200ОК, а 301-й редирект?
Владимир,
По логике эта страница учитываться не должна т.к. с нее идёт редирект на другую.
Подскажите, а если прописывает CMS <link href="/kontakty.html" rel="canonical" /> вместо полного адреса url будет ли это ошибкой?
artis72,
Ошибки быть не может, т.к. это для вас путь относительный, а когда страница отображается то поисковой системе будет скормлен абсолютный путь с именем домена.
не работает у вас этот каноникал. В индексе куча страниц с фильтрами, в которых прописан каноникал на одну единственную страницу. 
Елена Першина
Сотрудник Яндекса24 апреля 2017, 23:39
exo.tica,
Работает, а вот почему ваши страницы есть в выдаче - нужно разбираться. Будем рады примерам в поддержку Вебмастера. 
Елена Першина,
на первый взгляд вроде бы всё работает с рел каноникал, судя по статистике обхода в вебмастере, но страницы по прежнему в выдаче, отсюда несколько вопросов:
1. Сколько времени требуется роботу, чтобы оставить в поиске только канонические страницы?
2. Нужно ли в robots.txt принудительно разрешать индексирование неканонических страниц пагинации по гет-параметру (Allow: /*pagination*) , если они ранее были запрещены к индексации.
3. Нужно ли убирать неканонические адреса страниц пагинаций из sitemap.xml
4. Какими средствами можно ускорить выход неканоничеких страниц из поиска?
Речь о конкретном сайте uvelirmoscow.ru , где помимо канонизации страниц с пагинацией, использовали канонические адреса товаров, ранее проиндексированных по разным ссылкам (дублям), из-за попадания в разные категории.
Обновлено 9 августа 2017, 14:49
Елена Першина
Сотрудник Яндекса9 августа 2017, 14:48
a.xomich2017,
1. Точных сроков нет - зависит от скорости индексирования сайта.
2. Да, страницы пагинации можно разрешить к обходу, если используете canonical.
3. Да.
4. "Переобход страниц" в Вебмастере
Пожалуйста, помогите разобраться.
Прочитал хелп Яндекса, но все равно не смог решить следующую задачу:
У меня одна и та же страничка открывается по адресам
http://site.ru/index.php?categoryID=301
и
http://site.ru/?categoryID=301
Как сделать, чтобы все странички вида http://site.ru/index.php?categoryID=тут-цифры индексировались (и участвовали в поиске), а
http://site.ru/?categoryID=цифры не индексировались?
Спасибо.
Елена Першина
Сотрудник Яндекса26 мая 2017, 12:13
Михаил,
Использовать 301 редирект на нужные страницы, информация есть вот тут https://yandex.ru/support/webmaster/robot-workings/robot-workings-faq.html#dubl . По непосредственной настройке - на тематические форумы, к разработчику, в службу поддержки CMS.
Обновлено 26 мая 2017, 12:13
Елена Першина,
Спасибо. Уже сдалали на хостинге.
Очень интересует вопрос, можно ли реализовывать каноникал через заголовок http
в официальном faq нет нигде этой информации, только через атрибут link, при этом чуть ниже в комментариях есть ответ, что вроде можно это сделать. 
Использует ли Яндекс этот способ указания каноникла?
Елена Першина
Сотрудник Яндекса1 сентября 2017, 13:50
popsik,
Да, можно.
Почему при прописанных тегах canonical, Вебмастер показывает, что проиндексированы адреса с параметрами (utm, frommarket и пр.)?


http://joxi.ru/Q2KpwMbu4QXzJA


Елена Першина
Сотрудник Яндекса5 сентября 2017, 15:17
drugberium,
Потому что каноникал не запрещает что-либо индексировать, он лишь показывает, какую страницу воспринимать как каноническую. А для этого все страницы нужно проиндексировать.  
Елена Першина
Сотрудник Яндекса5 сентября 2017, 15:18
drugberium,
Про UTM - в каком разделе?
В обходе или в поиске? Если в первом случае, то см. ответ выше.  Если во втором случае - то стоит разобраться, почему робот не использует каноникал. Скорее всего, он установлен некорректно. 
Добрый день
В вебмастере начал замечать, что яндекс неканонические страницы начал выводть в индекс и считать их дуюлями
Как потом оказалось, наш цмс начал выводить каноникал не только в код страницы, но в хттп заголовок страницы.
Link: <http://www.m.....>; rel="canonical"



Неужели из за этого могут быть проблемы??





Елена Першина
Сотрудник Яндекса26 сентября 2017, 14:18
disoul2014,
Мы индексируем и неканонические страницы, ведь они не закрыты от индексирования, а как раз и сообщают нам о том, что они дубли. 
Елена Першина,
А если страница всё же закрыта в роботсе через Clean-param (её переменная в метке) и в rel=canonical у неё прописана каноническая страница?
Тем не менее в индекс попадает и каноническая и её дубль (метка которой закрыта в Clean-param и каноникал у неё прописан!).
Елена Першина
Сотрудник Яндекса30 марта 2018, 18:15
i-media2009,
Лучше разбираться через поддержку в данном случае, чтобы не гадать, почему две страницы. 
Екатерина И.
7 ноября 2017, 09:45
К сожалению не нашла подходящей темы для вопроса:
Как лучше с точки зрения поискового робота Яндекс поступать с get параметрами в url?
Совсем их запрещать, или ставить редирект или использовать rel canonical? Или на ранжирование ничего не сказывается? Какова рекомендация Яндекса по этому вопросу?
Доброго времени суток.
Подскажите пожалуйста по следующему вопросу:
У нас на сайте есть страницы у которых нет дублей, нет похожих страниц и тому подобных.
Но мы решили все равно добавить на данные страницы тег Rel=canonical - так сказать на всякий случай пусть будет, чтобы точно быть застрахованными от всякого рода проблем в будущем.


То есть есть страница: https://example.ru/dresses
на ней размещен тег: <link rel="canonical" href="https://example.ru/dresses" />
Итак вопрос:


Нормальна ли такая практика, перестраховки?
Или тег rel=canonical нужно использовать только по прямому назначению и устанавливать на странице если у нее есть дубли или похожий контент? 
Елена Першина
Сотрудник Яндекса2 апреля 2018, 19:32
maxglotow,
если вы не хотите, чтобы страницы склеились, то рекомендовать ставить этот тег я не могу. 
МОЗАИКА СИНТЕЗ
24 мая 2019, 11:56
Елена Першина,
Возможно Вы не посмотрели внимательно, но у вопрошавшего каноникл стоит сам на себя. Что при этом может склеится? У меня такой же вопрос, размещение каноникла самого на себя нормально или может привести к каким-то ошибкам или неприятностям?
platon
Сотрудник Яндекса24 мая 2019, 17:36
МОЗАИКА СИНТЕЗ,
отвечу за Елену :) Если страница содержит атрибут на саму себя, то робот просто будет индексировать как каноническую, как и в случае, если атрибута нет. Обратите внимание, что какой-то дополнительной "перестраховки" такой атрибут не дает: если у страницы есть дубль, то одна из страниц будет исключена из выдачи, даже если у обеих страниц атрибут указывает на самих себя (или только у одной). Rel="canonical" в первую очередь служит для указание на то, какую из страниц-дублей робот должен исключить из поиска.
Добрый день!


Примерно неделю назад через вебмастер яндекса стали приходить уведомления со следующей темой "Изменился тег canonical важной страницы":


"Старый тег canonical: http://домен/раздел/подраздел/
Новый тег canonical: "



Обеспокоенность из-за того, что изменяется реально существующие страницы с реальным тегом "canonical" на абсолютно пустой.



Подскажите, это нормально? По логике все страницы потихоньку переадресуются на главную?


Нормально если на сайте url с вложенностью категорий:
https://termofos.ru/truboprovodnaya-armatura/filtry-setchatye/filtr-fvf-chugunnyj-flantsevyj-so-slivnym-kranom/danfoss-filtr-setchatyj-fvf-dn100-pn-16-so-slivnym-kranom-065b7734.html
А rel="canonical": https://termofos.ru/danfoss-filtr-setchatyj-fvf-dn100-pn-16-so-slivnym-kranom-065b7734.html без вложенности категорий?
platon
Сотрудник Яндекса12 декабря 2019, 09:35
saiyavlad,
наш робот не учтет канонический адрес, если он перенаправляет на другую страницу, как в вашем примере. В таком случае вместо канонического адреса в поиске может участвовать неканонический, если он доступен для робота.