Semalt Expert: Ръководство за предотвратяване на обхождането на стари сайтове на Google

Докато уебсайтът ви расте, вие ще се опитате да намерите най-добрите начини за подобряване на неговата видимост и надеждност в интернет. Понякога ефектите от начина, по който нашите сайтове са работили, остават назад и това е мястото, на което трябва да обърнем внимание.

Преминете към следните съвети от Max Bell, мениджърът за успех на клиенти на Semalt , за да предотвратите обхождането на стари сайтове от Google.

Преди няколко седмици един мой клиент ми каза, че има уебсайт за електронна търговия. Той премина през различни промени: от структурата на URL до Sitemap, всичко бе променено, за да направи сайта по-видим.

Клиентът забеляза някои промени в конзолата си за търсене на Google и откри грешките при обхождане там. Това, което той наблюдава, че има голям брой стари и нови URL адреси, които генерират фалшив трафик. Някои от тях обаче показваха грешки в Access Denied 403 и Not Found 404.

Клиентът ми ми каза, че най-големият проблем е имал стара карта на сайта, която съществува в основната папка. Неговият уебсайт използваше предимно различни приставки за Google XML Sitemaps, но сега той зависеше от WordPress SEO от Yoast за сайта. Различни стари приставки за Sitemap обаче създадоха каша за него. Те присъстваха в главната папка, наречена sitemap.xml.gz. Тъй като той започна да използва плъгините Yoast за създаване на Sitemap за всички публикации, категории страници и маркери, той вече не се нуждаеше от тези плъгини. За съжаление човекът не е изпратил sitemap.xml.gz в конзолата за търсене на Google. Той беше изпратил само своята карта за Yoast и Google също обхожда старите си Sitemap.

Какво да пълзи?

Лицето не изтри старата карта на сайта от главната папка, така че това също се индексира. Върнах се при него и обясних, че карта на сайта е само предложение за това какво трябва да се обхожда в резултатите от търсачката . Вероятно мислите, че изтриването на старите Sitemap ще спре Google да обхожда несъществуващия URL адрес, но това не е вярно. Опитът ми казва, че Google се опитва да индексира всеки стар URL адрес няколко пъти на ден, като се увери, че грешките 404 са реални, а не случайни.

Googlebot може да съхранява паметта на стари и нови връзки, които ще намери в сайта на сайта ви. Той посещава уебсайта Ви през редовни интервали, като се уверява, че всяка страница е индексирана правилно. Googlebot се опитва да прецени дали връзките са валидни или невалидни, така че посетителите да не изпитват никакъв проблем.

Очевидно е, че уебмастърите ще бъдат объркани, когато броят на грешките им при обхождане се увеличи. Всички те искат да го намалят до голяма степен. Как да информирам Google за пренебрегване на всички стари Sitemap? Можете да го направите, като убиете всички нежелани и странни сайтове за обхождане. Преди това единственият начин да направим това възможно е файловете .htaccess. Благодарим на WordPress, че ни предостави някои плъгини.

Уебсайтовете на WordPress имат този файл в своите основни папки. Така че, просто трябва да получите достъп до FTP и да активирате скритите файлове в cPanel. Отидете на опцията File Manager, за да редактирате този файл според вашите изисквания. Не трябва да забравяте, че редактирането му погрешно може да повреди вашия сайт, така че винаги трябва да архивирате всички данни.

След като добавите фрагмента към файла, всички изтекли URL адреси ще изчезнат от грешките ви при обхождане за нула време. Не трябва да забравяте, че Google иска от вас да поддържате сайта си на живо, намалявайки шансовете за 404 грешки.