Мы хотели бы поговорить в сегодняшней статье о четырех важных SEO-проблемах, которые инструменты для аудита не показывают. Также поговорим о том, как их исправлять.
На протяжении всей истории SEO люди спорили о плюсах и минусах использования различных SEO-инструментов. Слепо полагаться на то, что показывают инструменты аудита – не равно полноценной SEO-стратегии, но и без подсказок обойтись тоже было бы трудно.
Вручную проверять десятки, а то и сотни проблем – это та еще головная боль.
К счастью для SEO-индустрии, за последнее десятилетие было создано множество новых инструментов аудита, и несколько из них прочно удерживают свое лидерство. Разработчики подобных утилит оказывают всем нам огромную услугу, продолжая совершенствовать свои продукты.
Однако даже самые лучшие инструменты аудита не могут найти следующие четыре важные технические проблемы, которые могут нанести ущерб вашей SEO-кампании:
- Наличие зацикленных перенаправлений страниц с каноническим тегом.
- Наличие хакнутых страниц.
- Невозможность прочтения ссылок JS.
- Невозможность получить доступ к контенту, скрытому JS.
Почему инструменты не показывают эти проблемы
Некоторые из этих проблем, конечно, могут быть обнаружены инструментами, но они просто встречаются очень и очень редко – система не знает, как их обнаружить (как правило).
Все вышеперечисленные проблемы очень индивидуальны. У каждого они по-разному влияют на сайт и его работоспособность, поэтому большинство утилит предпочитают избегать их отображения в отчетах.
Необходимые инструменты для выявления этих проблем
Прежде чем мы перейдем к рассмотрению всех нюансов, необходимо сделать две вещи, которые помогут найти эти самые четыре проблемы.
Определиться с инструментом для краулинга
Хотя большинство инструментов не обнаруживают эти проблемы по умолчанию, мы, как правило, можем внести некоторые изменения в программу самостоятельно. Вот утилиты, которые хорошо себя зарекомендовали:
- Screaming Frog
- Sitebulb
- OnCrawl
- DeepCrawl
Нам, для успешного поиска проблем, нужно, чтобы утилиты могли предоставить следующие возможности:
- Краулить сайты, файлы sitemaps и URL-адреса.
- Возможность вносить изменения в настройки, добавлять различные плагины для работы и т.д.
Воспользоваться Google Search Console
Этот пункт был достаточно очевидным. Если у вас нет полного доступа, настоятельно рекомендуем приобрести его, чтобы технический SEO-аудит проходил максимально гладко. От Google Search Console нам потребуется доступ к некоторым графам из полного отчета, чтобы выявить потенциальные проблемы.
Проблема 1: Циклические ссылки
Под этой витиеватой формулировкой подразумевается ситуация, когда веб-страница имеет канонический тег, указывающий на другой URL, который, при переходе на него, перенаправляет обратно на первую ссылку.
Это достаточно редкая проблема, но именно она, по моим наблюдениям, нанесла серьезный ущерб трафику многих крупных брендов.
Почему это важно
Канонические URL как бы «намекают» Google, что именно эту страницу нужно индексировать и ранжировать. Когда поисковая машина обнаруживает URL с тегом canonical, отличающийся от страницы, она может понизить просмотры.
Другими словами: Google начнет чаще краулить веб-страницу с ошибкой 301, подавая неверные сигналы Googlebot (поисковому роботу Google, который используется для сканирования сети и пополнения поискового индекса).
Мне не раз приходилось наблюдать, как нечто подобное происходило со многими крупными компаниями. Директор одной из них недавно обратился ко мне с просьбой разобраться, почему одна из его ключевых страниц не приносит того трафика, на который он так рассчитывал. Директор вложил много денег в SEO-кампанию – страница в целом-то выглядела приемлемо. Но ошибка 301 все портила.
Как обнаружить канонические перенаправления
Несмотря на то, что эта проблема не появится ни в одном стандартном отчете приложений по аудиту, ее довольно легко обнаружить самостоятельно:
- Выполните самый обычный поиск с помощью предпочитаемого инструмента для технического SEO-аудита. Обязательно просканируйте файлы sitemaps.
- Перейдите к отчету об адресах, имеющих тег canonical, и экспортируйте все их. Не те адреса, которые просканировал инструмент, а те, что с тегом canonical.
- Запустите новую проверку с полученным списком адресов и внимательно изучите его. Все URL-адреса без исключения должны иметь код 200.
Проблема 2: Взломанные страницы
Взлом сайтов с целью получения прибыли – не в новизну. Большинство опытных SEO-специалистов сталкивались с сайтами, которые были каким-то образом взломаны, и хакеры вели вредоносную деятельность, чтобы либо причинить вред, либо заполучить прибыль.
В SEO часто случаются следующие виды взломов:
- Поисковые манипуляции: злоумышленник отправляет огромное количество обратных ссылок на страницу результатов поиска с нерелевантными запросами. Это часто встречается в поисковых запросах по азартным играм и фармацевтике – под «раздачу» попадают индексирующиеся сайты.
- Манипуляции с 301 редиректом: злоумышленник получает доступ к ресурсу, создает страницы, относящиеся к тематике сайта, добивается их индексации. Затем он осуществляет 301 редирект на свои собственные веб-страницы.
- Полномасштабные атаки: хакер манипулирует кодом веб-страницы, чтобы сделать сайт непригодным для использования или, по крайней мере, неиндексируемым.
Существуют десятки видов взлома сайта, которые могут повлиять на SEO. Самое важное – это поддерживать надлежащую безопасность ресурса и ежедневно создавать его резервные копии.
Почему это важно
Наиболее важная причина, по которой никак нельзя допускать взлома сайта заключается в том, что если Google обнаружит, на нем вредоносное ПО, то вы можете получить за это перманентную блокировку.
Как обнаружить взломанные страницы
К счастью, существует множество инструментов не только для снижения угроз, но и для их своевременного обнаружения.
Впрочем, большинство из этих инструментов ищут только вредоносное ПО. Многие хакеры достаточно хорошо научились заметать за собой следы и скрывать свою преступную активность, но по-прежнему есть способ узнать, не был ли сайт взломан в прошлом.
Используйте Google Search Console
Проверьте строку отчета, которая показывает, какие действия производились на сайте. Так можно будет понять, осуществлялись ли на сайт атаки в прошлом.
Проверьте отчет о производительности. Ищите любые большие скачки. Они могут указывать на изменения. Самое главное, проверьте список URL-адресов. Взломанные ссылки могут сразу бросаться в глаза: многие из них могут быть написаны на другом языке, либо же и вовсе представлять из себя сплошной набор рандомных символов.
Проверьте учетные записи для входа на сайт
Просмотрите всех пользователей, зарегистрированных на сайте, чтобы найти странные и подозрительные учетные записи. Если на вашем сайте есть журнал активности, проверьте и его. Убедитесь, что все учетные записи имеют двухфакторную аутентификацию.
Используйте инструменты для сканирования
Некоторые инструменты хоть и могут сказать, есть ли на сайте вредоносные программы в данный момент, они вряд ли так сразу скажут, был ли он взломан в прошлом. Более надежным вариантом будет проверка с помощью сайта: https://haveibeenpwned.com/ - на нем нужно будет просканировать все страницы ресурса и админскую почту.
Этот сайт подскажет, имела ли место быть утечка данных. Проблема частых взломов заключается и в том, что люди в основном используют одинаковые пароли для всего. Это касается и крупных организаций.
Проблема 3: Ссылки JS
Google не отслеживает и не просматривают ссылки, созданные с помощью JavaScript.
Хотелось бы, чтобы инструменты SEO-аудита лучше обнаруживали ссылки, созданные с помощью JavaScript. Это помогло бы сильно сэкономить время и исключить проверку вручную.
Почему это важно
Googlebot не просматривает ссылки JavaScript на веб-страницах.
Как быстро находить ссылки JavaScript
Хоть и большинство инструментов SEO-аудита по умолчанию не могут обнаруживать ссылки, созданные с помощью JavaScript, мы способны внести некоторые правки, которые помогут в их обнаружении. Многие технические инструменты для SEO-аудита имеют возможность персонализации и тонкой настройки под пользователя.
К сожалению, браузеры не отображают исходный код в интерфейсе DOM, поэтому нельзя просто вбить событие onclick и найти нужное. Но есть несколько распространенных команд, которые все-таки можно использовать для поиска.
Только убедитесь, что это действительно ссылки JS.
- <button>: большинство разработчиков используют тег button для запуска скриптов. Не думайте, что все <button> являются ссылками JS, но их проверка может помочь сузить круг подозрений.
- data-source: этот тег извлекает файл, чтобы использовать его код для выполнения действия. Его достаточно часто можно встретить в ссылках JS.
- .js: как и атрибут data-source, расширения по типу .js будут извлекать файл JavaScript, чтобы для выполнения действия.
Проблема 4: Скрытый JS контент
Это действительно неприятная вещь. Многие компании хотят делать так, чтобы их контент отображался только тогда, когда пользователь взаимодействует с ним. Как результат – он оказывается скрыт JavaScript.
Наилучшей практикой является сочетание хорошего контента с адекватным пользовательским опытом, но только не в том случае, если при этом страдает SEO составляющая.
Почему это важно
Google на самом деле ничего не нажимает на веб-страницах. Поэтому если контент скрыт до тех пор, пока пользователь не начнет с ним взаимодействовать, и при этом не присутствует в интерфейсе DOM, то поисковая машина его попросту проигнорирует.
Как найти скрытое JavaScript содержимое
Это может быть достаточно сложно – как минимум потребуется тщательная проверка вручную. Как и при любом техническом аудите, проводимом с помощью специальных инструментов, вам необходимо вручную проверить все найденные проблемы.
Иногда, впрочем, оказывается достаточно проверить DOM на веб-странице и посмотреть, сможете ли вы найти скрытое содержимое.
Чтобы оптимизировать поиск скрытого контента:
- Запустите новую проверку с кастомными настройками поиска.
- Просмотрите все страницы, на которых мало текста.
- Проверьте, действительно ли так должно быть, или все-таки текстовый контент нужно разнообразить.
Подведем итоги
С опытом приходит понимание, как пользоваться SEO-инструментами по назначению. Утилиты не должны определять стратегию, но они должны помогать находить проблемы. Если вы столкнетесь с такими нестандартными проблемами как в сегодняшней статье – не забывайте про них. Возьмите на карандаш при всех последующих аудитах.
Источник: https://searchengineland.com/technical-seo-issues-auditing-tools-385471