SEO-анализ: SEO-аудит для сайтов, опыт TSW

  1. SEO-аудит: домен [/ text_2]

Сегодня мы хотим поделиться с вами всем нашим опытом проведения так называемого «SEO AUDIT» для веб-сайтов , то есть искусством выполнения всех проверок, необходимых для понимания и решения различных критических вопросов с точки зрения SEO , чтобы сайт мог позиционировать себя и получить видимость в поисковых системах.

Первым шагом для SEO-анализа веб-сайта является вооружение терпением, термосом с кофе и правильными инструментами: нужно сделать много шагов, особенно если вы хотите углубиться и углубить все технические и другие аспекты.

SEO-аудит: домен [/ text_2]

Первый реальный контроль, когда мы начинаем проводить анализ, - это, очевидно, область. Домен в основном состоит из двух частей:

  1. TLD (домен верхнего уровня) , также называемый доменом верхнего уровня или расширением домена, является последней частью, которая составляет домен. Например, для домена: example.com доменом верхнего уровня является «.com». Выбор TLD не имеет особого значения для ранжирования сайтов SEO, но рекомендуется использовать международные TLD для многоязычных сайтов (таких как .com, .net, .org) и национальные TLD для сайтов с одним языком или локализованных (например, : .it, .fr, .de), так как движок использует последний для лучшего понимания ссылочного рынка сайта.
  2. Домен второго уровня - это часть, которая предшествует домену верхнего уровня. Например, для домена «example.com» доменом второго уровня является «пример».

com» доменом второго уровня является «пример»

Выбор домена, который понимается как состав домена верхнего уровня в сочетании с доменом второго уровня, очень важен. Каждый домен, по сути, может пользоваться определенным уровнем популярности и авторитета, связанным с его историчностью. Мы увидим эту тему позже.

Мы всегда берем example.com в качестве примера. Если сайт находится в сети, мы проверяем, что он не доступен с других доменов, а только с одного.
Рекомендуется выяснить, есть ли другие домены, связанные с проектом, такие как «domain.it», «dominio.org» или «dominio2.com». Как только мы получили список, мы проверяем, как домены отвечают прямо из нашего браузера. Если при загрузке различных доменов вы получаете « HTTP / 1.1 200 OK », у нас возникают проблемы с дублированием, которые должны быть решены немедленно! В большинстве случаев использование перенаправлений 301 и правильная конфигурация файла htaccess (в случае систем Apache) могут решить проблему за очень короткое время.

Наконец, давайте попробуем получить доступ к нашему сайту с "www." Впереди (http://www.dominio.com) и без "www" (http://dominio.com): если в обоих случаях мы видим одно и то же На странице у нас есть проблема дублирования, очень похожая на проблему дублирования домена и разрешимая с помощью нескольких строк htaccess.

Отличный инструмент для понимания и просмотра заголовков, и если все запросы удовлетворены или нет, это расширение Firefox Firefox , необходимое в этих случаях.

SEO-аудит: на месте

Одна из самых важных частей (и которая может представлять более критические проблемы) при анализе веб-сайта - это анализ на месте.
Под Onsite мы подразумеваем все технические аспекты, которые могут помешать поисковой системе индексировать, сканировать и понимать содержимое определенной страницы, раздела или всего сайта.

Мы начнем с проверки html-кода , хотя это очень трудно соблюсти, учитывая наличие нескольких версий браузеров и пользовательских приложений, проверка HTML-кода в соответствии со стандартами w3c по-прежнему является одной из «лучших практик».
Мы можем проверить, насколько наш код недействителен, прямо на сайте w3c: https://validator.w3.org/ ,

Другим фундаментальным аспектом оптимизации на месте является правильное использование заголовков html-кодов или разделов, глав в разделах, на которые разделен текст.
Чтобы узнать больше о теме заголовка HTML, вы можете проконсультироваться это стр.
Чтобы ускорить операции проверки заголовка, мы используем удобное расширение Firefox: заголовочные карты.

Мы отключаем javascript и cookie-файлы через панель инструментов веб-разработчика, расширение, которое никогда не должно отсутствовать в списке расширений Firefox хорошего консультанта по SEO. Таким образом, мы можем быстро понять, доступен ли контент для поисковой системы. Если при этом мы оказались перед пустой страницей, полностью белой (или цветной), по-видимому, без текстового содержания, то здесь мы обнаружили большую критичность, которую нужно решить.
Технология javascript очень полезна для повышения удобства пользователя с помощью анимации и приятных эффектов, но злоупотребление может быть отключением доступа к контенту для поисковых систем.

В течение нескольких месяцев, благодаря так называемому « мобильному поиску », Google все больше доверяет опыту пользователя, который перемещается через мобильное устройство, также в качестве фактора позиционирования. Обеспечение адаптивного макета вашего сайта или его адаптация ко всем разрешениям - это хорошее SEO-решение, поскольку оно позволяет избежать дублирования контента и работы, необходимой для поддержки двух различных платформ: настольных и мобильных.
Мы можем перемещаться по сайту в мобильном режиме, не используя мобильный телефон, с помощью User agent switcher , расширения, которое может быть полезно в этих случаях!

Теперь пришло время проверить, существуют ли ограничительные директивы или ошибки, которые могут блокировать пауки поисковых систем: мы можем начать с обращения к файлу robots.txt.
который должен открыться, введя наш домен, например http: //dominio.ext/robots.txt.

Предупреждение: изменение этого файла без полного знания фактов может серьезно навредить позиционированию, обращайтесь с ним осторожно.

При открытии файла мы должны увидеть серию инструкций, очень похожих на следующие:

# robots.txt
Пользовательский агент: *
Disallow:
Карта сайта: http: //www.dominio.ext/sitemap_index.xml

Директивы, содержащиеся в этом файле, указывают поисковым системам, есть ли ресурсы, которые можно исключить из их сканирования и индексации.

Давайте также не забудем разрешить Google доступ к нашему javascript и шаблону css (или это может также напомнить нам об этом!).

)

Ссылка на sitemap.xml должна присутствовать в директивах robots.txt.
Sitemap.xml - это файл, который содержит список страниц на сайте. Он читается поисковыми системами и очень полезен в случае очень больших или часто обновляемых сайтов, таких как блоги, электронная коммерция и журналы. Он предоставляет дерево сайта, которое очень помогает паукам, облегчая тем самым индексацию страниц и содержимого.
В карте сайта можно задать приоритеты сканирования для определенных страниц или разделов, в частности для тех, которые подвергаются более частым изменениям.

SEO-аудит: контент

Если мы считаем Google «великим библиотекарем Интернета», мы должны помнить, что он любит оригинальный , упорядоченный и хорошо классифицированный контент .
Пауки Google, после сканирования и индексации содержимого сайта, связывают его с другими сайтами со связанным содержанием, а затем перечисляют их после поиска в порядке релевантности. Релевантность, которая рассчитывается многими алгоритмами ранжирования.
По этой причине, анализируя наш контент, мы должны обеспечить, чтобы информация, которую мы считаем наиболее интересной, была наиболее простой для поиска. Эта операция необходима при выборе информационной архитектуры нашего сайта.
Кроме того, прежде чем создавать дерево нашего контента, полезно понять, как пользователи будут взаимодействовать с самим контентом. Google уделяет все больше внимания навигации и удобству использования веб-страниц .

Google уделяет все больше внимания навигации и удобству использования веб-страниц

Рука об руку с деревом сайта, идет настройка структуры URL . Лучше несколько уровней каталогов или дерево с глубокими листьями?
Перезапись по htaccess или параметрам?
Вот некоторые вопросы, которые всегда следует задавать при разработке структуры URL.
Очевидно, что это зависит от сложности и общего количества категорий и подкатегорий, которые будут опубликованы.
В общем, если возможно, мы выбираем короткие и переписанные URL-адреса .
Также напоминаем, что правильное использование «хлебных крошек» очень полезно для обозначения движку структуры сайта.

Мы следим за тем, чтобы наши наиболее важные страницы были хорошо связаны как внутренними, так и внешними страницами. Каждая ссылка - это голос за нас в глазах пауков!
Мы проверяем, что каждая страница имеет правильную позицию в структуре сайта, достаточное содержание, соответствующие метатеги и хорошо заполнена.
Если изображения и видео присутствуют, пометьте их правильной разметкой и, возможно, микроформатами schema.org, чтобы обогатить их визуализацию в SERP.

Наше внимание теперь перейдет на страницы категорий или подкатегории, где мы часто находим нумерацию содержимого. Мы проверяем правильность использования тегов rel «prev» и «next», поэтому пусть поисковая система поймет, как структурированы наши «длинные» страницы. Вот отличная глубокая ссылка этой темы.
Мы проверяем, есть ли дубликаты контента или похожие страницы.
Там, где мы не можем действовать, комбинируя или изменяя это содержимое, мы можем использовать директиву «canonical», чтобы указать движку, какая страница является предпочтительной для индексации и присутствия в SERP .
Дополнительную информацию об управлении каноническими директивами можно получить по адресу этот адрес

Отличный инструмент для анализа контента и большинство локальных факторов Кричащая лягушка - симулятор паука, который сканирует все страницы веб-сайта и позволяет выделить проблемы, связанные с мета-тегами, структурой URL-адресов и многим другим.

SEO-аудит: профиль ссылки

Постоянные обновления Google на протяжении многих лет приводили к различным изменениям в алгоритмах и способах, которыми они вычисляют ценность и надежность ссылки.
Хорошее правило - всегда следить за входящими ссылками. Таким образом, вы можете избежать штрафов и контролировать ситуацию в своем профиле ссылки.
Быть связанным большим количеством качественных ресурсов является важным правилом.
Очень полезным инструментом для анализа качества ссылок и входящего текста, помимо авторитета домена, является Majestic. Благодаря этому инструменту мы можем проводить сравнительный анализ между конкурентами и «реверс-инжиниринг» популярности между доменами.

Популярность ссылок означает не только оптимизацию входящих ссылок, но и управление исходящими ссылками.
Исходящие ссылки - это индикатор, используемый поисковой системой для понимания надежности и тематики сайта. Ссылки связывают воедино содержимое. Поэтому ссылка на сайт с надежным внешним ресурсом, который также может предлагать тематический контент, аналогичный сайту, безусловно, является признаком качества.

SEO-аудит: серверная часть

Правильное управление сервером, на котором размещен наш сайт, является фундаментальным аспектом по двум причинам:

  1. скорость отклика увеличивает возможности просмотра пользователями, которые вряд ли останутся на сайте, который медленно перемещается или не реагирует на изменения страницы или щелчки мышью
  2. является одним из факторов ранжирования, учитываемых алгоритмами Google.

Если нашим хостингом является Linux , давайте удостоверимся, что у нас лучше всего настроен веб-сервер Apache, включающий сжатие gzip, срок действия заголовков для большинства статических файлов на нашем сайте. Мы также отключаем ETag, избегаем перенаправления 301, где нам не нужно, и минимизируем внешние DNS-запросы.
Мы не экономим на технических функциях , таких как процессор, оперативная память и пропускная способность, чтобы иметь быстрые и отзывчивые ответы даже на одновременные запросы от нескольких пользователей.

Мы не экономим на технических функциях , таких как процессор, оперативная память и пропускная способность, чтобы иметь быстрые и отзывчивые ответы даже на одновременные запросы от нескольких пользователей

Безопасность и надежность сервера - это аспект, о котором следует помнить, Google не любит сайты, которые отключаются или генерируют ошибки (500 внутренних ошибок сервера) и могут оштрафовать их. Точно так же Google вряд ли предложит сайт, содержащий вредоносное ПО среди его результатов.
Позвольте нам убедиться, что у нашего поставщика есть доступ к журналам веб-сервера, где мы можем обнаружить ошибки, запрошенные страницы больше не доступны, запросы не выполнены, и исправить их как для пользователей, так и для поисковых систем.

Google, стремясь сделать Интернет более безопасным, рассмотрит сайт, даже если он доступен через зашифрованное соединение HTTPS . Установка и настройка сайта по протоколу с SSL-сертификатом - это запрос к ИТ!

SEO-аудит: анализ и данные

Источники данных являются ключевым моментом для завершения анализа SEO . Чем лучше данные, тем точнее могут быть окончательные выводы.
Google Analytics - отличный инструмент для сбора данных в целях SEO.
С помощью Google Analytics мы можем анализировать динамику органического трафика с течением времени, перехватывать наиболее интересный контент для пользователей, основные целевые страницы, любые 404 страницы ошибок и действовать соответственно.

Аналитика улучшается, если она подключена к консоли поиска Google.
Google Search Console (ранее Google Webmaster Tools) - это панель, которую Google предоставляет для предоставления интересных данных, собранных поисковой системой.
После удаления возможности видеть входные ключевые слова непосредственно в отчетах Google Analytics, скрывая их с помощью «не указано», ссылка через GSC является единственным способом получения данных о ключевых словах, используемых пользователями для доступа к сайту.
Поэтому мы можем иметь обзор показов и кликов, которые наш сайт генерирует в результатах поиска, и получать очень полезные данные CTR и средней позиции .
Более того, с помощью сообщений, отправляемых непосредственно Google, можно определить возможные штрафы или действия, предпринятые на сайте вручную.

Другие фундаментальные данные, которые можно сделать для нашего SEO анализа, могут быть получены из онлайн и офлайн инструментов. Ценные советы по текущему позиционированию и нашим основным конкурентам можно найти через специальный сервис SEMrush .

SEO-аудит: выводы

Если вы дойдете до этого, вы начнете понимать сложность и широту навыков, требуемых от SEO-консультанта , но учтите, что вы только начинаете.
SEO-анализ, или SEO-аудит, представляет собой необходимую и основную отправную точку для любой деятельности.
Имея четкую и точную фотографию начального статуса веб-сайта, можно приступать к оптимизации и вмешиваться в нее, полностью осознавая весь проект и направление, в котором следует следовать.
Если вам нужен SEO-аудит для вашей компании, не стесняйтесь обращаться к нам!
Если вы уже хорошо знакомы с обсуждаемыми темами и не читали ничего нового в этой статье ... Мы всегда ищем хороших оптимизаторов для расширения нашей команды!

Вклад и спасибо за статью:
Дарио Кодато
Лорена Пиаи
Мино Бедин

Лучше несколько уровней каталогов или дерево с глубокими листьями?
Перезапись по htaccess или параметрам?