Как сделать анализ файла журнала бесплатно?

  1. 1- Установите Docker
  2. 2-Импорт файлов журнала
  3. 3-Play!

Анализ файла журнала помогает понять, как поисковые системы сканируют сайт и как они влияют на SEO. Получаемая информация является отличным помощником в улучшении вашей способности сканировать и производительности SEO.
С помощью этих данных вы можете проанализировать поведение сканирования и выявить интересные метрики, такие как:

  • Ваш бюджет обхода расходуется эффективно?
  • Какие ошибки, связанные с доступностью, были обнаружены во время сканирования?
  • Где находятся зоны дефицита сканирования?
  • Какие самые активные страницы?
  • Какие страницы Google не знает?

Дело в том, что вы также можете сделать этот анализ бесплатно. OnCrawl, таким образом, обеспечивает анализатор логов с открытым исходным кодом ,

Это поможет вам обнаружить:

  • Уникальные страницы, отсканированные Google
  • Частота сканирования по группам страниц
  • Кодовые статусы
  • активные и неактивные страницы

Как это работает?

1- Установите Docker

устанавливать Ящик для инструментов Docker ,
Выберите терминал Docker Quickstart, чтобы начать.
Скопируйте и вставьте IP-адрес 192.168.99.100
устанавливать   Ящик для инструментов Docker   ,   Выберите терминал Docker Quickstart, чтобы начать
Затем загрузите публикацию oncrawl-elk: https://github.com/cogniteev/oncrawl-elk/archive/1.1.zip
Добавьте эти строки в терминал, чтобы создать каталог и разархивировать папку:

  • MacBook-Air: ~ cogniteev $ mkdir oncrawl-elk
  • MacBook-Air: ~ cogniteev $ cd oncrawl-elk /
  • MacBook-Air: oncrawl-elk cogniteev $ unzip ~ / Downloads / oncrawl-elk-1.1.zip

И затем добавьте:

  • MacBook-Air: oncrawl-elk cogniteev $ cd oncrawl-elk-1.1 /
  • MacBook-Air: oncrawl-elk-1.1 cogniteev $ docker-compose -f docker-compose.yml up -d

Docker-compose загрузит все необходимые образы из Docker Hub, так что это займет несколько минут. После запуска контейнера докера вы можете ввести в браузере следующий адрес: HTTP: // IP-DOCKER: 9000 , Будьте осторожны, чтобы заменить DOCKER-IP на тот IP, который вы скопировали ранее.
Вы должны увидеть панель мониторинга OnCrawl-ELK, но без данных. Поехали и поищем данные для анализа.

2-Импорт файлов журнала

Импортировать данные так же просто, как копировать файлы доступа к журналу в нужную папку. Logstash начнет автоматически индексировать любой файл, найденный в logs / apache / *. Log, logs / nginx / *. Log.
Если ваш веб-сервер работает на Apache или NGinx, убедитесь, что формат адаптирован к формату журнала. Это должно выглядеть так:
127.0.0.1 - - [28 / Aug / 2015: 06: 45: 41 +0200] "GET /apache_pb.gif HTTP / 1.0" 200 2326 "http://www.example.com/start.html" "Mozilla / 5.0 (совместимо; Googlebot / 2.1; + http: //www.google.com/bot.html) "
Перетащите свои файлы журналов в logs / apache или в каталог logs / nginx соответственно.

3-Play!

Вернуться на http: // DOCKER-IP: 9000. Теперь у вас должны быть цифры и графики, поздравляю!

Вы также можете объединить эти данные с вашими данными сканирования и получить доступ к полному представлению о своей эффективности SEO. Вы также сможете обнаружить активные потерянные страницы, проверить коэффициент сканирования по глубине или группе страниц и другую интересную информацию. Чтобы узнать больше о перекрестном анализе, вы можете взглянуть на это страница ,

Какие ошибки, связанные с доступностью, были обнаружены во время сканирования?
Где находятся зоны дефицита сканирования?
Какие самые активные страницы?
Какие страницы Google не знает?