🔎 Парсинг полезной информации из логов сервера Apache с помощью awk |

🔎 Парсинг полезной информации из логов сервера Apache с помощью awk

Мануал

Awk – очень полезный инструмент на Linux, он отлично подходит для доступа к данным из логов доступа сервера Apache.

Ранее мы уже разбирали Анализ логов Linux,в том числе и с использованием awk.

Таже мы рассмотрели 🌐 Как парсить логи доступа nginx , но обделили Apache.

Дале мы получим список всех URL, к которым обращались на сайте, и отфильтруем определенное ключевое слово с помощью grep.

awk '{print $7}' sslaccesslog_example.com_3_27_2023 | grep youtube

Использование awk ‘{print $7}’ отфильтрует все, кроме URL.

Используйте этот пример, чтобы отфильтровать все, кроме рефереров, которые приводят пользователей на ваш сайт.

awk ‘$11 !~ “itsecforu.ru” && $11 !~ “-” {print $11}’ sslaccesslog_itsecforu.ru_3_27_2023 | head -n 30
“https://yandex.ru/”
“https://www.google.si/”
“https://www.google.com/”
“https://www.google.si/”
“https://www.google.si/”
“https://www.google.com/”

Следующий пример находит всех посетителей, использующих Linux, и выводиинформацию о них.

В выводе показана часть агента пользователя, дата и время посещения, а также URL, который они посетили.

awk '$13 !~ "Linux" && $11 !~ "-" {print $12, $13, $4, $5, $7}' example.com_3_27_2023 | head -n 30

Перечислим все IP-адреса посетителей, которые получили в итоге ошибку 403.

awk '($9 ~ /403/)' sslaccesslog_securitronlinux.com_3_27_2023 | awk '{print $1,$7}' | uniq -c | sort -r

см. также:

 

 

Пожалуйста, не спамьте и никого не оскорбляйте. Это поле для комментариев, а не спамбокс. Рекламные ссылки не индексируются!
Добавить комментарий