🛠️ Как ускорить работу с большими логами на Linux Привет, друзья админов и тех, кто хочет быстро разобраться в огромных файлах! 🚀 Если вы сталкивались с огромными логами, кажется, что их обработка занимает вечность. Сегодня расскажу, как сделать это легко и быстро, не тратя уйму времени. Прежде всего — исключи ненужную информацию: - Используй tail для быстрого просмотра последних строк: tail -n 50 /var/log/syslog - Или less со поиском по файлу: less /var/log/syslog Но самое важное — искать прямо по интересующим тебе записям. Для этого: - Применяй grep: grep 'error' /var/log/syslog - Ограничивай вывод по времени или по разделам файла, разделяя его с помощью awk: awk '/2023-10-28/ {print}' /var/log/syslog Также помогает собрать статистику — подсчет уникальных ошибок: - Посчитаем их: grep 'error' /var/log/syslog | sort | uniq -c | sort -nr Иногда проще разбить большой лог на части: - Например, по дате: awk '/2023-10-28/' /var/log/syslog > errors_2023-10-28.log Нужно у