大庆市网站建设_网站建设公司_jQuery_seo优化
2025/12/29 21:19:27 网站建设 项目流程

前言

熟练掌握 Linux 的日志分析命令是基本功,有助于排查解决问题。

tail 实时监控

对于大文件,cat 会导致屏幕刷屏,还容易把终端卡死。

# -f (follow):实时追加显示文件尾部内容
tail -f logs/application.log
# 只看最后 200 行,并保持实时刷新,避免被历史日志干扰tail -n 200 -f logs/application.log

此时只需要盯着最新的 log 打印就行。

less 按需加载

vim 会一次性加载整个文件占用大量内存,如果文件很大,就会卡住。

less 是按需加载,打开几个 G 的文件也极其流畅,且支持向后回溯。

真实场景:追查某笔客诉订单

运营反馈:刚才 10 点左右,订单号 ORD12345678 支付失败了。

你需要从日志末尾开始,往前反向查找这个订单号。

less logs/application.log

进入界面后的操作流:

  1. Shift + G 先跳到日志最末尾(因为报错通常发生在最近)。
  2. ?ORD12345678 输入问号+订单号,向上反向搜索。
  3. n:如果当前这行不是关键信息,按 n 继续向上找上一次出现的位置。
  4. Shift + F 如果看着看着,日志又更新了,按这个组合键可以让 less 进入类似 tail -f 的实时滚动模式;按 Ctrl + C 退回浏览模式。

grep 关键词搜索

显示上下文报错

# 搜索异常关键字,并显示该行 "前后各 20 行",-C (Context) 参数
grep -C 20 "NullPointerException" logs/application.log

全链路追踪 TraceId

# 搜索当前目录下所有以 app.log 开头的文件
grep "TraceId-20251219001" logs/app.log*

统计异常频次

# -c (count):只统计匹配的行数
grep -c "RedisConnectionException" logs/application.log

排除干扰项

# -v (invert):显示不包含 "HealthCheck" 的所有行
grep -v "HealthCheck" logs/application.log

sed 日志切割

有时候日志非常大,例如有 10GB,grep 搜出来的内容依然过多。

如果我们明确知道生产事故发生在 14:00 到 14:05 之间。

sed 可以帮我们把这段时间的日志单独切出来,保存成一个小文件分析。

# 语法:sed -n '/开始时间/,/结束时间/p' 源文件 > 目标文件
# 注意:时间格式必须和日志里的格式完全一致
sed -n '/2025-12-19 14:00/,/2025-12-19 14:05/p' logs/application.log > error_segment.log

awk 处理列数据

分析 Nginx 日志,找出访问量最高的 IP,假设日志格式第一列是 IP 。

awk '{print $1}' access.log | sort | uniq -c | sort -nr | head -n 10# 1. awk '{print $1}':提取第一列(IP)
# 2. sort:排序,把相同的 IP 排在一起
# 3. uniq -c:去重并统计每个 IP 出现的次数
# 4. sort -nr:按次数(n)倒序(r)排列
# 5. head -n 10:取前 10 名

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询