nginx日誌處理
今日運維同事發現nginx伺服器磁碟使用率很高,經過排查主要有2個大檔案
nginx/logs 目錄下的access.log檔案
nginx 目錄下的on 檔案
http {
include mime.types;
default_type application/octet-stream;
sendfile on;
keepalive_timeout 65;
server_tokens off;
client_max_body_size 60m;#上傳檔案大小設定
access_log on;#訪問日誌
log_format main '[$remote_addr][$remote_user][$upstream_addr][$time_local][$request]'
'[$status][$body_bytes_sent][$http_referer]'
'[$http_user_agent][$http_x_forwarded_for]';
access_log logs/access.log main;
#tcp_nopush on;
#gzip on;
gzip on;
gzip_min_length 10k;
gzip_buffers 4 16k;
#gzip_http_version 1.0;
gzip_comp_level 7;
gzip_types text/plain text-javascript application/x-javascript application/javascript text/css application/xml text/javascript image/jpeg image/gif image/png;
gzip_vary off;
gzip_disable "MSIE [1-6]\.";
access.log檔案,我記得是訪問日誌 ,按照慣性認為access_log off 就是關閉
測試後發現,不但沒關閉,反而多了一個off檔案
查詢資料後,發現nginx日誌關閉的方式也比較奇怪
最終解決方法如下:
#access_log on;#訪問日誌 註釋掉該行
access_log logs/access.log main; 修改為 access_log /dev/null main; 關閉日誌即可
修改完畢 重新啟用一下nginx
/usr/local/nginx/sbin/nginx -s reload
相關文章
- logstash nginx error access 日誌處理NginxError
- PHP日誌處理類PHP
- orbeon form 的日誌處理ORBORM
- shell日誌顏色處理
- DATAGUARD中手工處理日誌GAP
- node錯誤處理與日誌
- logstash kafka output 日誌處理Kafka
- oracle alert日誌亂碼處理Oracle
- strom打造日誌處理系統
- Db2 日誌處理二DB2
- Nginx日誌配置Nginx
- nginx切割日誌Nginx
- nginx日誌切割Nginx
- apache日誌匯入oracle(日誌經過python處理)ApacheOraclePython
- Nginx使用日誌輸出上游伺服器和自身的處理時間Nginx伺服器
- 如何在zuul上做日誌處理Zuul
- 搭建node服務(1):日誌處理
- 指令碼處理iOS的Crash日誌指令碼iOS
- 處理Apache日誌的Bash指令碼Apache指令碼
- 丟失重做日誌怎麼處理
- SQL Server日誌檔案總結及日誌滿的處理SQLServer
- 處理nginx訪問日誌,篩選時間大於1秒的請求Nginx
- Nginx日誌輪訓Nginx
- nginx日誌切割配置Nginx
- [zt] SQL Server日誌檔案總結及日誌滿的處理SQLServer
- node專案錯誤處理與日誌
- 基於go開發日誌處理包Go
- ELK 處理 Spring Boot 日誌,不錯!Spring Boot
- 利用 ELK 處理 Percona 審計日誌
- 日誌和實時流計算處理
- 藍屏處理日誌: FuFlt64.sys
- SQL Server事務日誌的處理方法SQLServer
- ORACLE 告警日誌alert過大的處理Oracle
- IBM DB2 日誌處理一IBMDB2
- SQLServer資料庫日誌太大處理方式SQLServer資料庫
- sql server日誌檔案總結及日誌滿的處理辦法SQLServer
- Nginx日誌格式設定Nginx
- 自定義Nginx日誌格式Nginx