效果展示
Redis配置
在windows下安裝的redis,在安裝目錄找到redis.windows.conf
檔案,修改以下欄位(按實際情況設定):
slowlog-log-slower-than 100
slowlog-max-len 1000000複製程式碼
slowlog-log-slower-than:是配置需要日誌記錄的命令執行時間,單位是微秒,也就是說配置為100,會記錄命令執行時間為0.1ms以上的記錄。如果設定為0,就會記錄所有執行過的命令。
slowlog-max-len:是配置日誌記錄的條數,因為這個日誌也是儲存在記憶體中的,所以不需要擔心記錄日誌會影響效能,但是會消耗一定記憶體。
完成對這些資訊的獲取主要還是利用redis的一些命令,如果是win系統下安裝的redis,在安裝目錄執行redis-cli.exe
這個檔案,輸入info
,再回車,就可以看到輸出很多欄位的引數,部分具體引數對應的意思如下:
- server : 一般 Redis 伺服器資訊,包含以下域:
- redis_version : Redis 伺服器版本
- redis_git_sha1 : Git SHA1
- redis_git_dirty : Git dirty flag
- os : Redis 伺服器的宿主作業系統
- arch_bits : 架構(32 或 64 位)
- multiplexing_api : Redis 所使用的事件處理機制
- gcc_version : 編譯 Redis 時所使用的 GCC 版本
- process_id : 伺服器程式的 PID
- run_id : Redis 伺服器的隨機識別符號(用於 Sentinel 和叢集)
- tcp_port : TCP/IP 監聽埠
- uptime_in_seconds : 自 Redis 伺服器啟動以來,經過的秒數
- uptime_in_days : 自 Redis 伺服器啟動以來,經過的天數
- lru_clock : 以分鐘為單位進行自增的時鐘,用於 LRU 管理
- clients : 已連線客戶端資訊,包含以下域:
- connected_clients : 已連線客戶端的數量(不包括通過從屬伺服器連線的客戶端)
- client_longest_output_list : 當前連線的客戶端當中,最長的輸出列表
- client_longest_input_buf : 當前連線的客戶端當中,最大輸入快取
- blocked_clients : 正在等待阻塞命令(BLPOP、BRPOP、BRPOPLPUSH)的客戶端的數量
- memory : 記憶體資訊,包含以下域:
- used_memory : 由 Redis 分配器分配的記憶體總量,以位元組(byte)為單位
- used_memory_human : 以人類可讀的格式返回 Redis 分配的記憶體總量
- used_memory_rss : 從作業系統的角度,返回 Redis 已分配的記憶體總量(俗稱常駐集大小)。這個值和 top 、 ps 等命令的輸出一致。
- used_memory_peak : Redis 的記憶體消耗峰值(以位元組為單位)
- used_memory_peak_human : 以人類可讀的格式返回 Redis 的記憶體消耗峰值
- used_memory_lua : Lua 引擎所使用的記憶體大小(以位元組為單位)
- mem_fragmentation_ratio : used_memory_rss 和 used_memory 之間的比率
- mem_allocator : 在編譯時指定的, Redis 所使用的記憶體分配器。可以是 libc 、 jemalloc 或者 tcmalloc 。
在理想情況下, used_memory_rss 的值應該只比 used_memory 稍微高一點兒。
當 rss > used ,且兩者的值相差較大時,表示存在(內部或外部的)記憶體碎片。
記憶體碎片的比率可以通過 mem_fragmentation_ratio 的值看出。
當 used > rss 時,表示 Redis 的部分記憶體被作業系統換出到交換空間了,在這種情況下,操作可能會產生明顯的延遲。
當 Redis 釋放記憶體時,分配器可能會,也可能不會,將記憶體返還給作業系統。
如果 Redis 釋放了記憶體,卻沒有將記憶體返還給作業系統,那麼 used_memory 的值可能和作業系統顯示的 Redis 記憶體佔用並不一致。
檢視 used_memory_peak 的值可以驗證這種情況是否發生。 - persistence : RDB 和 AOF 的相關資訊
- stats : 一般統計資訊
- replication : 主/從複製資訊
- cpu : CPU 計算量統計資訊
- commandstats : Redis 命令統計資訊
- cluster : Redis 叢集資訊
- keyspace : 資料庫相關的統計資訊
java部分程式碼實現
上面是命令窗的方式,使用java的話,我們就是藉助jedis這個框架來幫我們完成:
@Component
public class RedisUtil {
@Autowired
JedisPool jedisPool;
// 獲取redis 伺服器資訊
public String getRedisInfo() {
Jedis jedis = null;
try {
jedis = jedisPool.getResource();
Client client = jedis.getClient();
client.info();
String info = client.getBulkReply();
return info;
} finally {
// 返還到連線池
jedis.close();
}
}
// 獲取日誌列表
public List<Slowlog> getLogs(long entries) {
Jedis jedis = null;
try {
jedis = jedisPool.getResource();
List<Slowlog> logList = jedis.slowlogGet(entries);
return logList;
} finally {
// 返還到連線池
jedis.close();
}
}
// 獲取日誌條數
public Long getLogsLen() {
Jedis jedis = null;
try {
jedis = jedisPool.getResource();
long logLen = jedis.slowlogLen();
return logLen;
} finally {
// 返還到連線池
jedis.close();
}
}
// 清空日誌
public String logEmpty() {
Jedis jedis = null;
try {
jedis = jedisPool.getResource();
return jedis.slowlogReset();
} finally {
// 返還到連線池
jedis.close();
}
}
// 獲取佔用記憶體大小
public Long dbSize() {
Jedis jedis = null;
try {
jedis = jedisPool.getResource();
// TODO 配置redis服務資訊
Client client = jedis.getClient();
client.dbSize();
return client.getIntegerReply();
} finally {
// 返還到連線池
jedis.close();
}
}
}複製程式碼
這樣輸出的都是和控制檯一樣的字串,所以還需要sevice來對資料進行封裝:
@Service
public class RedisService {
@Autowired
RedisUtil redisUtil;
public List<RedisInfoDetail> getRedisInfo() {
//獲取redis伺服器資訊
String info = redisUtil.getRedisInfo();
List<RedisInfoDetail> ridList = new ArrayList<RedisInfoDetail>();
String[] strs = info.split("\n");
RedisInfoDetail rif = null;
if (strs != null && strs.length > 0) {
for (int i = 0; i < strs.length; i++) {
rif = new RedisInfoDetail();
String s = strs[i];
String[] str = s.split(":");
if (str != null && str.length > 1) {
String key = str[0];
String value = str[1];
rif.setKey(key);
rif.setValue(value);
ridList.add(rif);
}
}
}
return ridList;
}
//獲取redis日誌列表
public List<Operate> getLogs(long entries) {
List<Slowlog> list = redisUtil.getLogs(entries);
List<Operate> opList = null;
Operate op = null;
boolean flag = false;
if (list != null && list.size() > 0) {
opList = new LinkedList<Operate>();
for (Slowlog sl : list) {
String args = JSON.toJSONString(sl.getArgs());
if (args.equals("[\"PING\"]") || args.equals("[\"SLOWLOG\",\"get\"]") || args.equals("[\"DBSIZE\"]") || args.equals("[\"INFO\"]")) {
continue;
}
op = new Operate();
flag = true;
op.setId(sl.getId());
op.setExecuteTime(getDateStr(sl.getTimeStamp() * 1000));
op.setUsedTime(sl.getExecutionTime()/1000.0 + "ms");
op.setArgs(args);
opList.add(op);
}
}
if (flag)
return opList;
else
return null;
}
//獲取日誌總數
public Long getLogLen() {
return redisUtil.getLogsLen();
}
//清空日誌
public String logEmpty() {
return redisUtil.logEmpty();
}
//獲取當前資料庫中key的數量
public Map<String,Object> getKeysSize() {
long dbSize = redisUtil.dbSize();
Map<String,Object> map = new HashMap<String, Object>();
map.put("create_time", new Date().getTime());
map.put("dbSize", dbSize);
return map;
}
//獲取當前redis使用記憶體大小情況
public Map<String,Object> getMemeryInfo() {
String[] strs = redisUtil.getRedisInfo().split("\n");
Map<String, Object> map = null;
for (int i = 0; i < strs.length; i++) {
String s = strs[i];
String[] detail = s.split(":");
if (detail[0].equals("used_memory")) {
map = new HashMap<String, Object>();
map.put("used_memory",detail[1].substring(0, detail[1].length() - 1));
map.put("create_time", new Date().getTime());
break;
}
}
return map;
}
private String getDateStr(long timeStmp) {
SimpleDateFormat dateFormat = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
return dateFormat.format(new Date(timeStmp));
}
}複製程式碼
上面我只是貼了部分核心程式碼,想具體去了解的可以去下載我的專案跑一下。
由於這個沒有什麼難度,只是就只是貼了些程式碼。後續也會一直更新,一步步將這個系統完善起來。
·······················································································································································
個人部落格:z77z.oschina.io/
此專案下載地址:git.oschina.net/z77z/spring…
·······················································································································································