文章來自微信公眾號:Go語言圈
參考連結:www.jb51.net/article/231909.htm
前置知識:
- go基本語法
- 訊息佇列概念,也就三個:生產者、消費者、佇列
目的
- 沒想著實現多複雜,因為時間有限,就mini就好,mini到什麼程度呢
- 使用雙向連結串列資料結構作為佇列
- 有多個topic可供生產者生成訊息和消費者消費訊息
- 支援生產者併發寫
- 支援消費者讀,且ok後,從佇列刪除
- 訊息不丟失(持久化)
- 高效能(先這樣想)
設計
整體架構
協議
通訊協議底層使用tcp,mq是基於tcp自定義了一個協議,協議如下
type Msg struct {
Id int64
TopicLen int64
Topic string
// 1-consumer 2-producer 3-comsumer-ack 4-error
MsgType int64 // 訊息型別
Len int64 // 訊息長度
Payload []byte // 訊息
}
Payload
使用位元組陣列,是因為不管資料是什麼,只當做位元組陣列來處理即可。Msg
承載著生產者生產的訊息,消費者消費的訊息,ACK
、和錯誤訊息,前兩者會有負載,而後兩者負載和長度都為空。
協議的編解碼處理,就是對位元組的處理,接下來有從位元組轉為Msg
,和從Msg
轉為位元組兩個函式
func BytesToMsg(reader io.Reader) Msg {
m := Msg{}
var buf [128]byte
n, err := reader.Read(buf[:])
if err != nil {
fmt.Println("read failed, err:", err)
}
fmt.Println("read bytes:", n)
// id
buff := bytes.NewBuffer(buf[0:8])
binary.Read(buff, binary.LittleEndian, &m.Id)
// topiclen
buff = bytes.NewBuffer(buf[8:16])
binary.Read(buff, binary.LittleEndian, &m.TopicLen)
// topic
msgLastIndex := 16 + m.TopicLen
m.Topic = string(buf[16: msgLastIndex])
// msgtype
buff = bytes.NewBuffer(buf[msgLastIndex : msgLastIndex + 8])
binary.Read(buff, binary.LittleEndian, &m.MsgType)
buff = bytes.NewBuffer(buf[msgLastIndex : msgLastIndex + 16])
binary.Read(buff, binary.LittleEndian, &m.Len)
if m.Len <= 0 {
return m
}
m.Payload = buf[msgLastIndex + 16:]
return m
}
func MsgToBytes(msg Msg) []byte {
msg.TopicLen = int64(len([]byte(msg.Topic)))
msg.Len = int64(len([]byte(msg.Payload)))
var data []byte
buf := bytes.NewBuffer([]byte{})
binary.Write(buf, binary.LittleEndian, msg.Id)
data = append(data, buf.Bytes()...)
buf = bytes.NewBuffer([]byte{})
binary.Write(buf, binary.LittleEndian, msg.TopicLen)
data = append(data, buf.Bytes()...)
data = append(data, []byte(msg.Topic)...)
buf = bytes.NewBuffer([]byte{})
binary.Write(buf, binary.LittleEndian, msg.MsgType)
data = append(data, buf.Bytes()...)
buf = bytes.NewBuffer([]byte{})
binary.Write(buf, binary.LittleEndian, msg.Len)
data = append(data, buf.Bytes()...)
data = append(data, []byte(msg.Payload)...)
return data
}
佇列
使用container/list
,實現先入先出,生產者在隊尾寫,消費者在隊頭讀取
package broker
import (
"container/list"
"sync"
)
type Queue struct {
len int
data list.List
}
var lock sync.Mutex
func (queue *Queue) offer(msg Msg) {
queue.data.PushBack(msg)
queue.len = queue.data.Len()
}
func (queue *Queue) poll() Msg{
if queue.len == 0 {
return Msg{}
}
msg := queue.data.Front()
return msg.Value.(Msg)
}
func (queue *Queue) delete(id int64) {
lock.Lock()
for msg := queue.data.Front(); msg != nil; msg = msg.Next() {
if msg.Value.(Msg).Id == id {
queue.data.Remove(msg)
queue.len = queue.data.Len()
break
}
}
lock.Unlock()
}
方法offer
往佇列裡插入資料,poll
從佇列頭讀取資料素,delete
根據訊息ID從佇列刪除資料。這裡使用Queue
結構體對List
進行封裝,其實是有必要的,List
作為底層的資料結構,我們希望隱藏更多的底層操作,只給客戶提供基本的操作。
delete
操作是在消費者消費成功且傳送ACK
後,對訊息從佇列裡移除的,因為消費者可以多個同時消費,所以這裡進入臨界區時加鎖(em,加鎖是否就一定會影響對效能有較大的影響呢)。
broker
broker作為伺服器角色,負責接收連線,接收和響應請求。
package broker
import (
"bufio"
"net"
"os"
"sync"
"time"
)
var topics = sync.Map{}
func handleErr(conn net.Conn) {
defer func() {
if err := recover(); err != nil {
println(err.(string))
conn.Write(MsgToBytes(Msg{MsgType: 4}))
}
}()
}
func Process(conn net.Conn) {
handleErr(conn)
reader := bufio.NewReader(conn)
msg := BytesToMsg(reader)
queue, ok := topics.Load(msg.Topic)
var res Msg
if msg.MsgType == 1 {
// comsumer
if queue == nil || queue.(*Queue).len == 0{
return
}
msg = queue.(*Queue).poll()
msg.MsgType = 1
res = msg
} else if msg.MsgType == 2 {
// producer
if ! ok {
queue = &Queue{}
queue.(*Queue).data.Init()
topics.Store(msg.Topic, queue)
}
queue.(*Queue).offer(msg)
res = Msg{Id: msg.Id, MsgType: 2}
} else if msg.MsgType == 3 {
// consumer ack
if queue == nil {
return
}
queue.(*Queue).delete(msg.Id)
}
conn.Write(MsgToBytes(res))
}
MsgType
等於1時,直接消費訊息;MsgType
等於2時是生產者生產訊息,如果佇列為空,那麼還需建立一個新的佇列,放在對應的topic
下;MsgType
等於3時,代表消費者成功消費,可以
刪除訊息
我們說訊息不丟失,這裡實現不完全,我就實現了持久化(持久化也沒全部實現)。思路就是該topic
對應的佇列裡的訊息,按協議格式進行序列化,當broker
啟動時,從檔案恢復。
持久化需要考慮的是增量還是全量,需要儲存多久,這些都會影響實現的難度和效能(想想Kafka
和Redis
的持久化),這裡表示簡單實現就好:定時器定時儲存
func Save() {
ticker := time.NewTicker(60)
for {
select {
case <-ticker.C:
topics.Range(func(key, value interface{}) bool {
if value == nil {
return false
}
file, _ := os.Open(key.(string))
if file == nil {
file, _ = os.Create(key.(string))
}
for msg := value.(*Queue).data.Front(); msg != nil; msg = msg.Next() {
file.Write(MsgToBytes(msg.Value.(Msg)))
}
_ := file.Close()
return false
})
default:
time.Sleep(1)
}
}
}
有一個問題是,當上面的delete
操作時,這裡的file
檔案需不需要跟著delete
掉對應的訊息?答案是需要刪除的,如果不刪除,只能等下一次的全量持久化來覆蓋了,中間就有髒資料問題.
下面是啟動邏輯
package main
import (
"awesomeProject/broker"
"fmt"
"net"
)
func main() {
listen, err := net.Listen("tcp", "127.0.0.1:12345")
if err != nil {
fmt.Print("listen failed, err:", err)
return
}
go broker.Save()
for {
conn, err := listen.Accept()
if err != nil {
fmt.Print("accept failed, err:", err)
continue
}
go broker.Process(conn)
}
}
生產者
package main
import (
"awesomeProject/broker"
"fmt"
"net"
)
func produce() {
conn, err := net.Dial("tcp", "127.0.0.1:12345")
if err != nil {
fmt.Print("connect failed, err:", err)
}
defer conn.Close()
msg := broker.Msg{Id: 1102, Topic: "topic-test", MsgType: 2, Payload: []byte("我")}
n, err := conn.Write(broker.MsgToBytes(msg))
if err != nil {
fmt.Print("write failed, err:", err)
}
fmt.Print(n)
}
消費者
package main
import (
"awesomeProject/broker"
"bytes"
"fmt"
"net"
)
func comsume() {
conn, err := net.Dial("tcp", "127.0.0.1:12345")
if err != nil {
fmt.Print("connect failed, err:", err)
}
defer conn.Close()
msg := broker.Msg{Topic: "topic-test", MsgType: 1}
n, err := conn.Write(broker.MsgToBytes(msg))
if err != nil {
fmt.Println("write failed, err:", err)
}
fmt.Println("n", n)
var res [128]byte
conn.Read(res[:])
buf := bytes.NewBuffer(res[:])
receMsg := broker.BytesToMsg(buf)
fmt.Print(receMsg)
// ack
conn, _ = net.Dial("tcp", "127.0.0.1:12345")
l, e := conn.Write(broker.MsgToBytes(broker.Msg{Id: receMsg.Id, Topic: receMsg.Topic, MsgType: 3}))
if e != nil {
fmt.Println("write failed, err:", err)
}
fmt.Println("l:", l)
}
消費者這裡ack
時重新建立了連線,如果不建立連線的話,那服務端那裡就需要一直從conn
讀取資料,直到結束。思考一下,像RabbitMQ
的ack
就有自動和手工的ack
,如果是手工的ack
,必然需要一個新的連線,因為不知道客戶端什麼時候傳送ack
,自動的話,當然可以使用同一個連線,but
這裡就簡單建立一條新連線吧
啟動
先啟動broker
,再啟動producer
,然後啟動comsumer
能實現傳送訊息到佇列.
本作品採用《CC 協議》,轉載必須註明作者和本文連結