kafka java示例

瓜瓜東西發表於2014-09-05
我使用的kafka版本是:0.7.2

jdk版本是:1.6.0_20

http://kafka.apache.org/07/quickstart.html官方給的示例並不是很完整,以下程式碼是經過我補充的並且編譯後能執行的。


Producer Code

[java] view plaincopy
  1. import java.util.*;  
  2. import kafka.message.Message;  
  3. import kafka.producer.ProducerConfig;  
  4. import kafka.javaapi.producer.Producer;  
  5. import kafka.javaapi.producer.ProducerData;  
  6.   
  7. public class ProducerSample {  
  8.   
  9.   
  10.     public static void main(String[] args) {  
  11.         ProducerSample ps = new ProducerSample();  
  12.   
  13.         Properties props = new Properties();  
  14.         props.put("zk.connect""127.0.0.1:2181");  
  15.         props.put("serializer.class""kafka.serializer.StringEncoder");  
  16.   
  17.         ProducerConfig config = new ProducerConfig(props);  
  18.         Producer<String, String> producer = new Producer<String, String>(config);  
  19.         ProducerData<String, String> data = new ProducerData<String, String>("test-topic""test-message2");  
  20.         producer.send(data);  
  21.         producer.close();  
  22.     }  
  23. }  



Consumer Code

[java] view plaincopy
  1. import java.nio.ByteBuffer;  
  2. import java.util.HashMap;  
  3. import java.util.List;  
  4. import java.util.Map;  
  5. import java.util.Properties;  
  6. import java.util.concurrent.ExecutorService;  
  7. import java.util.concurrent.Executors;  
  8. import kafka.consumer.Consumer;  
  9. import kafka.consumer.ConsumerConfig;  
  10. import kafka.consumer.KafkaStream;  
  11. import kafka.javaapi.consumer.ConsumerConnector;  
  12. import kafka.message.Message;  
  13. import kafka.message.MessageAndMetadata;  
  14.   
  15. public class ConsumerSample {  
  16.   
  17.     public static void main(String[] args) {  
  18.                 // specify some consumer properties  
  19.         Properties props = new Properties();  
  20.         props.put("zk.connect""localhost:2181");  
  21.         props.put("zk.connectiontimeout.ms""1000000");  
  22.         props.put("groupid""test_group");  
  23.   
  24.                 // Create the connection to the cluster  
  25.         ConsumerConfig consumerConfig = new ConsumerConfig(props);  
  26.         ConsumerConnector consumerConnector = Consumer.createJavaConsumerConnector(consumerConfig);  
  27.   
  28.                 // create 4 partitions of the stream for topic “test-topic”, to allow 4 threads to consume  
  29.         HashMap<String, Integer> map = new HashMap<String, Integer>();  
  30.         map.put("test-topic"4);  
  31.         Map<String, List<KafkaStream<Message>>> topicMessageStreams =  
  32.                 consumerConnector.createMessageStreams(map);  
  33.         List<KafkaStream<Message>> streams = topicMessageStreams.get("test-topic");  
  34.   
  35.                 // create list of 4 threads to consume from each of the partitions   
  36.         ExecutorService executor = Executors.newFixedThreadPool(4);  
  37.   
  38.                 // consume the messages in the threads  
  39.         for (final KafkaStream<Message> stream : streams) {  
  40.             executor.submit(new Runnable() {  
  41.                 public void run() {  
  42.                     for (MessageAndMetadata msgAndMetadata : stream) {  
  43.                         // process message (msgAndMetadata.message())  
  44.                         System.out.println("topic: " + msgAndMetadata.topic());  
  45.                         Message message = (Message) msgAndMetadata.message();  
  46.                         ByteBuffer buffer = message.payload();  
  47.                     <span style="white-space:pre">  </span>byte[] bytes = new byte[message.payloadSize()];  
  48.                         buffer.get(bytes);  
  49.                         String tmp = new String(bytes);  
  50.                         System.out.println("message content: " + tmp);  
  51.                     }  
  52.                 }  
  53.             });  
  54.         }  
  55.   
  56.     }  
  57. }  

分別啟動zookeeper,kafka server之後,依次執行Producer,Consumer的程式碼

執行ProducerSample:


執行ConsumerSample:



由於本人不熟悉java的多執行緒,將官方給的Consumer Code做點小改動,如下所示:

[java] view plaincopy
  1. import java.nio.ByteBuffer;  
  2. import java.util.HashMap;  
  3. import java.util.List;  
  4. import java.util.Map;  
  5. import java.util.Properties;  
  6. import kafka.consumer.Consumer;  
  7. import kafka.consumer.ConsumerConfig;  
  8. import kafka.consumer.KafkaStream;  
  9. import kafka.javaapi.consumer.ConsumerConnector;  
  10. import kafka.message.Message;  
  11. import kafka.message.MessageAndMetadata;  
  12.   
  13. public class ConsumerSample2 {  
  14.   
  15.     public static void main(String[] args) {  
  16.         // specify some consumer properties  
  17.         Properties props = new Properties();  
  18.         props.put("zk.connect""localhost:2181");  
  19.         props.put("zk.connectiontimeout.ms""1000000");  
  20.         props.put("groupid""test_group");  
  21.   
  22.         // Create the connection to the cluster  
  23.         ConsumerConfig consumerConfig = new ConsumerConfig(props);  
  24.         ConsumerConnector consumerConnector = Consumer.createJavaConsumerConnector(consumerConfig);  
  25.   
  26.         HashMap<String, Integer> map = new HashMap<String, Integer>();  
  27.         map.put("test-topic"1);  
  28.         Map<String, List<KafkaStream<Message>>> topicMessageStreams =  
  29.                 consumerConnector.createMessageStreams(map);  
  30.         List<KafkaStream<Message>> streams = topicMessageStreams.get("test-topic");  
  31.   
  32.         <strong>for (final KafkaStream<Message> stream : streams) {  
  33.             for (MessageAndMetadata msgAndMetadata : stream) {  
  34.                 // process message (msgAndMetadata.message())  
  35.                 System.out.println("topic: " + msgAndMetadata.topic());  
  36.                 Message message = (Message) msgAndMetadata.message();  
  37.                 ByteBuffer buffer = message.payload();  
  38.                 byte[] bytes = new byte[message.payloadSize()];  
  39.                 buffer.get(bytes);  
  40.                 String tmp = new String(bytes);  
  41.                 System.out.println("message content: " + tmp);  
  42.             }  
  43.         }</strong>  
  44.     }  
  45. }  

我在Producer端又傳送了一條“test-message2”的訊息,Consumer收到了兩條訊息,如下所示:


kafka作為分散式日誌收集或系統監控服務,我們有必要在合適的場合使用它。kafka的部署包括zookeeper環境/kafka環境,同時還需要進行一些配置操作.接下來介紹如何使用kafka.

    我們使用3個zookeeper例項構建zk叢集,使用2個kafka broker構建kafka叢集.

    其中kafka為0.8V,zookeeper為3.4.5V

 

一.Zookeeper叢集構建

    我們有3個zk例項,分別為zk-0,zk-1,zk-2;如果你僅僅是測試使用,可以使用1個zk例項.

    1) zk-0

    調整配置檔案:

Php程式碼  收藏程式碼
  1. clientPort=2181  
  2. server.0=127.0.0.1:2888:3888  
  3. server.1=127.0.0.1:2889:3889  
  4. server.2=127.0.0.1:2890:3890  
  5. ##只需要修改上述配置,其他配置保留預設值  

    啟動zookeeper

Java程式碼  收藏程式碼
  1. ./zkServer.sh start  

    2) zk-1

    調整配置檔案(其他配置和zk-0一隻):

Php程式碼  收藏程式碼
  1. clientPort=2182  
  2. ##只需要修改上述配置,其他配置保留預設值  

    啟動zookeeper

 

Java程式碼  收藏程式碼
  1. ./zkServer.sh start  

    3) zk-2

    調整配置檔案(其他配置和zk-0一隻):

Php程式碼  收藏程式碼
  1. clientPort=2183  
  2. ##只需要修改上述配置,其他配置保留預設值  

    啟動zookeeper

 

Java程式碼  收藏程式碼
  1. ./zkServer.sh start  

  

二. Kafka叢集構建

    因為Broker配置檔案涉及到zookeeper的相關約定,因此我們先展示broker配置檔案.我們使用2個kafka broker來構建這個叢集環境,分別為kafka-0,kafka-1.

    1) kafka-0

    在config目錄下修改配置檔案為:

Java程式碼  收藏程式碼
  1. broker.id=0  
  2. port=9092  
  3. num.network.threads=2  
  4. num.io.threads=2  
  5. socket.send.buffer.bytes=1048576  
  6. socket.receive.buffer.bytes=1048576  
  7. socket.request.max.bytes=104857600  
  8. log.dir=./logs  
  9. num.partitions=2  
  10. log.flush.interval.messages=10000  
  11. log.flush.interval.ms=1000  
  12. log.retention.hours=168  
  13. #log.retention.bytes=1073741824  
  14. log.segment.bytes=536870912  
  15. ##replication機制,讓每個topic的partitions在kafka-cluster中備份2個  
  16. ##用來提高cluster的容錯能力..  
  17. default.replication.factor=1  
  18. log.cleanup.interval.mins=10  
  19. zookeeper.connect=127.0.0.1:2181,127.0.0.1:2182,127.0.0.1:2183  
  20. zookeeper.connection.timeout.ms=1000000  

    因為kafka用scala語言編寫,因此執行kafka需要首先準備scala相關環境。

Java程式碼  收藏程式碼
  1. > cd kafka-0  
  2. > ./sbt update  
  3. > ./sbt package  
  4. > ./sbt assembly-package-dependency   

    其中最後一條指令執行有可能出現異常,暫且不管。 啟動kafka broker:

Java程式碼  收藏程式碼
  1. > JMS_PORT=9997 bin/kafka-server-start.sh config/server.properties &  

    因為zookeeper環境已經正常執行了,我們無需通過kafka來掛載啟動zookeeper.如果你的一臺機器上部署了多個kafka broker,你需要宣告JMS_PORT.

    2) kafka-1

Java程式碼  收藏程式碼
  1. broker.id=1  
  2. port=9093  
  3. ##其他配置和kafka-0保持一致  

    然後和kafka-0一樣執行打包命令,然後啟動此broker.

Java程式碼  收藏程式碼
  1. > JMS_PORT=9998 bin/kafka-server-start.sh config/server.properties &  

    仍然可以通過如下指令檢視topic的"partition"/"replicas"的分佈和存活情況.

Java程式碼  收藏程式碼
  1. > bin/kafka-list-topic.sh --zookeeper localhost:2181  
  2. topic: my-replicated-topic  partition: 0    leader: 2   replicas: 1,2,0 isr: 2  
  3. topic: test partition: 0    leader: 0   replicas: 0 isr: 0   

    到目前為止環境已經OK了,那我們就開始展示程式設計例項吧。[配置引數詳解]

 

三.專案準備

    專案基於maven構建,不得不說kafka java客戶端實在是太糟糕了;構建環境會遇到很多麻煩。建議參考如下pom.xml;其中各個依賴包必須版本協調一致。如果kafka client的版本和kafka server的版本不一致,將會有很多異常,比如"broker id not exists"等;因為kafka從0.7升級到0.8之後(正名為2.8.0),client與server通訊的protocol已經改變.

Java程式碼  收藏程式碼
  1. <dependencies>  
  2.     <dependency>  
  3.         <groupId>log4j</groupId>  
  4.         <artifactId>log4j</artifactId>  
  5.         <version>1.2.14</version>  
  6.     </dependency>  
  7.     <dependency>  
  8.         <groupId>org.apache.kafka</groupId>  
  9.         <artifactId>kafka_2.8.2</artifactId>  
  10.         <version>0.8.0</version>  
  11.         <exclusions>  
  12.             <exclusion>  
  13.                 <groupId>log4j</groupId>  
  14.                 <artifactId>log4j</artifactId>  
  15.             </exclusion>  
  16.         </exclusions>  
  17.     </dependency>  
  18.     <dependency>  
  19.         <groupId>org.scala-lang</groupId>  
  20.         <artifactId>scala-library</artifactId>  
  21.         <version>2.8.2</version>  
  22.     </dependency>  
  23.     <dependency>  
  24.         <groupId>com.yammer.metrics</groupId>  
  25.         <artifactId>metrics-core</artifactId>  
  26.         <version>2.2.0</version>  
  27.     </dependency>  
  28.     <dependency>  
  29.         <groupId>com.101tec</groupId>  
  30.         <artifactId>zkclient</artifactId>  
  31.         <version>0.3</version>  
  32.     </dependency>  
  33. </dependencies>  

 

四.Producer端程式碼

    1) producer.properties檔案:此檔案放在/resources目錄下

Java程式碼  收藏程式碼
  1. #partitioner.class=  
  2. ##broker列表可以為kafka server的子集,因為producer需要從broker中獲取metadata  
  3. ##儘管每個broker都可以提供metadata,此處還是建議,將所有broker都列舉出來  
  4. metadata.broker.list=127.0.0.1:9092,127.0.0.1:9093  
  5. ##,127.0.0.1:9093  
  6. ##同步,建議為async  
  7. producer.type=sync  
  8. compression.codec=0  
  9. serializer.class=kafka.serializer.StringEncoder  
  10. ##在producer.type=async時有效  
  11. #batch.num.messages=100  

    2) LogProducer.java程式碼樣例

Java程式碼  收藏程式碼
  1. package com.test.kafka;  
  2.   
  3. import java.util.ArrayList;  
  4. import java.util.Collection;  
  5. import java.util.List;  
  6. import java.util.Properties;  
  7.   
  8. import kafka.javaapi.producer.Producer;  
  9. import kafka.producer.KeyedMessage;  
  10. import kafka.producer.ProducerConfig;  
  11. public class LogProducer {  
  12.   
  13.     private Producer<String,String> inner;  
  14.     public LogProducer() throws Exception{  
  15.         Properties properties = new Properties();  
  16.         properties.load(ClassLoader.getSystemResourceAsStream("producer.properties"));  
  17.         ProducerConfig config = new ProducerConfig(properties);  
  18.         inner = new Producer<String, String>(config);  
  19.     }  
  20.   
  21.       
  22.     public void send(String topicName,String message) {  
  23.         if(topicName == null || message == null){  
  24.             return;  
  25.         }  
  26.         KeyedMessage<String, String> km = new KeyedMessage<String, String>(topicName,message);//如果具有多個partitions,請使用new KeyedMessage(String topicName,K key,V value).  
  27.         inner.send(km);  
  28.     }  
  29.       
  30.     public void send(String topicName,Collection<String> messages) {  
  31.         if(topicName == null || messages == null){  
  32.             return;  
  33.         }  
  34.         if(messages.isEmpty()){  
  35.             return;  
  36.         }  
  37.         List<KeyedMessage<String, String>> kms = new ArrayList<KeyedMessage<String, String>>();  
  38.         for(String entry : messages){  
  39.             KeyedMessage<String, String> km = new KeyedMessage<String, String>(topicName,entry);  
  40.             kms.add(km);  
  41.         }  
  42.         inner.send(kms);  
  43.     }  
  44.       
  45.     public void close(){  
  46.         inner.close();  
  47.     }  
  48.       
  49.     /** 
  50.      * @param args 
  51.      */  
  52.     public static void main(String[] args) {  
  53.         LogProducer producer = null;  
  54.         try{  
  55.             producer = new LogProducer();  
  56.             int i=0;  
  57.             while(true){  
  58.                 producer.send("test-topic""this is a sample" + i);  
  59.                 i++;  
  60.                 Thread.sleep(2000);  
  61.             }  
  62.         }catch(Exception e){  
  63.             e.printStackTrace();  
  64.         }finally{  
  65.             if(producer != null){  
  66.                 producer.close();  
  67.             }  
  68.         }  
  69.   
  70.     }  
  71.   
  72. }  

 

五.Consumer端

     1) consumer.properties:檔案位於/resources目錄下

Java程式碼  收藏程式碼
  1. zookeeper.connect=127.0.0.1:2181,127.0.0.1:2182,127.0.0.1:2183  
  2. ##,127.0.0.1:2182,127.0.0.1:2183  
  3. # timeout in ms for connecting to zookeeper  
  4. zookeeper.connectiontimeout.ms=1000000  
  5. #consumer group id  
  6. group.id=test-group  
  7. #consumer timeout  
  8. #consumer.timeout.ms=5000  
  9. auto.commit.enable=true  
  10. auto.commit.interval.ms=60000  

    2) LogConsumer.java程式碼樣例

Java程式碼  收藏程式碼
  1. package com.test.kafka;  
  2.   
  3. import java.util.HashMap;  
  4. import java.util.List;  
  5. import java.util.Map;  
  6. import java.util.Properties;  
  7. import java.util.concurrent.ExecutorService;  
  8. import java.util.concurrent.Executors;  
  9.   
  10. import kafka.consumer.Consumer;  
  11. import kafka.consumer.ConsumerConfig;  
  12. import kafka.consumer.ConsumerIterator;  
  13. import kafka.consumer.KafkaStream;  
  14. import kafka.javaapi.consumer.ConsumerConnector;  
  15. import kafka.message.MessageAndMetadata;  
  16. public class LogConsumer {  
  17.   
  18.     private ConsumerConfig config;  
  19.     private String topic;  
  20.     private int partitionsNum;  
  21.     private MessageExecutor executor;  
  22.     private ConsumerConnector connector;  
  23.     private ExecutorService threadPool;  
  24.     public LogConsumer(String topic,int partitionsNum,MessageExecutor executor) throws Exception{  
  25.         Properties properties = new Properties();  
  26.         properties.load(ClassLoader.getSystemResourceAsStream("consumer.properties"));  
  27.         config = new ConsumerConfig(properties);  
  28.         this.topic = topic;  
  29.         this.partitionsNum = partitionsNum;  
  30.         this.executor = executor;  
  31.     }  
  32.       
  33.     public void start() throws Exception{  
  34.         connector = Consumer.createJavaConsumerConnector(config);  
  35.         Map<String,Integer> topics = new HashMap<String,Integer>();  
  36.         topics.put(topic, partitionsNum);  
  37.         Map<String, List<KafkaStream<byte[], byte[]>>> streams = connector.createMessageStreams(topics);  
  38.         List<KafkaStream<byte[], byte[]>> partitions = streams.get(topic);  
  39.         threadPool = Executors.newFixedThreadPool(partitionsNum);  
  40.         for(KafkaStream<byte[], byte[]> partition : partitions){  
  41.             threadPool.execute(new MessageRunner(partition));  
  42.         }   
  43.     }  
  44.   
  45.           
  46.     public void close(){  
  47.         try{  
  48.             threadPool.shutdownNow();  
  49.         }catch(Exception e){  
  50.             //  
  51.         }finally{  
  52.             connector.shutdown();  
  53.         }  
  54.           
  55.     }  
  56.       
  57.     class MessageRunner implements Runnable{  
  58.         private KafkaStream<byte[], byte[]> partition;  
  59.           
  60.         MessageRunner(KafkaStream<byte[], byte[]> partition) {  
  61.             this.partition = partition;  
  62.         }  
  63.           
  64.         public void run(){  
  65.             ConsumerIterator<byte[], byte[]> it = partition.iterator();  
  66.             while(it.hasNext()){  
  67.                                 //connector.commitOffsets();手動提交offset,當autocommit.enable=false時使用  
  68.                 MessageAndMetadata<byte[],byte[]> item = it.next();  
  69.                 System.out.println("partiton:" + item.partition());  
  70.                 System.out.println("offset:" + item.offset());  
  71.                 executor.execute(new String(item.message()));//UTF-8,注意異常  
  72.             }  
  73.         }  
  74.     }  
  75.       
  76.     interface MessageExecutor {  
  77.           
  78.         public void execute(String message);  
  79.     }  
  80.       
  81.     /** 
  82.      * @param args 
  83.      */  
  84.     public static void main(String[] args) {  
  85.         LogConsumer consumer = null;  
  86.         try{  
  87.             MessageExecutor executor = new MessageExecutor() {  
  88.                   
  89.                 public void execute(String message) {  
  90.                     System.out.println(message);  
  91.                       
  92.                 }  
  93.             };  
  94.             consumer = new LogConsumer("test-topic"2, executor);  
  95.             consumer.start();  
  96.         }catch(Exception e){  
  97.             e.printStackTrace();  
  98.         }finally{  
  99. //          if(consumer != null){  
  100. //              consumer.close();  
  101. //          }  
  102.         }  
  103.   
  104.     }  
  105.   
  106. }  

    需要提醒的是,上述LogConsumer類中,沒有太多的關注異常情況,必須在MessageExecutor.execute()方法中丟擲異常時的情況.

    在測試時,建議優先啟動consumer,然後再啟動producer,這樣可以實時的觀測到最新的訊息。

相關文章