kafka的Windows搭建及单机测试

2018-12-08 02:17 
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/tiantangdizhibuxiang/article/details/80556064

搭建环境

1. 安装JDK

1.1 安装文件:http://www.oracle.com/technetwork/java/javase/downloads/jre8-downloads-2133155.html下载Server JRE.

1.2 安装完成后需要添加以下的环境变量(右键点击我的电脑” -> "高级系统设置" -> "环境变量" ):

    1)JAVA_HOME: C:\Program Files (x86)\Java\jre1.8.0_60(这个是默认安装路径,如果安装过程中更改了安装目录,把更改后的路径填上就行了)

    2)PATH: 在现有的值后面添加"; %JAVA_HOME%\bin"

1.3 打开cmd运行 "java -version" 查看当前系统Java的版本:


2. 安装Zookeeper

    Kafka的运行依赖于Zookeeper,所以在运行Kafka之前我们需要安装并运行Zookeeper

2.1 下载安装文件: http://zookeeper.apache.org/releases.html

2.2 解压文件(本文解压到 G:\zookeeper-3.4.8

2.3 打开G:\zookeeper-3.4.8\conf,把zoo_sample.cfg重命名成zoo.cfg

2.4 从文本编辑器里打开zoo.cfg

2.5 dataDir的值改成“:\zookeeper-3.4.8\data”

2.6 添加如下系统变量:

    1)ZOOKEEPER_HOME: G:\zookeeper-3.4.8

    2)Path: 在现有的值后面添加";%ZOOKEEPER_HOME%\bin;"

2.7 运行Zookeeper: 打开cmd然后执行zkserver

3. 安装并运行Kafka

3.1 下载安装文件: http://kafka.apache.org/downloads.html

3.2 解压文件(本文解压到 G:\kafka_2.11-0.10.0.1

3.3 打开G:\kafka_2.11-0.10.0.1\config

3.4 从文本编辑器里打开 server.properties

3.5 log.dirs的值改成 “G:\kafka_2.11-0.10.0.1\kafka-logs”

3.6 打开cmd

3.7 进入kafka文件目录: cd /d G:\kafka_2.11-0.10.0.1\

3.8 输入并执行以打开kafka:

    .\bin\windows\kafka-server-start.bat.\config\server.properties

4. 创建topics

4.1 打开cmd 并进入G:\kafka_2.11-0.10.0.1\bin\windows

4.2 创建一个topic

    kafka-topics.bat --create --zookeeper localhost:2181--replication-factor 1 --partitions 1 --topic test 

5.打开一个Producer:

cd /d G:\kafka_2.11-0.10.0.1\bin\windows

    kafka-console-producer.bat --broker-list localhost:9092 --topictest

6. 打开一个Consumer:

cd /d G:\kafka_2.11-0.10.0.1\bin\windows

    kafka-console-consumer.bat --zookeeper localhost:2181 --topic test

然后就可以在Producer控制台窗口输入消息了。在消息输入过后,很快Consumer窗口就会显示出Producer发送的消息

至此,Kafka运行环境的搭建就完成了。

本地测试代码

1.java端生产数据, kafka集群消费数据:

1 创建maven工程,pom.xml中增加如下:

<dependency>    
     	<groupId>org.apache.kafka</groupId>    
     	<artifactId>kafka_2.10</artifactId>    
     	<version>0.8.2.0</version>    
</dependency> 

2 java代码:  向主题test内写入数据

import java.util.Properties;
import java.util.concurrent.TimeUnit;

import kafka.javaapi.producer.Producer;
import kafka.producer.KeyedMessage;
import kafka.producer.ProducerConfig;
import kafka.serializer.StringEncoder;

public class kafkaProducer extends Thread {

	private String topic;

	public kafkaProducer(String topic) {
		super();
		this.topic = topic;
	}

	@Override
	public void run() {
		Producer producer = createProducer();
		int i = 0;
		while (true) {
			producer.send(new KeyedMessage<Integer, String>(topic, "message: "+ i++));
			try {
				TimeUnit.SECONDS.sleep(1);
			} catch (InterruptedException e) {
				e.printStackTrace();
			}
		}
	}

	private Producer createProducer() {
		Properties properties = new Properties();
		properties.put("zookeeper.connect","192.168.1.110:2181,192.168.1.111:2181,192.168.1.112:2181");// 声明zk
		properties.put("serializer.class", StringEncoder.class.getName());
		properties.put("metadata.broker.list","192.168.1.110:9092,192.168.1.111:9093,192.168.1.112:9094");// 声明kafka																	// broker
		return new Producer<Integer, String>(new ProducerConfig(properties));
	}

	public static void main(String[] args) {
		new kafkaProducer("test").start();// 使用kafka集群中创建好的主题 test
	}

}

3  kafka集群中消费主题test的数据:

[root@h2master kafka]# bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginnin 
4   启动java代码,然后在看集群消费的数据如下:  

  1. message: 0    
  2. message: 1    
  3. message: 2    
  4. message: 3    
  5. message: 4    
  6. message: 5    
  7. message: 6    
  8. message: 7    
  9. message: 8    
  10. message: 9    
  11. message: 10    
  12. message: 11    
  13. message: 12    
  14. message: 13    
  15. message: 14    
  16. message: 15    
  17. message: 16    
  18. message: 17    
  19. message: 18    
  20. message: 19    
  21. message: 20    
  22. message: 21  

2.kafka 使用Java写消费者,这样 先运行kafkaProducer ,在运行kafkaConsumer,即可得到生产者的数据:

import java.util.HashMap;
import java.util.List;
import java.util.Map;
import java.util.Properties;

import kafka.consumer.Consumer;
import kafka.consumer.ConsumerConfig;
import kafka.consumer.ConsumerIterator;
import kafka.consumer.KafkaStream;
import kafka.javaapi.consumer.ConsumerConnector;

/**
 * 接收数据 
 * 接收到: message: 10 
 * 接收到: message: 11 
 * 接收到: message: 12 
 * 接收到: message: 13 
 * 接收到: message: 14
 * 
 * @author zm
 * 
 */
public class kafkaConsumer extends Thread {

	private String topic;

	public kafkaConsumer(String topic) {
		super();
		this.topic = topic;
	}

	@Override
	public void run() {
		ConsumerConnector consumer = createConsumer();
		Map<String, Integer> topicCountMap = new HashMap<String, Integer>();
		topicCountMap.put(topic, 1); // 一次从主题中获取一个数据
		Map<String, List<KafkaStream<byte[], byte[]>>> messageStreams = consumer.createMessageStreams(topicCountMap);
		KafkaStream<byte[], byte[]> stream = messageStreams.get(topic).get(0);// 获取每次接收到的这个数据
		ConsumerIterator<byte[], byte[]> iterator = stream.iterator();
		while (iterator.hasNext()) {
			String message = new String(iterator.next().message());
			System.out.println("接收到: " + message);
		}
	}

	private ConsumerConnector createConsumer() {
		Properties properties = new Properties();
		properties.put("zookeeper.connect","192.168.1.110:2181,192.168.1.111:2181,192.168.1.112:2181");// 声明zk
		properties.put("group.id", "group1");// 必须要使用别的组名称,如果生产者和消费者都在同一组,则不能访问同一组内的topic数据
		return Consumer.createJavaConsumerConnector(new ConsumerConfig(properties));
	}

	public static void main(String[] args) {
		new kafkaConsumer("test").start();// 使用kafka集群中创建好的主题 test

	}

}

转载连接地址:http://357029540.iteye.com/blog/2344579

发表评论

您必须 登录 才能发表留言!