www.icesr.com
IT运维工程师的摇篮

KafKa(0.10)安装部署和测试

Step 1: 下载代码

http://kafka.apache.org/downloads.html
0.10.0.0是最新版本。 当前的稳定版本是0.10.0.0。

下载0.10.0.0版本并且解压它。

<strong>&gt; tar -zxvf kafka_2.10-0.10.0.0.tgz&nbsp;
&gt; cd kafka_2.11-0.10.0.0</strong>

Step 2: 启动服务

运行kafka需要使用Zookeeper,所有你需要先启动一个Zookeeper服务器,如果你没有Zookeeper,你可以使用kafka自带打包和配置好的Zookeeper。

<strong>&gt; bin/zookeeper-server-start.sh config/zookeeper.properties</strong>[2013-04-22 15:01:37,495] INFO Reading configuration from: config/zookeeper.properties (org.apache.zookeeper.server.quorum.QuorumPeerConfig)
...

现在启动kafka服务

<strong>&gt; bin/kafka-server-start.sh config/server.properties &amp;</strong>[2013-04-22 15:01:47,028] INFO Verifying properties (kafka.utils.VerifiableProperties)
[2013-04-22 15:01:47,051] INFO Property socket.send.buffer.bytes is overridden to 1048576 (kafka.utils.VerifiableProperties)
...

Step 3: 新建一个主题(topic)

创建一个名为“test”的Topic,只有一个分区和一个备份:

<strong>&gt; bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test</strong>

创建好之后,可以通过运行以下命令,查看已创建的topic信息:

<strong>&gt; bin/kafka-topics.sh --list --zookeeper localhost:2181</strong>test

或者,除了手工创建topic外,你也可以配置你的broker,当发布一个不存在的topic时自动创建topic。

Step 4: 发送消息

Kafka提供了一个命令行的工具,可以从输入文件或者命令行中读取消息并发送给Kafka集群。每一行是一条消息。

运行producer(生产者),然后在控制台输入几条消息到服务器。

<strong>&gt; bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test </strong>This is a message
This is another message

Step 5: 消费消息

Kafka也提供了一个消费消息的命令行工具,将存储的信息输出出来。 

<strong>&gt; bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning</strong>This is a message
This is another message

如果你有2台不同的终端上运行上述命令,那么当你在运行生产者时,消费者就能消费到生产者发送的消息。

所有的命令行工具有很多的选项,你可以查看文档来了解更多的功能。

Step 6: 设置多个broker集群

到目前,我们只是单一的运行一个broker,,没什么意思。对于Kafka,一个broker仅仅只是一个集群的大小, 所有让我们多设几个broker.

首先为每个broker创建一个配置文件: 

<strong>&gt; cp config/server.properties config/server-1.properties 
&gt; cp config/server.properties config/server-2.properties</strong>

现在编辑这些新建的文件,设置以下属性:

config/server-1.properties:
    broker.id=1
    port=9093
    log.dir=/tmp/kafka-logs-1
 
config/server-2.properties:
    broker.id=2
    port=9094
    log.dir=/tmp/kafka-logs-2

broker.id是集群中每个节点的唯一永久的名称,我们修改端口和日志分区是因为我们现在在同一台机器上运行,我们要防止broker改写同一端口上注册的数据。

我们已经运行了zookeeper和刚才的一个kafka节点,所有我们只需要在启动2个新的kafka节点。

<strong>&gt; bin/kafka-server-start.sh config/server-1.properties &amp;</strong>... <strong>&gt; bin/kafka-server-start.sh config/server-2.properties &amp;</strong>...

现在,我们创建一个新topic,把备份设置为:3

<strong>&gt; bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 1 --topic my-replicated-topic</strong>

好了,现在我们已经有了一个集群了,我们怎么知道每个集群在做什么呢?
运行命令“describe topics”

<strong>&gt; bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic</strong>Topic:my-replicated-topic	PartitionCount:1	ReplicationFactor:3	Configs:
Topic: my-replicated-topic	Partition: 0	Leader: 1	Replicas: 1,2,0	Isr: 1,2,0

这是一个解释输出,第一行是所有分区的摘要,每一个线提供一个分区信息,因为我们只有一个分区,所有只有一条线。

"leader":该节点负责所有指定的分区读和写,每个节点将领导一个随机选择的分区。
"replicas":备份的节点,无论该节点是否活着,只是显示。
"isr":备份节点的集合,也就是活着的节点集合。

我们运行这个命令,看看一开始我们创建的那个节点。

<strong>&gt; bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic test</strong>Topic:test	PartitionCount:1	ReplicationFactor:1	Configs:
Topic: test	Partition: 0	Leader: 0	Replicas: 0	Isr: 0

没有惊喜,原始主题没有Replicas,所以是0。

让我们来发布一些信息在新的topic上:

<strong>&gt; bin/kafka-console-producer.sh --broker-list localhost:9092 --topic my-replicated-topic</strong> ...
my test message 1
my test message 2
^C

现在,消费这些消息。

<strong>&gt; bin/kafka-console-consumer.sh --zookeeper localhost:2181 --from-beginning --topic my-replicated-topic</strong> ...
my test message 1
my test message 2
^C

我们要测试集群的容错,kill掉leader,Broker1作为当前的leader,也就是kill掉Broker1。

<strong>&gt; ps | grep server-1.properties</strong>7564 ttys002    0:15.91 /System/Library/Frameworks/JavaVM.framework/Versions/1.6/Home/bin/java... <strong>&gt; kill -9 7564</strong>

备份节点之一成为新的leader,而broker1已经不在同步备份集合里了。 

<strong>&gt; bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic</strong>Topic:my-replicated-topic	PartitionCount:1	ReplicationFactor:3	Configs:
Topic: my-replicated-topic	Partition: 0	Leader: 2	Replicas: 1,2,0	Isr: 2,0

但是,消息没仍然没丢:

&gt; bin/kafka-console-consumer.sh --zookeeper localhost:2181 --from-beginning --topic my-replicated-topic
...
my test message 1
my test message 2
^C

Step 7: 使用 Kafka Connect 来 导入/导出 数据

从控制台写入和写回数据是一个方便的开始,但你可能想要从其他来源导入或导出数据到其他系统。对于大多数系统,可以使用kafka Connect,而不需要编写自定义集成代码。Kafka Connect是导入和导出数据的一个工具。它是一个可扩展的工具,运行连接器,实现与自定义的逻辑的外部系统交互。在这个快速入门里,我们将看到如何运行Kafka Connect用简单的连接器从文件导入数据到Kafka主题,再从Kafka主题导出数据到文件,首先,我们首先创建一些种子数据用来测试:

echo -e &quot;foo/nbar&quot; &gt; test.txt

接下来,我们开始2个连接器运行在独立的模式,这意味着它们运行在一个单一的,本地的,专用的进程。我们提供3个配置文件作为参数。第一个始终是kafka Connect进程,如kafka broker连接和数据库序列化格式,剩下的配置文件每个指定的连接器来创建,这些文件包括一个独特的连接器名称,连接器类来实例化和任何其他配置要求的。

&gt; bin/connect-standalone.sh config/connect-standalone.properties config/connect-file-source.properties config/connect-file-sink.properties

这是示例的配置文件,使用默认的本地集群配置并创建了2个连接器:第一个是导入连接器,从导入文件中读取并发布到Kafka主题,第二个是导出连接器,从kafka主题读取消息输出到外部文件,在启动过程中,你会看到一些日志消息,包括一些连接器实例化的说明。一旦kafka Connect进程已经开始,导入连接器应该读取从

test.txt

和写入到topic

connect-test

,导出连接器从主题

connect-test

 读取消息写入到文件

test.sink.txt

. 我们可以通过验证输出文件的内容来验证数据数据已经全部导出:

<strong>cat test.sink.txt</strong> foo
 bar

注意,导入的数据也已经在Kafka主题

connect-test

里,所以我们可以使用该命令查看这个主题:

<strong>bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic connect-test --from-beginning</strong> {&quot;schema&quot;:{&quot;type&quot;:&quot;string&quot;,&quot;optional&quot;:false},&quot;payload&quot;:&quot;foo&quot;}
{&quot;schema&quot;:{&quot;type&quot;:&quot;string&quot;,&quot;optional&quot;:false},&quot;payload&quot;:&quot;bar&quot;}
...

连接器继续处理数据,因此我们可以添加数据到文件并通过管道移动:

echo &quot;Another line&quot; &gt;&gt; test.txt

你应该会看到出现在消费者控台输出一行信息并导出到文件。

参考链接http://orchome.com/6

未经允许不得转载:冰点网络 » KafKa(0.10)安装部署和测试

分享到:更多 ()

评论 抢沙发

评论前必须登录!