kafka快速入门
- 1. 获得Kafka
- 2. 启动Kafka环境
- 3. 创建一个topic并存储你的事件
- 4. 写事件到指定topic
- 5. 读事件
- 6. 用Kafka 连接器导入/导出你的数据做为事件流
- 7. 用kafka流处理你的事件
- 8. 结束kafka环境
- 祝贺
1. 获得Kafka
下载最新版本,解压
2. 启动Kafka环境
运行下边命令为了启动按顺序正确服务.
打开另外终端运行
一旦所有服务都成功启动,你就有了一个基本的可以运行代码的kafka环境.
3. 创建一个topic并存储你的事件
Kafka是一个分布事件流平台,你可以写,读,存储,处理事件(在文档中也叫记录或消费)跨很多服务器.
例如事件是支持交易,手机更新地址位置,商品订单,IoT设置传感器测量,或是医疗设备等等.这些事件组织存储在topics. 非常类型于文件在文件系统中,事件是文件夹中文件.
所以当你 写第一事件之前,需要创建一个topic.打开另外终端运行:
所有kafka命令行工具有一个额外选项:运行命令不带任务参数会打印出使用信息.例如,它也能展示给你细节,像新分区数量.
4. 写事件到指定topic
Kafka client与Kafka brokers 读(或写)通信通过网络.一旦接收,brokers将要存储事件,持久的和容错方式只要你需要 - 甚至永远.
运行控制台生产客户端来写一些事件到你的topic.默认,你输入的每行会导致单独的事件写入到topic.
为停用生产者客户端
5. 读事件
打开终端运行消费客户端来读事件从你刚刚创建的topic中
随便实验:例如,切换到你的生产者客户端来写一些事件,在你的消费客户端马上就是看到结果.
由于事件是永久存储在kafka上的,他们可以被很多消费者读很多次只要你想要这样做.你可以非常容易的验证通过打开另一个终端再重新运行上一个分布式java应用基础与实践.pdf命令.
6. 用Kafka 连接器导入/导出你的数据做为事件流
可能有很多数据存储在你的系统中,像关系型数据库或传统消费系统,非常多应用已经使用这些系统.Kafka Connect允许你持续收集詝数据从额外系统到Kafka,返过来操作也可以.用kafka非常容易集成已存在的系统.甚至事处理更容易,有数百个联接器是可用的.
查看kafka连接器章节来学习更多 怎样持续导入/导出你的数据导入或导出kafka.
7. 用kafka流处理你的事件
一旦你的数据以事件方式存储在kafka,你可以处理数据用Java/Scala kafka streams客户端库.它允许你实现核心任务实时应用和微服务,在这里输入,输出数据被存储在kafka topic中.kafka stream结合最简单的写和部署标准Java或Scala应用在客户端,得益于服务端群集技术可以使这些应用高可用,可伸缩,容错性好,和分布式.库支持精准一次处理,状态操作和聚合,分窗,join,基于事件时间的处理,等等.
让你先看下,这里怎样实现workCount算法
Kafka streams例子和app开发教程演示了代码 和运行流应用从开始到结束
8. 结束kafka环境
现在你可以结束快速入门了, 关闭kafka运行环境或继续看一看
- 停止生产都和消费者客户端如果你没有没有做,用
- 命脉kafka broker用
- 最后停用zookeeper用
如果你想删除你本地kafka中所有数据,包含任何你创建,可以运行
祝贺
你已成功完成快速入门.
学习更多,我们猜测可以查看以下内容
- 为明白kafka更多细节,读文档.你也有你的选择kafka书籍或学术论文.
- 浏览用户案例来学习在社会里其它用户是怎样从kafka身上获得价值的.
- 加入本地kafka会议组并且在Kafka峰会讨论,Kafka社会的主要的研讨会.
版权声明:
本文来源网络,所有图片文章版权属于原作者,如有侵权,联系删除。
本文网址:https://www.bianchenghao6.com/h6javajc/908.html