《Apache Kafka源码剖析》以Kafka 0.10.0版本源码为基础,针对Kafka的架构设计到实现细节进行详细阐述。《Apache Kafka源码剖析》共5章,从Kafka的应用场景、源码环境搭建开始逐步深入,不仅介绍Kafka的核心概念,而且对Kafka生产者、消费者、服务端的源码进行深入的剖析,最后介绍Kafka常用的管理脚本实现,让读者不仅从宏观设计上了解Kafka,而且能够深入到Kafka的细节设计之中。在源码分析的过程中,还穿插了笔者工作积累的经验和对Kafka设计的理解,希望读者可以举一反三,不仅知其然,而且知其所以然。
《Apache Kafka源码剖析》旨在为读者阅读Kafka源码提供帮助和指导,让读者更加深入地了解Kafka的运行原理、设计理念,让读者在设计分布式系统时可以参考Kafka的优秀设计。《Apache Kafka源码剖析》的内容对于读者全面提升自己的技术能力有很大帮助。
KafkaProducer 1. 消息放入 RecordAccumulator 等待 Sender 线程刷新发送 2. 发送的具体流程实际上是写在 NetworkClient,使用的是 selector 实现 3. RecordAccumulator 中做了很多工作,包括使用 BufferPool 来管理内存,使用 RecordBatch 存储消息,对于 Node 做一定程度的负...
评分KafkaProducer 1. 消息放入 RecordAccumulator 等待 Sender 线程刷新发送 2. 发送的具体流程实际上是写在 NetworkClient,使用的是 selector 实现 3. RecordAccumulator 中做了很多工作,包括使用 BufferPool 来管理内存,使用 RecordBatch 存储消息,对于 Node 做一定程度的负...
评分KafkaProducer 1. 消息放入 RecordAccumulator 等待 Sender 线程刷新发送 2. 发送的具体流程实际上是写在 NetworkClient,使用的是 selector 实现 3. RecordAccumulator 中做了很多工作,包括使用 BufferPool 来管理内存,使用 RecordBatch 存储消息,对于 Node 做一定程度的负...
评分KafkaProducer 1. 消息放入 RecordAccumulator 等待 Sender 线程刷新发送 2. 发送的具体流程实际上是写在 NetworkClient,使用的是 selector 实现 3. RecordAccumulator 中做了很多工作,包括使用 BufferPool 来管理内存,使用 RecordBatch 存储消息,对于 Node 做一定程度的负...
评分KafkaProducer 1. 消息放入 RecordAccumulator 等待 Sender 线程刷新发送 2. 发送的具体流程实际上是写在 NetworkClient,使用的是 selector 实现 3. RecordAccumulator 中做了很多工作,包括使用 BufferPool 来管理内存,使用 RecordBatch 存储消息,对于 Node 做一定程度的负...
条理清晰,循序渐进,赞! 书中还不时提醒一些设计思路,赞! Kafka 0.10.0和2.1.0的代码,日志存储部分差别还是很大的。 看了这本书,了解到很多底层的概念,至少看Kafka相关的博客,不再云山雾罩了。
评分- - 利益相关: 认识作者但也非常认真的看过 作为看源码的参考还是不错的~目前kafka没有同类图书 所以这本书还是不错的~
评分深入理解kafka必读,学到了很多东西,索引设计,零拷贝,时间轮。。。 源码命名比较中二,炼狱,死神,有点帅。
评分深入理解kafka必读,学到了很多东西,索引设计,零拷贝,时间轮。。。 源码命名比较中二,炼狱,死神,有点帅。
评分书如其名,主要是源码分析
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 book.quotespace.org All Rights Reserved. 小美书屋 版权所有