0
点赞
收藏
分享

微信扫一扫

flink1.13环境搭建

 

目录

一、Apache Kafka是什么?

二、主要组件

三、Broker(代理)

四、Topic(主题)

五、Partition(分区)

六、Offset(偏移量)

七、Producer(生产者)

八、Consumer(消费者)

九、Consumer Group(消费者组)

十、Zookeeper

十一、创建Topic时如何将分区放置到不同的Broker中

十二、kafka如何获取topic 主题的列表

十三、consumer_offsets

十四、生产数据时数据的分组策略

十五、能手动删除消息吗

十六、生产者和消费者的命令行

十七、消费者组

十八、consumer消费方式

十九、consumer是推还是拉

二十、Consumer 是否可以消费指定分区消息

二十一、消费者如何消费数据

二十二、消费者负载均衡策略

二十三、message格式是什么

二十四、Kafka 可以接收的消息最大为多少

二十五、数据有序生

二十六、消息消费是采用Pull 模式,还是Push 模式

二十七、消息消费为什么不用Push模式

二十八、Java Consumer为什么采用单线程来获取消息

二十九、Follower副本消息同步的完整流程

三十、消息队列的作用

三十一、Kafka 维护消费状态跟踪的方法

三十二、为什么需要消息系统,MySQL不能满足需求吗

三十三、Zookeeper对于Kafka的作用是什么

三十四、LEO、LSO、AR、ISR、HW 含义

三十五、数据传输的事务定义

三十六、数据传输的事务保证

三十七、判断一个节点是否还活着

三十八、Kafka 与传统MQ消息系统之间区别

三十九、Kafka的ack的三种机制

四十、消数者如何不自动提交移面

四十一、消费故障,如何解决活锁问题

四十二、如何控制消费的位置

四十三、分布式情况下,如何保证消息的顺序消费

四十四、kafka高可用机制

四十五、保证不重复消费

四十六、领导者副本和追随者副本的区别

四十七、LeaderEpoch机制

四十八、设置Kafka接收的最大消息的大小

四十九、监控Kafka的框架都有哪些

五十、设置Broker的HeapSize

五十一、如何估算集群的机器数量

五十二、Leader总是-1情况

五十三、Producer是否直接将数据发送到broker的leader(主节点)

五十四、Leader选举原理

五十五、kafka的分区Leader 选举策略有几种

五十六、Kafka的哪些场景中使用了零拷贝

五十七、零拷贝技术

五十八、java编程实现零拷贝技术

五十九、Kafka为什么不支持读写分离

六十、如何调优Kafka

六十一、Controller发生网络分区时, Kafka会怎么样

六十二、存储在硬盘上的消息格式

六十三、高效文件存储设计特点

六十四、新建的分区会在哪个目录下创建

六十五、partition的数据如何保存到硬盘

六十六、segment.ms默认值

六十七、Kafka什么情况下会rebalance

六十八、rebalance过程

六十九、rebalance有什么影响

七十、解决rebalance中遇到的问题

七十一、一次reblance大概要多久

七十二、Kafka为何这么快

七十三、Kafka系统工具有哪些类型

七十四、Kafka 存在那些局限性

七十五、kafka与flume的区别


一、Apache Kafka是什么?

        

二、主要组件

三、Broker(代理)

        

四、Topic(主题)

        

五、Partition(分区)

        

六、Offset(偏移量)

        

七、Producer(生产者)

        

八、Consumer(消费者)

        

九、Consumer Group(消费者组

        

十、Zookeeper

        

十一、创建Topic时如何将分区放置到不同的Broker中

        

十二、kafka如何获取topic 主题的列表

        

十三、consumer_offsets

        

十四、生产数据时数据的分组策略

        

十五、能手动删除消息吗

        

十六、生产者和消费者的命令行

        

十七、消费者组

        

十八、consumer消费方式

        

十九、consumer是推还是拉

        

二十、Consumer 是否可以消费指定分区消息

        

二十一、消费者如何消费数据

        

二十二、消费者负载均衡策略

        

二十三、message格式是什么

        

二十四、Kafka 可以接收的消息最大为多少

        

二十五、数据有序生

       

二十六、消息消费是采用Pull 模式,还是Push 模式

        

二十七、消息消费为什么不用Push模式

        

二十八、Java Consumer为什么采用单线程来获取消息

        

二十九、Follower副本消息同步的完整流程

        

三十、消息队列的作用

        

三十一、Kafka 维护消费状态跟踪的方法

        

三十二、为什么需要消息系统,MySQL不能满足需求吗

        

三十三、Zookeeper对于Kafka的作用是什么

        

三十四、LEO、LSO、AR、ISR、HW 含义

        

三十五、数据传输的事务定义

        

三十六、数据传输的事务保证

        

三十七、判断一个节点是否还活着

        

三十八、Kafka 与传统MQ消息系统之间区别

        

三十九、Kafka的ack的三种机制

        

四十、消数者如何不自动提交移面

        

四十一、消费故障,如何解决活锁问题

        

四十二、如何控制消费的位置

        

四十三、分布式情况下,如何保证消息的顺序消费

        

四十四、kafka高可用机制

        

四十五、保证不重复消费

               

四十六、领导者副本和追随者副本的区别

        

四十七、LeaderEpoch机制

        

四十八、设置Kafka接收的最大消息的大小

        

四十九、监控Kafka的框架都有哪些

        

五十、设置Broker的HeapSize

        

五十一、如何估算集群的机器数量

        

五十二、Leader总是-1情况

        

五十三、Producer是否直接将数据发送到broker的leader(主节点)

        

五十四、Leader选举原理

        

五十五、kafka的分区Leader 选举策略有几种

        

五十六、Kafka的哪些场景中使用了零拷贝

        

五十七、零拷贝技术

        

五十八、java编程实现零拷贝技术

        

五十九、Kafka为什么不支持读写分离

        

六十、如何调优Kafka

        

六十一、Controller发生网络分区时, Kafka会怎么样

        

六十二、存储在硬盘上的消息格式

        

六十三、高效文件存储设计特点

        

六十四、新建的分区会在哪个目录下创建

        

六十五、partition的数据如何保存到硬盘

        

六十六、segment.ms默认值

        

六十七、Kafka什么情况下会rebalance

        

六十八、rebalance过程

        

六十九、rebalance有什么影响

        

七十、解决rebalance中遇到的问题

        

七十一、一次reblance大概要多久

        

七十二、Kafka为何这么快

        

七十三、Kafka系统工具有哪些类型

        

七十四、Kafka 存在那些局限性

        

七十五、kafka与flume的区别

举报

相关推荐

0 条评论