0
点赞
收藏
分享

微信扫一扫

Kafka 主题解析

一、主题管理

使⽤​​kafka-topics.sh​​脚本时可用的配置:

选项

说明

--config <String: name=value>

为创建的或修改的主题指定配置信息。⽀持下述配置条⽬:

​cleanup.policy​​​​compression.type​

​delete.retention.ms​

​file.delete.delay.ms​

​flush.messages​

​flush.ms​

​follower.replication.throttled.replicas​

​index.interval.bytes​

​leader.replication.throttled.replicas​

​max.message.bytes​

​message.format.version​

​message.timestamp.difference.max.ms​

​message.timestamp.type​

​min.cleanable.dirty.ratio​

​min.compaction.lag.ms​

​min.insync.replicas​

​preallocate​

​retention.bytes​

​retention.ms​

​segment.bytes​

​segment.index.bytes​

​segment.jitter.ms​

​segment.ms​

​unclean.leader.election.enable​

--create

创建⼀个新主题

--delete

删除⼀个主题

--delete-config <String: name>

删除现有主题的⼀个主题配置条⽬。这些条⽬就是在​​--config​​中给出的配置条⽬。

--alter

更改主题的分区数量,副本分配和/或配置条⽬。

--describe

列出给定主题的细节

--disable-rack-aware

禁⽤副本分配的机架感知。

--force

抑制控制台提示信息

--help

打印帮助信息

--if-exists

如果指定了该选项,则在修改或删除主题的时候,只有主题存在才可以执⾏。

--if-not-exists

在创建主题的时候,如果指定了该选项,则只有主题不存在的时候才可以执⾏命令。

--list

列出所有可⽤的主题。

--partitions <Integer: # of partitions>

要创建或修改主题的分区数。

--replica-assignment <String:broker_id_for_part1_replica1 :broker_id_for_part1_replica2,broker_id_for_part2_replica1 :broker_id_for_part2_replica2 , ...>

当创建或修改主题的时候⼿动指定partition-to-broker的分配关系。

--replication-factor <Integer:replication factor>

要创建的主题分区副本数。1表示只有⼀个副本,也就是Leader副本。

--topic <String: topic>

要创建、修改或描述的主题名称。除了创建,修改和描述在这⾥还可以使⽤正则表达式。

--topics-with-overrides

if set when describing topics, only show topics that haveoverridden configs

--unavailable-partitions

if set when describing topics, only show partitions whoseleader is not available

--under-replicated-partitions

if set when describing topics, only show under replicatedpartitions

--zookeeper <String: urls>

必需的参数:连接zookeeper的字符串,逗号分隔的多个host:port列表。多个URL可以故障转移。

主题中可以使⽤的参数定义(也就是上面​​--config <String: name=value>​​ 的参数):

属性

默认值

服务器默认属性

说明

cleanup.policy

delete

log.cleanup.policy

要么是”delete“要么是”compact“; 这个字符串指明了针对旧⽇志部分的利⽤⽅式;默认⽅式("delete")将会丢弃旧的部分当他们的回收时间或者尺⼨限制到达时。”compact“将会进⾏⽇志压缩

compression.type

none

producer⽤于压缩数据的压缩类型。默认是⽆压缩。正确的选项值是none、gzip、snappy。压缩最好⽤于批量处理,批量处理消息越多,压缩性能越好。

delete.retention.ms

86400000(24hours)

log.cleaner.delete.retention.ms

对于压缩⽇志保留的最⻓时间,也是客户端消费消息的最⻓时间,通log.retention.minutes的区别在于⼀个控制未压缩数据,⼀个控制压缩后的数据。此项配置可以在topic创建时的置顶参数覆盖

flush.ms

None

log.flush.interval.ms

此项配置⽤来置顶强制进⾏fsync⽇志到磁盘的时间间隔;例如,如果设置为1000,那么每1000ms就需要进⾏⼀次fsync。⼀般不建议使⽤这个选项

flush.messages

None

log.flush.interval.messages

此项配置指定时间间隔:强制进⾏fsync⽇志。例如,如果这个选项设置为1,那么每条消息之后都需要进⾏fsync,如果设置为5,则每5条消息就需要进⾏⼀次fsync。⼀般来说,建议你不要设置这个值。此参数的设置,需要在"数据可靠性"与"性能"之间做必要的权衡.如果此值过⼤,将会导致每次"fsync"的时间较⻓(IO阻塞),如果此值过⼩,将会导致"fsync"的次数较多,这也意味着整体的client请求有⼀定的延迟.物理server故障,将会导致没有fsync的消息丢失.

index.interval.bytes

4096

log.index.interval.bytes

默认设置保证了我们每4096个字节就对消息添加⼀个索引,更多的索引使得阅读的消息更加靠近,但是索引规模却会由此增⼤;⼀般不需要改变这个选项

max.message.bytes

1000000

max.message.bytes

kafka追加消息的最⼤尺⼨。注意如果你增⼤这个尺⼨,你也必须增⼤你consumer的fetch 尺⼨,这样consumer才能fetch到这些最⼤尺⼨的消息。

min.cleanable.dirty.ratio

0.5

min.cleanable.dirty.ratio

此项配置控制log压缩器试图进⾏清除⽇志的频率。默认情况下,将避免清除压缩率超过50%的⽇志。这个⽐率避免了最⼤的空间浪费

min.insync.replicas

1

min.insync.replicas

当producer设置request.required.acks为-1时,min.insync.replicas指定replicas的最⼩数⽬(必须确认每⼀个repica的写数据都是成功的),如果这个数⽬没有达到,producer会产⽣异常。

retention.bytes

None

log.retention.bytes

如果使⽤“delete”的retention 策略,这项配置就是指在删除⽇志之前,⽇志所能达到的最⼤尺⼨。默认情况下,没有尺⼨限制⽽只有时间限制

retention.ms

7 days

log.retention.minutes

如果使⽤“delete”的retention策略,这项配置就是指删除⽇志前⽇志保存的时间。

segment.bytes

1G

log.segment.bytes

kafka中log⽇志是分成⼀块块存储的,此配置是指log⽇志划分成块的⼤⼩

segment.index.bytes

10MB

log.index.size.max.bytes

此配置是有关offsets和⽂件位置之间映射的索引⽂件的⼤⼩;⼀般不需要修改这个配置

segment.jitter.ms

0

log.roll.jitter.{ms,hours}

The maximum jitter to subtract from logRollTimeMillis.

segment.ms

7 days

log.roll.hours

即使log的分块⽂件没有达到需要删除、压缩的⼤⼩,⼀旦log 的时间达到这个上限,就会强制新建⼀个log分块⽂件

unclean.leader.election.enable

true

指明了是否能够使不在ISR中replicas设置⽤来作为leader

1.1 创建主题

kafka-topics.sh --zookeeper localhost:2181/myKafka --create --topic tp_demo_02 --partitions 2 --replication-factor 1

kafka-topics.sh --zookeeper localhost:2181/myKafka --create --topic tp_demo_03 --partitions 3 --replication-factor 1 --config max.message.bytes=1048576 --config segment.bytes=10485760

1.2 查看主题

kafka-topics.sh --zookeeper localhost:2181/myKafka --list

kafka-topics.sh --zookeeper localhost:2181/myKafka --describe --topic tp_demo_02

kafka-topics.sh --zookeeper localhost:2181/myKafka --topics-with-overrides --describe

1.3 修改主题

kafka-topics.sh --zookeeper localhost:2181/myKafka --create --topic tp_demo_04 --partitions 4 --replication-factor 1

kafka-topics.sh --zookeeper localhost:2181/myKafka --alter --topic tp_demo_04 --config max.message.bytes=1048576

kafka-topics.sh --zookeeper localhost:2181/myKafka --describe --topic tp_demo_04

kafka-topics.sh --zookeeper localhost:2181/myKafka --alter --topic tp_demo_04 --config segment.bytes=10485760

kafka-topics.sh --zookeeper localhost:2181/myKafka --alter --delete-config max.message.bytes --topic tp_demo_04

1.4 删除主题

kafka-topics.sh --zookeeper localhost:2181/myKafka --delete --topic tp_demo_01

二、增加分区

通过命令⾏⼯具操作,主题的分区只能增加,不能减少。否则报错:
Kafka 主题解析_消息中间件

通过--alter修改主题的分区数,增加分区。

kafka-topics.sh --zookeeper localhost:2181/myKafka --alter --topic tp_demo_02 --partitions 3

Kafka 主题解析_消息中间件_02

三、分区副本的分配

副本分配的三个⽬标:

  1. 均衡地将副本分散于各个broker上
  2. 对于某个broker上分配的分区,它的其他副本在其他broker上
  3. 如果所有的broker都有机架信息,尽量将分区的各个副本分配到不同机架上的broker。

在不考虑机架信息的情况下:

  1. 第⼀个副本分区通过轮询的⽅式挑选⼀个broker,进⾏分配。该轮询从broker列表的随机位置进⾏轮询。
  2. 其余副本通过增加偏移进⾏分配。

分配案例:
Kafka 主题解析_zookeeper_03
考虑到机架信息,⾸先为每个机架创建⼀个broker列表。如:三个机架(rack1,rack2,rack3),六个broker(0,1,2,3,4,5)

brokerID -> rack

  • 0 -> "rack1", 1 -> "rack3", 2 -> "rack3", 3 -> "rack2", 4 -> "rack2", 5 -> "rack1"

rack1:0,5

rack2:3,4

rack3:1,2

这broker列表为rack1的0,rack2的3,rack3的1,rack1的5,rack2的4,rack3的2

即:0, 3, 1, 5, 4, 2

通过简单的轮询将分区分配给不同机架上的broker:
Kafka 主题解析_Kafka_04

每个分区副本在分配的时候在上⼀个分区第⼀个副本开始分配的位置右移⼀位。

六个broker,六个分区,正好最后⼀个分区的第⼀个副本分配的位置是该broker列表的最后⼀个。

如果有更多的分区需要分配,则算法开始对follower副本进⾏移位分配。

这主要是为了避免每次都得到相同的分配序列。

此时,如果有⼀个分区等待分配(分区6),这按照如下⽅式分配: 6 -> 0,4,2 (⽽不是像分区0那样重复0,3,1)

跟机架相关的副本分配中,永远在机架相关的broker列表中轮询地分配第⼀个副本。其余的副本,倾向于机架上没有副本的broker进⾏副本分配,除⾮每个机架有⼀个副本。然后其他的副本⼜通过轮询的⽅式分配给broker。

结果是,如果副本的个数⼤于等于机架数,保证每个机架最少有⼀个副本。否则每个机架最多保有⼀个副本。

如果副本的个数和机架的个数相同,并且每个机架包含相同个数的broker,可以保证副本在机架和broker之间均匀分布。

四、常用参数配置

上面已经介绍过:​​kafka-topics.sh --config xx=xx --config yy=yy​

配置给主题的参数。
Kafka 主题解析_Kafka_05

五、KafkaAdminClient 应用

说明

除了使⽤Kafka的bin⽬录下的脚本⼯具来管理Kafka,还可以使⽤管理Kafka的API将某些管理查看的功能集成到系统中。在Kafka0.11.0.0版本之前,可以通过kafka-core包(Kafka的服务端,采⽤Scala编写)中的AdminClient和AdminUtils来实现部分的集群管理操作。Kafka0.11.0.0之后,⼜多了⼀个AdminClient,在kafka-client包下,⼀个抽象类,具体的实现是​​org.apache.kafka.clients.admin.KafkaAdminClient​​。

功能与原理介绍

Kafka官⽹:The AdminClient API supports managing and inspecting topics, brokers, acls, and other Kafka objects

KafkaAdminClient包含了⼀下⼏种功能(以Kafka1.0.2版本为准):

  • 创建主题
    ​​​createTopics(final Collection<NewTopic> newTopics, final CreateTopicsOptions options)​
  • 删除主题
    ​​​deleteTopics(final Collection<String> topicNames, DeleteTopicsOptions options)​
  • 列出所有主题
    ​​​listTopics(final ListTopicsOptions options)​
  • 查询主题
    ​​​describeTopics(final Collection<String> topicNames, DescribeTopicsOptions options)​
  • 查询集群信息
    ​​​describeCluster(DescribeClusterOptions options)​
  • 查询配置信息
    ​​​describeConfigs(Collection<ConfigResource> configResources, final DescribeConfigsOptions options)​
  • 修改配置信息
    ​​​alterConfigs(Map<ConfigResource, Config> configs, final AlterConfigsOptions options)​
  • 修改副本的日志记录
    ​​​alterReplicaLogDirs(Map<TopicPartitionReplica, String> replicaAssignment, final AlterReplicaLogDirsOptions options)​
  • 查询节点的⽇志⽬录信息
    ​​​describeLogDirs(Collection<Integer> brokers, DescribeLogDirsOptions options)​
  • 查询副本的⽇志⽬录信息
    ​​​describeReplicaLogDirs(Collection<TopicPartitionReplica> replicas, DescribeReplicaLogDirsOptions options)​
  • 增加分区
    ​​​createPartitions(Map<String, NewPartitions> newPartitions, final CreatePartitionsOptions options)​

其内部原理是使⽤Kafka⾃定义的⼀套⼆进制协议来实现,详细可以参⻅Kafka协议。

​KafkaAdminClient​​⽤到的参数:

属性

说明

重要性

bootstrap.servers

向Kafka集群建⽴初始连接⽤到的host/port列表。

客户端会使⽤这⾥列出的所有服务器进⾏集群其他服务器的发现,⽽不管是否指定了哪个服务器⽤作引导。

这个列表仅影响⽤来发现集群所有服务器的初始主机。

字符串形式:host1:port1,host2:port2,...

由于这组服务器仅⽤于建⽴初始链接,然后发现集群中的所有服务器,因此没有必要将集群中的所有地址写在这⾥。

⼀般最好两台,以防其中⼀台宕掉。

high

client.id

⽣产者发送请求的时候传递给broker的id字符串。

⽤于在broker的请求⽇志中追踪什么应⽤发送了什么消息。

⼀般该id是跟业务有关的字符串。

medium

connections.max.idle.ms

当连接空闲时间达到这个值,就关闭连接。long型数据,默认:300000

medium

receive.buffer.bytes

TCP接收缓存(SO_RCVBUF),如果设置为-1,则使⽤操作系统默认的值。int类型值,默认65536,可选值:[-1,...]

medium

request.timeout.ms

客户端等待服务端响应的最⼤时间。如果该时间超时,则客户端要么重新发起请求,要么如果重试耗尽,请求失败。int类型值,默认:120000

medium

security.protocol

跟broker通信的协议:PLAINTEXT, SSL, SASL_PLAINTEXT, SASL_SSL.string类型值,默认:PLAINTEXT

medium

send.buffer.bytes

⽤于TCP发送数据时使⽤的缓冲⼤⼩(SO_SNDBUF),-1表示使⽤OS默认的缓冲区⼤⼩。

int类型值,默认值:131072

medium

reconnect.backoff.max.ms

对于每个连续的连接失败,每台主机的退避将成倍增加,直⾄达到此最⼤值。在计算退避增量之后,添加20%的随机抖动以避免连接⻛暴。

long型值,默认1000,可选值:[0,...]

low

reconnect.backoff.ms

重新连接主机的等待时间。避免了重连的密集循环。该等待时间应⽤于该客户端到broker的所有连接。

long型值,默认:50

low

retries

The maximum number of times to retry a call before failing it.重试的次数,达到此值,失败。

int类型值,默认5。

low

retry.backoff.ms

在发⽣失败的时候如果需要重试,则该配置表示客户端等待多⻓时间再发起重试。

该时间的存在避免了密集循环。

long型值,默认值:100。

low

主要操作步骤

客户端根据⽅法的调⽤创建相应的协议请求,⽐如创建Topic的createTopics⽅法,其内部就是发送CreateTopicRequest请求。

客户端发送请求⾄Kafka Broker。

Kafka Broker处理相应的请求并回执,⽐如与CreateTopicRequest对应的是CreateTopicResponse。客户端接收相应的回执并进⾏解析处理。

和协议有关的请求和回执的类基本都在org.apache.kafka.common.requests包中,AbstractRequest和AbstractResponse是这些请求和响应类的两个⽗类。

综上,如果要⾃定义实现⼀个功能,只需要三个步骤:

  1. ⾃定义XXXOptions;
  2. ⾃定义XXXResult返回值;
  3. ⾃定义Call,然后挑选合适的XXXRequest和XXXResponse来实现Call类中的3个抽象⽅法。

六、偏移量管理

Kafka 1.0.2,__consumer_offsets主题中保存各个消费组的偏移量。

早期由zookeeper管理消费组的偏移量。

查询⽅法

通过原⽣ kafka 提供的⼯具脚本进⾏查询。

⼯具脚本的位置与名称为bin/kafka-consumer-groups.sh

⾸先运⾏脚本,查看帮助:

参数

说明

--all-topics

将所有关联到指定消费组的主题都划归到reset-offsets操作范围。

--bootstrap-server<String:server to connectto>

必须:(基于消费组的新的消费者): 要连接的服务器地址。

--by-duration<String: duration>

距离当前时间戳的⼀个时间段。格式:'PnDTnHnMnS'

--commandconfig<String:command configproperty file>

指定配置⽂件,该⽂件内容传递给Admin Client和消费者。

--delete

传值消费组名称,删除整个消费组与所有主题的各个分区偏移量和所有者关系。

如:--group g1 --group g2。

传值消费组名称和单个主题,仅删除该消费组到指定主题的分区偏移量和所属关系。

如:--group g1 --group g2 --topic t1。

传值⼀个主题名称,仅删除指定主题与所有消费组分区偏移量以及所属关系。

如:--topic t1

注意:消费组的删除仅对基于ZK保存偏移量的消费组有效,并且要⼩⼼使⽤,仅删除不活跃的消费组。

--describe

描述给定消费组的偏移量差距(有多少消息还没有消费)。

--execute

执⾏操作。⽀持的操作:reset-offsets。

--export

导出操作的结果到CSV⽂件。⽀持的操作:reset-offsets。

--from-file<String: path toCSV file>

重置偏移量到CSV⽂件中定义的值。

--group <String:consumer group>

⽬标消费组

--list

列出所有消费组。

--new-consumer

使⽤新的消费者实现。这是默认值。随后的发⾏版中会删除这⼀操作。

--reset-offsets

重置消费组的偏移量。当前⼀次操作只⽀持⼀个消费组,并且该消费组应该是不活跃的。

有三个操作选项

1.(默认)plan:要重置哪个偏移量。

2. execute:执⾏reset-offsets操作。

3. process:配合--export将操作结果导出到CSV格式。

可以使⽤如下选项:

--to-datetime

--by-period

--to-earliest

--to-latest

--shift-by

--from-file

--to-current

必须选择⼀个选项使⽤。

要定义操作的范围,使⽤:

--all-topics

--topic。

必须选择⼀个,除⾮使⽤--from-file选项。

--shift-by<Long: number-of-offsets>

重置偏移量n个。n可以是正值,也可以是负值。

--timeout<Long: timeout(ms)>

对某些操作设置超时时间。

如:对于描述指定消费组信息,指定毫秒值的最⼤等待时间,以获取正常数据(如刚创建的消费组,或者消费组做了⼀些更改操作)。默认时间:5000。

--to-current

重置到当前的偏移量。

--to-datetime<String: datetime>

重置偏移量到指定的时间戳。格式:'YYYY-MM-DDTHH:mm:SS.sss'

--to-earliest

重置为最早的偏移量

--to-latest

重置为最新的偏移量

--to-offset<Long: offset>

重置到指定的偏移量。

​--topic<String:topic>​

指定哪个主题的消费组需要删除,或者指定哪个主题的消费组需要包含到resetoffsets操作中。对于reset-offsets操作,还可以指定分区:topic1:0,1,2。其中0,1,2表示要包含到操作中的分区号。重置偏移量的操作⽀持多个主题⼀起操作。

--zookeeper<String: urls>

必须,它的值,你懂的。--zookeeper localhost:2181/myKafka。

由于kafka 消费者记录group的消费偏移量有两种⽅式 :

  1. kafka ⾃维护 (新)
  2. zookpeer 维护 (旧) ,已经逐渐被废弃

所以 ,脚本只查看由broker维护的,由zookeeper维护的可以将--bootstrap-server换成--zookeeper即可。

  1. 查看有那些 group ID 正在进⾏消费
kafka-consumer-groups.sh --bootstrap-server localhost:9092 --list

注意:

  • 这⾥⾯是没有指定 topic,查看的是所有topic消费者的 group.id 的列表。
  • 注意: 重名的 group.id 只会显示⼀次
  1. **查看指定group.id 的消费者消费情况 **
kafka-consumer-groups.sh --bootstrap-server node1:9092 --describe --group group

如果消费者停⽌,查看偏移量信息:
Kafka 主题解析_偏移量_06
将偏移量设置为最早的:
Kafka 主题解析_消息中间件_07
将偏移量设置为最新的:
Kafka 主题解析_Kafka_08
分别将指定主题的指定分区的偏移量向前移动10个消息:
Kafka 主题解析_消息中间件_09


举报

相关推荐

0 条评论