还剩12页未读,继续阅读
本资源只提供10页预览,全部文档请下载后查看!喜欢就下载吧,查找使用更方便
文本内容:
kafak面试题及答案
一、单项选择题(共30题,每题1分)Kafka的核心架构不包含以下哪个组件?()A.ProducerB.ConsumerC.BrokerD.ZookeeperKafka中,一个Topic可以被划分为多个(),用于提高并行处理能力A.PartitionB.OffsetC.SegmentD.Replica以下哪个不是Kafka的消息投递语义?()A.At MostOnceB.At LeastOnceC.Exactly OnceD.Exactly At Least OnceKafka的副本机制中,()是Leader副本的追随者,负责数据同步和故障恢复A.FollowerB.ControllerC.CoordinatorD.Client第1页共14页消费者组(Consumer Group)中,消费者数量超过Topic分区数时,会导致()A.所有消费者闲置B.部分消费者无法消费C.消费者重复消费D.消费者负载均衡Kafka的消息存储在()中,按Topic+Partition+Offset索引A.文件系统B.内存数据库C.分布式数据库D.缓存系统以下哪个参数用于控制Producer发送消息的可靠性?()A.bootstrap.serversB.acksC.batch.sizeD.linger.msKafka的ISR(In-Sync Replicas)集合中,()是当前数据同步的Leader副本A.所有副本B.仅LeaderC.Leader+同步副本D.同步副本消费者通过()机制记录消费位置,避免消息重复或丢失A.Commit OffsetB.Sync Offset第2页共14页C.Async OffsetD.Auto OffsetKafka的顺序性指的是()A.全局消息顺序一致B.同一Partition内消息顺序一致C.同一消费者组内消息顺序一致D.跨Topic消息顺序一致当Kafka集群中Leader副本故障时,()会从ISR中选举新的LeaderA.ControllerB.ZookeeperC.CoordinatorD.任意副本Kafka的日志压缩功能主要用于解决()问题A.消息重复B.消息丢失C.消息过期D.消息版本覆盖以下哪个不是Kafka的部署模式?()A.Single NodeB.StandaloneC.ClusterD.DistributedKafka的消费者组重平衡(Rebalance)过程中,消费者会进入()状态第3页共14页A.Awaiting RebalanceB.ProcessingC.PausedD.Idle消息从Producer发送到Kafka集群的过程中,()负责将消息路由到正确的PartitionA.ProducerB.BrokerC.ZookeeperD.ConsumerKafka的最小同步副本数(min.insync.replicas)参数默认值是()A.1B.2C.3D.4以下哪个操作会触发消费者组重平衡?()A.消费者发送心跳B.消费者订阅新TopicC.Producer发送消息D.Broker启动Kafka的消息存储文件中,每个Segment文件的大小默认是()A.1GBB.512MBC.128MB第4页共14页D.无固定大小Kafka的幂等性Producer通过()机制确保消息不重复A.唯一消息ID+序列号B.事务ID+偏移量C.时间戳+随机数D.签名+校验消费者组中,()是每个消费者的唯一标识,用于重平衡分配A.Group IDB.Consumer IDC.Client IDD.Partition IDKafka的定期清理策略中,()会保留所有消息直到手动删除A.deleteB.compactC.compact deleteD.retain当Kafka集群的副本数为3时,消息最多可容忍()个副本故障而不丢失数据A.0B.1C.2D.3Kafka的消费者拉取(Pull)模式中,由()决定拉取消息的频率和数量A.Producer第5页共14页B.BrokerC.ConsumerD.Zookeeper以下哪个不是Kafka的核心性能指标?()A.Throughput(吞吐量)B.Latency(延迟)C.Partition Count(分区数)D.Avg.Message Size(平均消息大小)Kafka的事务消息(Transactional Message)支持的投递语义是()A.At MostOnceB.At LeastOnceC.Exactly OnceD.以上都不是Kafka的消费者再平衡过程中,为避免消息处理中断,通常会设置()A.重平衡超时时间B.心跳间隔C.会话超时时间D.分区分配策略Kafka的日志段(Log Segment)中,()文件用于记录消息偏移量索引A..logB..indexC..timeindex第6页共14页D..leader当Kafka的acks=0时,消息可靠性为()A.0%(可能丢失)B.50%(部分丢失)C.100%(不丢失)D.不确定Kafka的消费者组重平衡策略中,()会将分区平均分配给消费者A.Range AssignorB.RoundRobin AssignorC.Sticky AssignorD.Cooperative StickyAssignorKafka的压缩消息(Compressed Message)可以提升的性能是()A.减少网络带宽B.降低消息延迟C.提高吞吐量D.以上都是
二、多项选择题(共20题,每题2分)Kafka的核心优势包括()A.高吞吐率B.持久化存储C.水平扩展能力D.多消费组支持Kafka的消息可靠性保证措施包括()第7页共14页A.副本机制B.acks配置C.最小同步副本数D.消息重试机制消费者组重平衡的触发条件有()A.消费者加入组B.消费者离开组C.Topic分区数变化D.消费者数量变化Kafka的分区分配策略包括()A.RangeB.RoundRobinC.StickyD.HashKafka的消息投递语义有()A.At MostOnceB.AtLeastOnceC.Exactly OnceD.Exactly AtLeast OnceKafka的ISR(In-Sync Replicas)集合由哪些副本组成?()A.Leader副本B.同步副本C.非同步副本D.备用副本Kafka的日志清理策略有()第8页共14页A.deleteB.compactC.compact deleteD.retainKafka的幂等性Producer通过哪些机制实现?()A.唯一消息IDB.序列号C.事务IDD.偏移量跟踪Kafka的事务消息支持的场景包括()A.跨Topic消息一致性B.消息与操作的原子性C.消息重试与补偿D.批量消息处理影响Kafka性能的关键参数有()A.分区数B.副本数C.批处理大小(batch.size)D.刷新频率(linger.ms)Kafka的消费者拉取模式(Pull)的特点包括()A.消费者主动控制拉取频率B.避免空拉取浪费资源C.支持动态调整拉取量D.依赖Broker推送Kafka的日志段(Log Segment)包含哪些文件?()第9页共14页A..log(消息主体)B..index(偏移量索引)C..timeindex(时间戳索引)D..leader(Leader信息)Kafka的副本机制的作用包括()A.提高消息可靠性B.实现故障自动恢复C.提升读写性能D.支持多数据中心部署Kafka的消费者组的特点包括()A.每个消费者属于一个组B.组内消费者共享Topic的所有消息C.组内消费者平均分配分区D.组内消费者独立消费各自分区Kafka的压缩算法支持哪些类型?()A.SnappyB.GZIPC.LZ4D.ZstdKafka的最小同步副本数(min.insync.replicas)设置过小时,可能导致()A.消息丢失风险增加B.性能提升C.写入阻塞D.副本同步延迟第10页共14页Kafka的定期清理中,delete策略可以通过哪些方式控制保留时间?()A.log.retention.hoursB.log.retention.minutesC.log.retention.msD.log.retention.bytesKafka的消费者偏移量存储方式有()A.Kafka内部Topic(__consumer_offsets)B.ZookeeperC.文件系统D.外部数据库Kafka的事务消息需要哪些核心组件支持?()A.Transaction CoordinatorB.Producer ID(PIC)C.消费者组协调器D.事务状态管理Kafka的KRaft模式(无Zookeeper)相比传统模式的优势包括()A.减少依赖B.提升元数据一致性C.简化部署D.降低延迟
三、判断题(共20题,每题1分)Kafka的消息只能被消费一次,无法重复消费()Kafka的分区(Partition)是最小的并行处理单元()第11页共14页当Kafka的副本数为3时,至少需要2个副本同步才能确保消息不丢失()消费者组中,消费者数量必须等于分区数才能达到最佳性能()Kafka的幂等性Producer可以保证消息不重复,但可能丢失()Kafka的事务消息支持跨多个Topic和分区的原子操作()Kafka的ISR集合中,只要有一个副本同步,消息就可以被认为安全()Kafka的压缩消息会增加Producer和Broker的CPU开销,但减少网络传输量()Kafka的定期清理中,log.cleanup.policy=compact会保留每个Key的最新版本消息()消费者组的Rebalance过程会导致短暂的消费中断()Kafka的消费者偏移量由Consumer主动提交,无法自动提交()Kafka的acks=all是最严格的消息可靠性保证()Kafka的分区数可以在创建Topic后动态调整()Kafka的幂等性Producer和事务消息是两种独立的机制,不能使用()Kafka的日志段(Log Segment)大小是固定的,不可配置()当Kafka的min.insync.replicas=1时,等同于acks=1()Kafka的消费者拉取模式(Pull)中,消费者可以避免重复消费()Kafka的日志清理会影响已提交的消息,需谨慎配置()Kafka的消费者组中,每个消费者可以消费多个分区()Kafka的KRaft模式是未来的主流部署模式,已完全替代传统模式()第12页共14页
四、简答题(共2题,每题5分)简述Kafka的核心特点及其应用场景解释消费者组重平衡(Rebalance)的概念及触发条件参考答案
一、单项选择题D
2.A
3.D
4.A
5.BA
7.B
8.C
9.A
10.BA
12.D
13.B
14.A
15.AA
17.B
18.A
19.A
20.BD
22.B
23.C
24.C
25.CA
27.B
28.A
29.A
30.D
二、多项选择题ABCD
2.ABCD
3.ABCD
4.ABC
5.ABCAB
7.ABD
8.AB
9.AB
10.ABCDABC
12.ABC
13.AB
14.AD
15.ABCDAC
17.ABCD
18.AB
19.AB
20.ABCD
三、判断题×(可通过重置偏移量重复消费)√(需Leader+1个同步副本)×(消费者数量可大于或小于分区数,重平衡后自动分配)×(幂等性Producer可保证不重复,但acks=0时可能丢失)×(需所有同步副本,即ISR集合内的副本同步)×(支持自动提交(enable.auto.commit=true))√(可通过alter topic命令调整)×(Kafka
2.0+支持两者结合)第13页共14页×(可通过log.segment.bytes配置)×(拉取模式需手动控制偏移量避免重复)×(传统模式仍广泛使用,KRaft处于逐步推广阶段)
四、简答题Kafka核心特点及应用场景特点高吞吐(10万级/秒)、持久化(消息写入磁盘)、可扩展(分区/副本水平扩展)、多消费组(组内共享消息)、分区内顺序性、容错性(副本故障自动恢复)应用场景日志收集(ELK栈)、大数据流处理(SparkStreaming/Flink)、解耦服务(异步通信)、事件溯源(记录状态变化)消费者组重平衡(Rebalance)概念消费者组内消费者与Topic分区的重新分配过程,确保负载均衡触发条件消费者加入/离开组、订阅Topic数量/分区数变化、消费者数量变化、消费者主动调用重平衡API注本文档为Kafka面试高频题整理,覆盖基础概念、核心机制、性能调优及应用场景,适合面试前快速复习实际面试中可结合项目经验进一步展开第14页共14页。
个人认证
优秀文档
获得点赞 0