A.Kafka作为高并发实时接入缓存,解决接入量的问题
B.Flink作为实时计算引擎实时消费Kafka数据写入HBase
C.HBase数据库为海量实时接入数据提供存储与实时查询能力
D.Hive为海量历史数据提供实时分析能力
A.key长度字段:4字节的消息key长度信息
B.magic字段:单字节的版本号
C.CRC校验码:4个字节CRC校验码,校验范围为magic到value之间,用于确保消息再传输过程中不会被恶意篡改
D.value字段:消息value长度
A.消费者Consumer进程进行了一个超长GC回收
B.Consumer长时间不去Broker拉取消息
C.组协调器在一个session.timeout.ms周期内没有收到Heartbeat消息
D.组协调器在一个heartbeat.interval.ms周期内没有收到Heartbeat消息
A.Partition数量决定了每个Consumergroup中并发消费者的最大数量
B.每个Partition在存储层面对应一个log文件
C.引入Partition机制,保证了Kafka的高吞吐能力
D.每个Partition都是无序且可变的消息队列
A.Memory Channel
B.File Channel
C.JDBC Channel
D.Kafka Channel