首页 > 编程知识 正文

kafka数据积压怎么解决,kafka偏移量存在哪里

时间:2023-05-04 02:15:38 阅读:187401 作者:3041

自动提交当前偏移量

如果客户端属性enable.auto.commit被设为true,那么每过5s,消费者会自动把从poll()方法接收到的最大偏移量提交上去,提交时间间隔

由auto.commit.interval.ms控制,默认为5s

假设我们使用默认的5s提交时间间隔,在上次提交的3s之后发生了再均衡,在均衡后消费者会从最后一次提交的位置开始读取消息,这时候

偏移量已经落后的3s,因此这3s内的消息会被重复处理,可以修改时间间隔来进行优化,但是这种情况无法避免.

注意: 消息重复的问题可以通过保证消息处理逻辑的幂等性来处理

同步提交当前偏移量

把auto.commit.offset设为false,方应用程序决定何时提交偏移量,使用commitSync()方法提交偏移量最简单可靠,这个api会提交

poll()方法返回的最新偏移量,提交成功后马上返回,如果提交失败,则跑出异常

注意: commitSync()方法提交的偏移量是最新的偏移量,需要在处理完所有消息之后再调用

代码示例

@Test

void test() {

Properties properties = new Properties()

properties.put(KafkaConstants.BOOTSTRAP_SERVERS_KEY, KafkaConstants.BOOTSTRAP_SERVERS)

properties.put(KafkaConstants.KEY_DESERIALIZER_KEY, KafkaConstants.STRING_DESERIALIZER)

properties.put(KafkaConstants.VALUE_DESERIALIZER_KEY, KafkaConstants.STRING_DESERIALIZER)

properties.put(KafkaConstants.KEY_GROUP_ID, KafkaConstants.DEFAULT_GROUP_ID)

properties.put("auto.commit.offset", false)

Consumer consumer = null

try{

consumer = new KafkaConsumer(properties)

consumer.subscribe(["test"])

while (true){

ConsumerRecords records = consumer.poll(100)

records.each {

println "key:${it.key()}, val:${it.value()}"

}

// 同步提交当前偏移量

consumer.commitSync()

}

}finally {

consumer.close()

}

}

异步提交当前偏移量

同步提交的不足之处在于,在Broker对请求做出相应之前,应用程序会一直阻塞,这样会限制应用程序的吞吐量.可以通过异步提交来解决这个

问题,我们只管发送提交请求,不需要等待Broker相应

commitAsync不支持重试,但是可以在其回调中实现此功能,但是需要注意提交的顺序,否则可能会导致消息的重复

代码示例

@Test

void test() {

Properties properties = new Properties()

properties.put(KafkaConstants.BOOTSTRAP_SERVERS_KEY, KafkaConstants.BOOTSTRAP_SERVERS)

properties.put(KafkaConstants.KEY_DESERIALIZER_KEY, KafkaConstants.STRING_DESERIALIZER)

properties.put(KafkaConstants.VALUE_DESERIALIZER_KEY, KafkaConstants.STRING_DESERIALIZER)

properties.put(KafkaConstants.KEY_GROUP_ID, KafkaConstants.DEFAULT_GROUP_ID)

properties.put("auto.commit.offset", false)

Consumer consumer = null

try{

consumer = new KafkaConsumer(properties)

consumer.subscribe(["test"])

while (true){

ConsumerRecords records = consumer.poll(100)

records.each {

println "key:${it.key()}, val:${it.value()}"

}

// 异步提交当前偏移量

consumer.commitAsync({Map offsets, Exception exception ->

})

}

}finally {

consumer.close()

}

}

提交特定的偏移量

class Demo_4_6_2_ConsumerSpecialOffsetCommit {

private Map currentOffsets = new HashMap<>()

@Test

void test() {

Properties properties = new Properties()

properties.put(KafkaConstants.BOOTSTRAP_SERVERS_KEY, KafkaConstants.BOOTSTRAP_SERVERS)

properties.put(KafkaConstants.KEY_DESERIALIZER_KEY, KafkaConstants.STRING_DESERIALIZER)

properties.put(KafkaConstants.VALUE_DESERIALIZER_KEY, KafkaConstants.STRING_DESERIALIZER)

properties.put(KafkaConstants.KEY_GROUP_ID, KafkaConstants.DEFAULT_GROUP_ID)

properties.put("auto.commit.offset", false)

Consumer consumer = null

try{

consumer = new KafkaConsumer(properties)

consumer.subscribe(["test"])

while (true){

ConsumerRecords records = consumer.poll(100)

records.each {

println "key:${it.key()}, val:${it.value()}"

// 记录当前偏移量

currentOffsets.put(

new TopicPartition(it.topic(), it.partition()), new OffsetAndMetadata(it.offset() + 1, "no metadata"))

// 提交偏移量

consumer.commitAsync(currentOffsets, null)

}

}

}finally {

consumer.close()

}

}

}

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。