小編給大家分享一下springboot中怎么實現kafa指定offset消費,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
成都創新互聯公司是專業的樂山網站建設公司,樂山接單;提供成都網站建設、網站建設,網頁設計,網站設計,建網站,PHP網站建設等專業做網站服務;采用PHP框架,可快速的進行樂山網站開發網頁制作和功能擴展;專業做搜索引擎喜愛的網站,專業的做網站團隊,希望更多企業前來合作!
kafka消費過程難免會遇到需要重新消費的場景,例如我們消費到kafka數據之后需要進行存庫操作,若某一時刻數據庫down了,導致kafka消費的數據無法入庫,為了彌補數據庫down期間的數據損失,有一種做法我們可以指定kafka消費者的offset到之前某一時間的數值,然后重新進行消費。
首先創建kafka消費服務
@Service@Slf4j//實現CommandLineRunner接口,在springboot啟動時自動運行其run方法。public class TspLogbookAnalysisService implements CommandLineRunner { @Override public void run(String... args) { //do something }}
kafka消費模型建立
kafka server中每個主題存在多個分區(partition),每個分區自己維護一個偏移量(offset),我們的目標是實現kafka consumer指定offset消費。
在這里使用consumer-->partition一對一的消費模型,每個consumer各自管理自己的partition。
@Service@Slf4jpublic class TspLogbookAnalysisService implements CommandLineRunner { //聲明kafka分區數相等的消費線程數,一個分區對應一個消費線程 private static final int consumeThreadNum = 9; //特殊指定每個分區開始消費的offset private List<Long> partitionOffsets = Lists.newArrayList(1111,1112,1113,1114,1115,1116,1117,1118,1119); private ExecutorService executorService = Executors.newFixedThreadPool(consumeThreadNum); @Override public void run(String... args) { //循環遍歷創建消費線程 IntStream.range(0, consumeThreadNum) .forEach(partitionIndex -> executorService.submit(() -> startConsume(partitionIndex))); }}
kafka consumer對offset的處理
聲明kafka consumer的配置類
private Properties buildKafkaConfig() { Properties kafkaConfiguration = new Properties(); kafkaConfiguration.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, ""); kafkaConfiguration.put(ConsumerConfig.GROUP_ID_CONFIG, ""); kafkaConfiguration.put(ConsumerConfig.MAX_POLL_RECORDS_CONFIG, ""); kafkaConfiguration.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, ""); kafkaConfiguration.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, ""); kafkaConfiguration.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, ""); kafkaConfiguration.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG,""); kafkaConfiguration.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, ""); ...更多配置項 return kafkaConfiguration;}
創建kafka consumer,處理offset,開始消費數據任務#
private void startConsume(int partitionIndex) { //創建kafka consumer KafkaConsumer<String, byte[]> consumer = new KafkaConsumer<>(buildKafkaConfig()); try { //指定該consumer對應的消費分區 TopicPartition partition = new TopicPartition(kafkaProperties.getKafkaTopic(), partitionIndex); consumer.assign(Lists.newArrayList(partition)); //consumer的offset處理 if (collectionUtils.isNotEmpty(partitionOffsets) && partitionOffsets.size() == consumeThreadNum) { Long seekOffset = partitionOffsets.get(partitionIndex); log.info("partition:{} , offset seek from {}", partition, seekOffset); consumer.seek(partition, seekOffset); } //開始消費數據任務 kafkaRecordConsume(consumer, partition); } catch (Exception e) { log.error("kafka consume error:{}", ExceptionUtils.getFullStackTrace(e)); } finally { try { consumer.commitSync(); } finally { consumer.close(); } }}
消費數據邏輯,offset操作
private void kafkaRecordConsume(KafkaConsumer<String, byte[]> consumer, TopicPartition partition) { while (true) { try { ConsumerRecords<String, byte[]> records = consumer.poll(TspLogbookConstants.POLL_TIMEOUT); //具體的處理流程 records.forEach((k) -> handleKafkaInput(k.key(), k.value())); //?很重要:日志記錄當前consumer的offset,partition相關信息(之后如需重新指定offset消費就從這里的日志中獲取offset,partition信息) if (records.count() > 0) { String currentOffset = String.valueOf(consumer.position(partition)); log.info("current records size is:{}, partition is: {}, offset is:{}", records.count(), consumer.assignment(), currentOffset); } //offset提交 consumer.commitAsync(); } catch (Exception e) { log.error("handlerKafkaInput error{}", ExceptionUtils.getFullStackTrace(e)); } }}
以上是“springboot中怎么實現kafa指定offset消費”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注創新互聯行業資訊頻道!
本文名稱:springboot中怎么實現kafa指定offset消費
網頁鏈接:http://vcdvsql.cn/article22/pdegjc.html
成都網站建設公司_創新互聯,為您提供品牌網站建設、品牌網站設計、網站設計、品牌網站制作、軟件開發、標簽優化
聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯