首页 > 其他分享 >golang kafka例子

golang kafka例子

时间:2024-05-29 18:32:43浏览次数:18  
标签:err sarama fmt partition kafka golang 例子 msg config

package main
//生产者代码
import (
	"fmt"
	"github.com/IBM/sarama"
	"time"
)

// 基于sarama第三方库开发的kafka client
var brokers = []string{"127.0.0.1:9092"}
var topic = "hello_kafka0"

// 同步消息模式
func syncProducer(config *sarama.Config) {
	// 连接kafka,使用配置构建一个同步生产者
	syncProducer, err := sarama.NewSyncProducer(brokers, config)
	if err != nil {
		fmt.Println("syncProducer closed,err:", err)
		return
	}
	defer syncProducer.Close()
	//构建发送消息
	srcValue := "test syncProducer send msg, i = %d"
	for i := 0; i < 5000; i++ {
		value := fmt.Sprintf(srcValue, i)
		msg := &sarama.ProducerMessage{
			Topic: topic,
			Value: sarama.ByteEncoder(value),
		}
		// 发送消息,并获取消息存储的分区和偏移
		partition, offset, err := syncProducer.SendMessage(msg)
		if err != nil {
			fmt.Println("send msg failed,err:", err)
			return
		}
		fmt.Printf("send success, partition:%v offset:%v\n", partition, offset)
	}
}

// 异步消息模式
func asyncProducer(config *sarama.Config) {
	// 连接kafka,使用配置构建一个异步的生产者
	asyncProducer, err := sarama.NewAsyncProducer(brokers, config)
	if err != nil {
		fmt.Println("asyncProducer closed,err:", err)
		return
	}
	defer asyncProducer.AsyncClose() //异步关闭
	fmt.Println("start goroutine...")
	// 异步发送,因此接收需要先启动协程,从通道中进行接收
	go func(producer sarama.AsyncProducer) {
		for {
			select {
			case suc := <-producer.Successes():
				fmt.Println("offset: ", suc.Offset, "timestamp:", suc.Timestamp.String(), "partition:", suc.Partition)
			case fail := <-producer.Errors():
				fmt.Println("err: ", fail.Err)
			}
		}
	}(asyncProducer)
	//每500ms构建一条消息进行发送,注意消息每次都需要重新构建
	for i := 0; i < 50; i++ {
		time.Sleep(500 * time.Millisecond)
		timeNow := time.Now()
		value := "this is a message " + timeNow.Format("14:49:05")
		msg := &sarama.ProducerMessage{ //消息需要每次进行构建
			Topic: topic,
			Value: sarama.ByteEncoder(value), //将字符串转化为字节数组
		}
		asyncProducer.Input() <- msg // 使用通道进行发送
	}
}

func main() {
	config := sarama.NewConfig()                              //创建一个sarama的config对象
	config.Producer.RequiredAcks = sarama.WaitForAll          //发送完数据需要isr中的节点,理解为leader和flower都需要回复确认
	config.Producer.Partitioner = sarama.NewRandomPartitioner //新选一个patition
	//是否等待成功和失败后的响应,只有上面的RequireAcks设置不是NoReponse这里才有用.
	config.Producer.Return.Errors = true               //接收错误
	config.Producer.Return.Successes = true            //成功交付的消息将在success channel返回
	config.Version = sarama.V3_2_0_0                   //指定版本
	config.Producer.Retry.Max = 10                     //最大重试时间
	config.Producer.MaxMessageBytes = 32 * 1024 * 1024 // 最大的消息缓冲字节 默认为100*1024*1024
	//syncProducer(config)
	asyncProducer(config)
}

  消费者代码:

package main

import (
	"context"
	"fmt"
	"github.com/IBM/sarama"
	"os"
	"os/signal"
	"sync"
	"time"
)

// kafka消费者消费消息
var topic string = "hello_kafka0"
var brokers = []string{"127.0.0.1:9092"}
var topics = []string{"hello_kafka0"}

// 普通消费者
func ordinaryConsumer(wg *sync.WaitGroup, groupId string) {
	defer wg.Done() //计数减1
	config := sarama.NewConfig()
	config.Consumer.Return.Errors = true                                   //是否接收错误
	config.Consumer.Group.Rebalance.Strategy = sarama.BalanceStrategyRange //消费者组的消费策略
	config.Consumer.MaxWaitTime = 500 * time.Second                        //消费者拉取的最大等待时间
	config.Version = sarama.V3_2_0_0
	config.Consumer.Group.InstanceId = groupId
	consumer, err := sarama.NewConsumer(brokers, config)
	if err != nil {
		fmt.Println("fail to start consumer,err:%v\n", err)
		return
	}
	defer consumer.Close()
	partitionList, err := consumer.Partitions(topic) //根据topic获取到所有的分区
	if err != nil {
		fmt.Printf("fail to get list of partition:err%v\n", err)
		return
	}
	for partition := range partitionList { //遍历所有的分区
		//对每个分区创建一个分区消费者,Offset这里指定为获取所有消息,只获取最新的采用OffsetNewest
		partConsumer, err := consumer.ConsumePartition(topic, int32(partition), sarama.OffsetOldest)
		if err != nil {
			fmt.Printf("failed to start consumer for partition %d,err:%v\n", partition, err)
			return
		}
		defer partConsumer.AsyncClose()
		// 方式1、采用for range方式获取,获取完毕就结束
		/*go func(sarama.PartitionConsumer) {
			for msg := range partConsumer.Messages() {
				fmt.Printf("Partition:%d Offset:%d Key:%v Value:%v\n",
					msg.Partition, msg.Offset, msg.Key, string(msg.Value))
			}
		}(partConsumer)
		time.Sleep(3 * time.Second) //延迟主线程,防止协程还没运行*/
		// 方式2、采用for select方式获取,一直阻塞等待获取

		//信号关闭触发
			signals := make(chan os.Signal, 1)
			signal.Notify(signals, os.Interrupt)
		Loop:
			for {
				select {
				case msg := <-partConsumer.Messages():
					fmt.Printf("Partition:%d Offset:%d Key:%v Value:%v\n",
						msg.Partition, msg.Offset, msg.Key, string(msg.Value))
				case err := <-partConsumer.Errors():
					fmt.Println(err.Err)
				case <-signals:
					break Loop
				}
			}
	}
}

// 消费者组,ConsumerGroup负责将主题和分区的处理划分为一组进程(consumer组的成员)
type consumerGroupHandler struct{}

// ConsumerGroupClaim 负责处理来自消费者组中给定主题和分区的Kafka消息
// ConsumerGroupHandler 实例用于处理单个主题/分区声明。 它还为您的消费者组会话生命周期提供钩子,并允许您在消费循环之前或之后触发逻辑。
func (consumerGroupHandler) Setup(_ sarama.ConsumerGroupSession) error   { return nil }
func (consumerGroupHandler) Cleanup(_ sarama.ConsumerGroupSession) error { return nil }
func (handler consumerGroupHandler) ConsumeClaim(sess sarama.ConsumerGroupSession, claim sarama.ConsumerGroupClaim) error {
	for msg := range claim.Messages() {
		fmt.Printf("Message topic:%q partition:%d offset:%d value:%s\n", msg.Topic, msg.Partition, msg.Offset, msg.Value)
		sess.MarkMessage(msg, "") //标记这条消息已经消费
	}
	return nil
}
func groupConsumer(wg *sync.WaitGroup, groupId string) {
	defer wg.Done()
	config := sarama.NewConfig()
	config.Version = sarama.V3_2_0_0
	config.Consumer.Return.Errors = true

	consumerGroup, err := sarama.NewConsumerGroup(brokers, groupId, config)
	if err != nil {
		fmt.Println("consumerGroup start failed", err)
		return
	}
	defer func() { _ = consumerGroup.Close() }()
	// 启动协程从错误通道中接收错误信息
	go func() {
		for err := range consumerGroup.Errors() {
			fmt.Println("ERROR", err)
		}
	}()
	// 迭代消费者会话
	ctx := context.Background()
	//`应该在无限循环中调用Consume,当服务器端重新平衡发生时,需要重新创建consumer会话以获取新的声明
	for {
		handler := consumerGroupHandler{}
		err := consumerGroup.Consume(ctx, topics, handler)
		if err != nil {
			fmt.Println("the Consume failed", err)
			return
		}
	}
}
func main() {
	var wg = &sync.WaitGroup{}
	wg.Add(2)
	//go ordinaryConsumer(wg, "tt")
	go groupConsumer(wg, "cc") //通过mark消息已经消费,因此相同消费者组中不会有两个消费者消费到相同的消息
	go groupConsumer(wg, "cc")
	wg.Wait()
}

  

标签:err,sarama,fmt,partition,kafka,golang,例子,msg,config
From: https://www.cnblogs.com/fly-fly-fly-fly/p/18220870

相关文章

  • MQTT和kafka搭配使用 集成 emq iot 物联网
    MQTT历史MQTT协议于1999年发明,用于石油和天然气行业。工程师需要一种协议来实现最小带宽和最小电池损耗,以通过卫星监控石油管道。最初,该协议被称为MessageQueuingTelemetryTransport(消息队列遥测传输),得名于首先支持其初始阶段的IBM产品MQ系列。2010年,IBM发布了......
  • Golang中的三种指针
    三种类型的指针:类型用途备注普通类型指针传递对象的地址,不能做指针运算uintptr作为一段内容的首地址,可以做指针运算,GC不把uintptr当指针,uintptr无法持有对象。uintptr类型的目标会被回收。unsafe.Pointer不能做指针运算,可以用做在不同数据类型指针间转......
  • c++ string 使用例子
      ===============一文读懂C++String类在算法竞赛中的常见用法string相较于C语言的字符数组可方便太多了,在算法竞赛中能大大节省我们的时间。以下是我在刷题中会使用到的常见String用法。注释都写好了。#include<iostream>#include<string>usingnamespacestd;int......
  • RabbitMQ、RocketMQ、Kafka对比(消息组件的作用)
    在高并发的系统中,消息组件是最为常见的一款应用对比RacketMQ要比RabbitMQ性能高,但是不合适进行日志数据的采集(大数据采集最好别用)利用消息组件可以有效地实现数据缓冲的处理操作,例如:现在有一个抢购系系统,是需要考虑高并发状态下的用户请求正常处理问题服务器一旦接收远......
  • C#中多态的实际例子及好处与风险
    好处:代码复用:基类的通用行为可以在派生类中重用。灵活性和扩展性:新增派生类时,无需修改现有代码,符合开闭原则。简化设计:使用抽象接口而非具体类进行编程,提高代码抽象层次。潜在风险:性能损失:虚方法调用相比直接调用非虚方法略慢。设计复杂度:过度使用多态可能导致设计过于复......
  • kafka多线程顺序消费
    一、单线程顺序消费为了避免有的小伙伴第一次接触顺序消费的概念,我还是先介绍一下顺序消费是个什么东西。双十一,大量的用户抢在0点下订单。为了用户的友好体验,我们把订单生成逻辑与支付逻辑包装成一个个的MQ消息发送到Kafka中,让kafka积压部分消息,防止瞬间的流量压垮服务。那么......
  • kafka解决重复消费问题
    Kafka避免消息重复消费通常依赖于以下策略和机制:  总结就是通过消费者组+手动提交偏移量+处理消息的幂等性(数据库redis分布式锁等)1.ConsumerGroupIDKafka使用ConsumerGroupID来跟踪每个消费者所读取的消息。确保每个消费者都具有唯一的GroupID。如果多个消费者属......
  • kafka 保证消息有序性
    具体需要从生产者和消费者两个方面来讲:生产者:1.分区机制:Kafka的核心机制之一是分区(Partition)。每个主题(Topic)可以被分割成多个分区,而消息在发布时会被追加到特定的分区中。在每个分区内部,消息是按照它们被追加的顺序来存储的,因此保证了分区内的消息顺序性。 2.分区器:生......
  • springboot整合Kafka的快速使用教程
        目录一、引入Kafka的依赖二、配置Kafka三、创建主题1、自动创建(不推荐)2、手动动创建四、生产者代码五、消费者代码 六、常用的KafKa的命令    Kafka是一个高性能、分布式的消息发布-订阅系统,被广泛应用于大数据处理、实时日志分析等场景。S......
  • golang为什么chan大部分是发送结构体,而不是其它比如string
     typetokenstruct{}typeGroupstruct{cancelfunc(error)wgsync.WaitGroupsemchantokenerrOncesync.Onceerrerror}func(g*Group)done(){ifg.sem!=nil{<-g.sem}g.wg.Done()}在Go语言中,通道(......