转自:https://www.cnblogs.com/cxuanBlog/p/11949238.html
1.流程介绍
图 1
大概流程:
- 创建一个
ProducerRecord
对象,它是 Kafka 中的一个核心类,由记录要发送到的主题名称(Topic Name),可选的分区号(Partition Number)以及可选的键值对key/value构成。 - 在发送时,需要将ProducerRecord的key/value键值对由序列化器转换为字节数组,这样它们才能够在网络上传输。
- 然后消息到达了分区器。如果发送过程中指定了有效的分区号,那么在发送记录时将使用该分区。如果发送过程中未指定分区,则将使用key 的 hash 函数映射指定一个分区。如果发送的过程中既没有分区号也没有key,则将以循环的方式分配一个分区。选好分区后,生产者就知道向哪个主题的哪个分区发送数据了。
- 然后,这条消息被存放在一个记录批次里,这个批次里的所有消息会被发送到相同的主题和分区上。由一个独立的线程负责把它们发到 Kafka Broker 上。
- Kafka Broker 在收到消息时会返回一个响应,如果写入成功,会返回一个 RecordMetaData 对象,它包含了主题和分区信息,以及记录在分区里的偏移量,以及时间戳。如果写入失败,会返回一个错误。生产者在收到错误之后会尝试重新发送消息,几次之后如果还是失败的话,就返回错误消息。
2.配置
首先,需要创建一个生产者对象ProducerRecord,并设置一些属性。Kafka 生产者有3个必选的属性
- bootstrap.servers:指定 broker 的地址清单,地址的格式为
host:port
。清单里不需要包含所有的 broker 地址,生产者会从给定的 broker 里查找到其他的 broker 信息。不过建议至少要提供两个
broker 信息,一旦其中一个宕机,生产者仍然能够连接到集群上。 - key.serializer:指定key/value的序列化方式。
例子,创建一个 Properties 对象,使用 StringSerializer
序列化器序列化 key / value 键值对,创建一个新的生产者对象,并为键值设置了恰当的类型,然后把 Properties 对象传递给它:
private Properties properties = new Properties(); properties.put("bootstrap.servers","broker1:9092,broker2:9092"); properties.put("key.serializer","org.apache.kafka.common.serialization.StringSerializer"); properties.put("value.serializer","org.apache.kafka.common.serialization.StringSerializer"); producer = new KafkaProducer<String,String>(properties);
//但这里没有设置key和value的值?之后应该可可以再设置?producer.setKey(),producer.setValue()??
3. 发送消息
3.1 简单消息发送
public ProducerRecord(String topic, K key, V value) {}
例子:
ProducerRecord<String,String> record = new ProducerRecord<String, String>("CustomerCountry","West","France"); producer.send(record);//直接发送
如上图,消息会先被写入分区中的缓冲区中,然后分批次发送给 Kafka Broker。send方法会返回RecordMetadata对象。
消息发送过程前可能会发生错误和异常,如SerializationException(序列化失败)
,BufferedExhaustedException 或 TimeoutException(说明缓冲区已满)
,又或是 InterruptedException(说明发送线程被中断)。
3.2 同步发送消息
ProducerRecord<String,String> record = new ProducerRecord<String, String>("CustomerCountry","West","France"); try{ RecordMetadata recordMetadata = producer.send(record).get(); }catch(Exception e){ e.printStackTrace(); }
如果出现错误则抛出异常。生产者(KafkaProducer)在发送的过程中会出现两类错误:
- 重试错误,这类错误可以通过重发消息来解决。比如连接的错误,可以通过再次建立连接来解决;无
主
错误则可以通过重新为分区选举首领来解决(意思是如果其中一个leader副本挂掉了?此时就不知道连哪个,就需要zookeeper来重新选主?)。KafkaProducer 被配置为自动重试,如果多次重试后仍无法解决问题,则会抛出重试异常。 - 无法通过重试来解决的错误,比如
消息过大
对于这类错误,KafkaProducer 不会进行重试,直接抛出异常。
3.3 异步发送
无须等待,通过先注册回调函数。
4. 生产者分区机制
分区使得每个节点能够实现独立的数据写入和读取,通过分区部署在多个 Broker 来实现负载均衡
的效果。但在发送消息时,如何知道它是存在topic的哪个分区呢?
4.1 顺序轮询
消息是均匀的分配给每个 partition,即每个分区存储一次消息,是默认策略。
//那这个是由图1中的分区器来完成的?它需要记录上一次这个topic被记录到了哪个partition?然后下一次来的时候再轮转?
4.2 随即轮询
可以自己实现, 先计算出该主题总的分区数(topic的配置中有设置),然后随机地返回一个小于它的正整数。
//有个小问题,如果现在有10个brokers,某个topic有3个partition,那么这些partition是需要人手动指定要存储的broker.id吗?还是kafka会负载均衡自己选择?
效果不如顺序轮询好。如果追求数据的均匀分布,还是使用轮询策略比较好。
4.3 按照key保存消息
也叫做 key-ordering 策略,按消息键保序策略。可以保证同一个 Key 的所有消息都进入到相同的分区里面,由于每个分区下的消息处理都是有顺序的。【同一分区内消息串形处理?】,实现例子:
List<PartitionInfo> partitions = cluster.partitionsForTopic(topic); return Math.abs(key.hashCode()) % partitions.size();
5. 发送参数配置
- acks:指定了要有多少个分区副本接收消息,生产者才认为消息是写入成功的。此参数对消息丢失的影响较大。值包括0、1、all。
-
buffer.memory: 用来设置生产者内存缓冲区的大小,生产者用它缓冲要发送到服务器的消息。如果应用程序发送消息的速度超过发送到服务器的速度,会导致生产者空间不足。这个时候,send() 方法调用要么被阻塞,要么抛出异常。
- compression.type:表示生产者启用何种压缩算法,默认情况下,消息发送时不会被压缩。
- retries:生产者从服务器收到的错误有可能是临时性的错误(比如分区找不到首领),在这种情况下,
reteis
参数的值决定了生产者可以重发的消息次数,如果达到这个次数,生产者会放弃重试并返回错误。默认情况下,生产者在每次重试之间等待 100ms,这个等待参数可以通过retry.backoff.ms
进行修改。 - batch.size:当有多个消息需要被发送到同一个分区时,生产者会把它们放在同一个批次里。该参数指定了一个批次可以使用的内存大小,按照字节数计算。当批次被填满,批次里的所有消息会被发送出去。不过生产者井不一定都会等到批次被填满才发送,任意条数的消息都可能被发送。【这个和分区器里的一个批次大小有关系吗?】
- max.in.flight.requests.per.connection:指定了生产者在收到服务器响应之前可以发送多少消息,它的值越高,就会占用越多的内存,不过也会提高吞吐量。把它设为1 可以保证消息是按照发送的顺序写入服务器。【有点像滑动窗口】
- max.request.size:该参数用于控制生产者发送的请求大小。它可以指能发送的单个消息的最大值,也可以指单个请求里所有消息的总大小。
- receive.buffer.bytes 和 send.buffer.bytes:Kafka 是基于 TCP 实现的,为了保证可靠的消息传输,这两个参数分别指定了 TCP Socket 接收和发送数据包的缓冲区的大小。如果它们被设置为 -1,就使用操作系统的默认值。如果生产者或消费者与 broker 处于不同的数据中心,那么可以适当增大这些值。
标签:发送,错误,生产者,分区,kafka,学习,消息,key From: https://www.cnblogs.com/BlueBlueSea/p/16770269.html