Kafka数据中转传输的示例分析

今天就跟大家聊聊有关Kafka数据中转传输的示例分析,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。

建宁网站建设公司创新互联公司,建宁网站设计制作,有大型网站制作公司丰富经验。已为建宁近千家提供企业网站建设服务。企业网站搭建\成都外贸网站建设公司要多少钱,请找那个售后服务好的建宁做网站的公司定做!

需求起源

由于某些海外节点的数据发送到Kafka的上海集群会产生较高的延迟,因为公网访问的时候数据可能会进行多次中转,而导致网络延迟较高。所以增加了一个地区中转,该地区的网络情况到所有的节点的网络情况较好(厂商推荐)。

所以想把数据通过该地区做一次中转,再发送到上海。这样来看整体时延约120ms+。所以在Kafka的producer直接把host配置为该中转节点。经过测试,发现数据能够到上海。

设想的数据流程

出现异常,延迟依然很高

通过几天的观察,发现峰值时刻的异常依然很高,而当时地区节点之间的网络情况还不错。其他地区到中转地区节点的时延约90ms+,中转地区到上海节点的时延约30ms+。修改了ping数据包的大小,数量。发现丢包率,时延等一切都很正常。Kafka数据依然延迟。

网络原因基本排除。那么就是其他的原因。

Kafka压力测试

后来在某地区节点购买了一台服务器,使用kafka-producer-perf-test进行压力测试,直接出现大量的timeout。网络情况非常不好。

但是ping的结果还好啊...

查看程序日志

查看进程发送的日志,从日志上发现一个问题。由于我使用了nginx进行转发,所以我数据发送到nginx的端口修改成了9000,也就是producer配置的是nginx的host:9000,但是我发现我日志上出现的依然是发送至kafka的端口:9092。
进程没有重启?应该所有人的第一反应就是这个,所以重启进行咯...
重启进程,盯日志...

发现请求发送到nginx的9000端口..这次应该是对了...

紧接着出来建立链接kafka1:9092,kafka2:9092,kafka3:9092

一脸懵逼,重启依然是这样...盯了一下nginx服务器的网络,最近几天的带宽太低了...

查找原因

基于以上问题,基本可以判断。producer发送的数据绝对没有通过nginx。查询相关文档发现。

Kafka无法把数据通过nginx代理方式进行传输,而通过nginx的只有首次连接。producer节点通过nginx获取到kafka的metadata信息。然后通过metadata里面的IP进行访问...

也就是说实际通过nginx的方式是这样的,首次发送只是通过nginx获取到metadata的信息,metadata包含kafka的broker各ip地址。然后producer则会直接把数据发送到kafka集群。

看完上述内容,你们对Kafka数据中转传输的示例分析有进一步的了解吗?如果还想了解更多知识或者相关内容,请关注创新互联行业资讯频道,感谢大家的支持。


本文标题:Kafka数据中转传输的示例分析
文章转载:http://ybzwz.com/article/cpcsji.html