第十四周 消息队列之Kafka从入门到小牛-5
实战:Flume集成Kafka
1 | 在实际工作中flume和kafka会深度结合使用 |

1 | 下面我们来实现一下这个功能 |
配置Agent
file-to-kafka.conf
1 | 下面来配置第一个Agent: |
1 | # Name the components on this agent |
1 | kafka的producer的相关参数,可以直接在这里设置:a1.sinks.k1.kafka.producer.+。。。 |
kafka-to-hdfs.conf
1 | 下面来配置第二个Agent: |
1 | # Name the components on this agent |
1 | 在bigdata04机器的flume目录下复制两个目录 |
1 | 把刚才配置的两个Agent的配置文件复制到这两个目录下 |
启动Flume Agent
1 | 启动这两个Flume Agent |
1 | 先启动第二个Agent,再启动第一个Agent |
实战:Kafka集群平滑升级
1 | 之前我们在使用 Kafka 0.9.0.0版本的时候,遇到一个比较诡异的问题 |
1 | 注意:提前在集群的三台机器上把0.9.0.1的安装包,解压、配置好。 |

1 | 1:先stop掉0.9.0.0集群中的第一个节点,然后去CMAK上查看集群的broker信息,确认节点确实已停掉。并且再查看一下,节点的副本下线状态。确认集群是否识别到副本下线状态。 |


1 | 然后在当前节点把kafka0.9.0.1启动起来。再回到CMAK中查看broker信息,确认刚启动的节点是否已正确显示,并且还要确认这个节点是否可以正常接收和发送数据。 |

1 | 2:按照第一步的流程去依次操作剩余节点即可,就是先把0.9.0.0版本的kafka停掉,再把0.9.0.1版本的kafka启动即可。 |