我正在尝试将文件用作我的制作人。源文件连续增长(例如每秒记录20条记录)。下面是类似我的问题后:如何使用增长文件作为Apache Kafka制作者并只读取新添加的数据
How to write a file to Kafka Producer
但是,在这种情况下,整个文件被读取并添加到卡夫卡的话题每一个新行插入文件的时间。我只需要将新添加的行发送到主题(即,如果该文件已包含10行,并且附加了4行,则只需将这4行发送到该主题)。
有没有办法实现这个?
其它的解决方案的尝试:
阿帕奇水槽通过使用源类型为 'spooldir'。但它没有用,因为它从添加到目录中的新文件读取数据,而不是在将数据附加到已读文件时。
而且我们试图使用作为“EXEC”和命令如“尾-F /路径/文件名”水槽源类型。这似乎也不起作用。
使用任何其他工具
建议也欢迎为我的目标是实时读取从文件中的数据(即我尽快所需要的数据,因为它被插入到该文件)。
您是否试过来自Kafka Connect的[FileSource Connector](https://docs.confluent.io/current/connect/connect-filestream/filestream_connector.html)? –
感谢Chin Huang。我不知道连接器。它的工作:) – Sindhu