-
Notifications
You must be signed in to change notification settings - Fork 394
New issue
Have a question about this project? # for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “#”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? # to your account
[QUESTION]:同步日志文件到Kafka,如何将原始信息写入Kafka的topic,不要添加contents,tags,time这些字段 #1737
Comments
这个可能要自己改下代码了 |
具体代码在哪个地方,修改思路能说明一下吗? |
最好是添加一个控制参数,通过开关来实现这个功能。 |
@silentmoooon 你可以提个pr,建议官方合到主仓库去。这个需求是存在的。 |
好,待我完善一下再提 |
这个方式从行业日志采集实践上将并不好,所有采集器都添加一些额外信息实际上只是为了追溯信息来源。没有来源出问题分析问题很难,除非只有一台机器自己玩。多余的几个字段也并不占太多存储空间,觉得占用空间给 |
@iamhungry 这个需求的场景是什么 |
https://mp.weixin.qq.com/s/A5ONkvkh9JF5SvDdDP-o0Q 我是参考这篇文章处理业务层的数据上报,想用ilogtail替换filebeat 本地落盘的log是业务层上报的数据,通过filebeat直接传入kafka。 落盘的文件按业务划分,一个业务只向一个文件里写,一个文件对应一个kafka的topic,追溯信息来源不需要特别指定是哪个文件。即通过定义约定,可以省掉很多中间的逻辑。 自己解析确实不复杂,这种日志量很大,在讲究性能的情况下,能不解析少操作一步,肯定是优化。 |
日志文件和topic区分了业务,但是日志来自那个实例节点你们是直接打印的日志里吗。比如程序跑5个实例在不同的机器上,有一个实例的机器可能是网络故障、硬件损坏了,如果只存message内容目前你们是怎么在采集里区分的在那台机器出问题 |
哪台机器出问题,属于运维监控层面的事,负载均衡会自动去掉异常节点,不将日志流量转发过去。 监控系统很成熟,通过监控报警,自然就知道问题出现在哪台机器上。 分层思想,可以简化当前处理的问题。也就是说,我们不在业务里面处理日志的节点跟踪。 |
以下为实际写入Kafka的内容,预期值为:"Hello, iLogtail!"
{
"contents": {
"content": "Hello, iLogtail!"
},
"tags": {
"host.ip": "172.17.0.1",
"host.name": "sckf",
"log.file.path": "/root/simple.log"
},
"time": 1725436015
}
The text was updated successfully, but these errors were encountered: