使用 Elasticsearch 和 Beats 在 MinIO 中可视化使用模式
MinIO 经常用于存储 Elasticsearch 快照,它为 Elasticsearch 备份提供了一个安全的家。它与存储分层一起使用时效率更高,这降低了 Elasticsearch 的总拥有成本,此外,您还可以获得将数据写入 MinIO 的额外好处,这些数据是不可变的、版本化的和受纠删码保护的。此外,将 Elasticsearch 快照保存到 MinIO 对象存储使它们可用于其他云原生机器学习和分析应用程序。在之前的博客中,我们详细介绍了如何从 Elasticsearch进行快照和恢复。
从那时起,MinIO 和 Elasticsearch 的功能集都得到了发展,现在我们可以做更多的事情:
我们会将 MinIO journalctl 日志发送到 Elasticsearch。
将日志从 MinIO 存储桶发送到 Elasticsearch。
MinIO 是 Elasticsearch 的完美伴侣,因为它具有行业领先的性能和可扩展性。MinIO 将可扩展性和高性能相结合,使每个数据密集型工作负载都触手可及,而不仅仅是 Elasticsearch。MinIO 具有出色的性能——最近的基准仅使用 32 个现成 NVMe SSD 节点,在 GET 上实现了 325 GiB/s (349 GB/s),在 PUT 上实现了 165 GiB/s (177 GB/s)。通过将 MinIO 服务日志发送到 Elasticsearch,我们将获得对 MinIO 操作的可见性,您可以在 Kibana 图形界面中看到模式和警报,这将允许您运行进一步的分析甚至基于特定阈值的警报。例如,您可能想要检查趋势或瓶颈并尝试识别工作负载类型或一天中时间的模式。在这篇博文中,我们将向您展示如何以一种有助于洞察力的消费方式可视化这些模式。

安装 ELK Stack
我们将介绍安装 Elasticsearch-Logstash-Kibana 的最基本方法。为了简单起见,我们将把它安装在同一个节点上,并确保我们不必担心打开节点之间的端口。
在生产中,您应该在单独的节点上构建这些,以便您可以扩展各个组件。
添加 apt repo 密钥,在后面的步骤中不仅会下载 Elasticsearch,还会下载其他组件,例如 Logstash 和 Kibana。
安装弹性搜索包。
启动并验证 Elasticsearch 是否正常工作。启动后,即使状态为running,Elasticsearch的API也可能需要一两分钟的时间才能响应,所以如果一启动服务就超时,请过几分钟再试。
我们将使用 Kibana 可视化我们的日志。我们也可以使用 ElasticSearch API 来读取索引,但图形界面将使用户更容易理解。
安装并启动 Kibana。
转到
http://localhost:5601我在这些示例中指出kibana.min.io的以获得更好的可见性,但您可以使用.localhost/etc/hostslocalhost

目前没有索引,但我们将在接下来的几步中添加它们。为了处理日志以加载我们的索引,我们需要安装 Logstash。
将 Logstash 视为日志解析器。它不存储任何东西,它有输入和输出,以及介于两者之间的一堆不同类型的过滤器。它理解输入数据,过滤/转换它,然后以不同的方式输出它。
安装 Logstash
在以下文件中配置Logstash输出到Elasticsearch
使用以下内容发送到默认索引。
注意:在启动 Logstash 之前,以调试模式运行它以确保一切都按预期工作。在我的例子中,它无法找到 pipelines.yml,所以我不得不通过将它符号链接到原始位置来手动修复它。因此,请在继续之前进行验证。
如果一切正常,启用并启动 Logstash 服务
Logstash 技术上此时正在运行,但我们还没有配置任何输入来使用数据,只有输出,所以现在让我们通过安装 MinIO 和收集服务日志来做到这一点。
安装 MinIO
在之前的博客中,我们讨论了如何将MinIO 配置为 SystemD服务。我们将在这里使用相同的原则,除了它将作为操作系统包安装而不是二进制文件。
安装 MinIO .deb 包。如果您使用的是其他操作系统系列,您可以在此处找到其他软件包
分别创建用户和组
minio-user和minio-user
为 MinIO 创建数据目录,并使用上一步创建的用户和组设置权限
启用并启动 MinIO 服务
您可以通过转到
http://localhost:9001或通过 mc admin 通过控制台验证 MinIO 是否正在运行
如果您看到与这些类似的消息,您可以确定 MinIO 已经启动。稍后我们将创建一个桶并添加一些对象以进一步测试 MinIO。
使用 Journalbeat 发送 Journalctl 日志
Elasticsearch 使用 Beats 从各种来源收集数据,并且有不同类型的节拍。Journalbeat 就是这样一种 Beat;从名称可以看出它读取 journalctl 日志。我们将在这个例子中阅读 MinIO 的 journalctl 日志。
安装 Journalbeat 包。最常见的操作系统有不同的软件包,但在这里我们将在这台基于 Ubuntu 的机器上安装 .DEB 软件包。
01-example.conf使用以下配置更新。这允许 Logstash 在端口 5044 上侦听各种Beats,在本例中为 Journalbeat。
重启 Logstash 使设置生效。
修改
journalbeat.yml以明确添加minio.service。您可以将各种输入配置得更广泛,并从所有服务收集所有 journalctl 日志。
在同一个
journalbeat.yml文件中,修改输出以发送到我们5044之前在 01-example.conf 中配置的 Logstash Beats 端口。注释掉,
output.elasticsearch因为我们希望通过 Logstash 解析日志。
启用并启动 journalbeat
使用
/_cat/端点查看新索引。你应该看到类似下面的内容
应该已经有一些日志了。如果您没有看到日志,您可以执行以下两项操作之一:
修改 Kibana 仪表板中的日期以扩大要显示的日志范围。有可能在我们启动 MinIO 和安装 Journalbeat 之间,日志可能比 Kibana 中的默认范围更早,通常是 15 分钟。因此,如果您扩大范围,您应该会看到旧日志。
如果您立即需要一些新的 journalctl 日志,只需像下面这样重启 MinIO
如果您转到 Kibana 仪表板,您几乎应该立即在索引中看到新日志
minio-journalctl-logs-*

如果您看到与上面类似的内容,则 MinIO journalctl 日志现在位于 Elasticsearch 中。
使用 Filebeat 从 MinIO 读取 Apache 日志
假设您已经在 MinIO 存储桶中拥有日志,并且您想要将它们加载到 Elasticsearch 中。一个可能的用例是归档日志。有时您只想恢复特定范围的日志以供分析,一旦完成分析,您就会从集群中删除这些索引。这通过避免存储不每天使用的旧日志来节省成本。
我们将使用 Filebeat 的 S3 输入从 MinIO 存储桶中读取数据。
在 MinIO 中创建一个桶来存储 Apache 服务器日志。
将 Apache 日志复制到存储桶
下载并安装 Filebeat
使用以下内容配置 Filebeat
filebeat.yml:来自 S3 源的输入,在本例中为 MinIO
apachelogs存储桶。输出到我们的 Logstash 处理器
在我们启动 Filebeat 并通过 Logstash 将日志发送到 Elasticsearch 之前,让我们更新我们可信赖的
01-example.confLogstash 配置以将这些日志发送到新索引。
重新启动 Logstash 以使更改生效。
如果您现在检查 Kibana,
apache-*您应该会看到一些 Apache 日志。

最后的想法
之前,我们向您展示了如何使用 MinIO 对Elasticsearch索引进行快照、备份和恢复。
在本期中,我们向您展示了如何:
将 MinIO Journalctl 日志发送到 Elasticsearch
从 MinIO 存储桶发送 Apache 日志
您可以更进一步,将 Filebeat 与 Kafka 通知集成。这允许您利用MinIO 的存储桶通知功能启动 Filebeat 以在添加新对象时读取存储桶,而不是每隔几秒轮询一次。
现在您可以更好地了解 MinIO 在漂亮的 Kibana 仪表板中执行的操作。不仅如此,我们还向您展示了如何将日志从 MinIO 存储桶临时加载到您选择的索引,而不是在 Elasticsearch 集群中存储大量数据(这可能会变得非常昂贵)。这样,一旦您完成对它们的分析,您就可以丢弃索引。MinIO 可以无缝融入现有的 DevOps 实践和工具链,从而可以与各种 Elasticsearch 工作流集成。
有问题吗?想开始吗?在Slack上联系我们。