---

数据摄取相关问题FAQ

实时摄取

最常见的原因是事件被摄取是在Druid的窗口时段 windowPeriod 范围之外。Druid实时摄取只接受当前时间的可配置窗口时段内的事件。您可以通过查看包含 ingest/events/* 日志行的实时进程日志来验证这是什么情况。这些z指标将标识接收、拒绝的事件等。

我们建议对生产中的历史数据使用批量摄取方法。

批量摄取

如果尝试批量加载历史数据,但没有事件被加载到,请确保摄取规范的时间间隔实际上包含了数据的间隔。此间隔之外的事件将被删除。

Druid支持什么样的数据类型

Druid可以摄取JSON、CSV、TSV和其他分隔数据。Druid支持一维值或多维值(字符串数组)。Druid支持long、float和double数值列。

并非所有的事件都被摄取了

Druid会拒绝时间窗口之外的事件, 确认事件是否被拒绝了的最佳方式是查看 Druid摄取指标

如果摄取的事件数似乎正确,请确保查询的格式正确。如果在摄取规范中包含 count 聚合器,则需要使用 longSum 聚合器查询此聚合的结果。使用count聚合器发出查询将计算Druid行的数量,包括 rollup

摄取之后段存储在哪里

段的存储位置由 druid.storage.type 配置决定的,Druid会将段上传到 深度存储。 本地磁盘是默认的深度存储位置。

流摄取任务没有发生段切换递交

首先,确保摄取过程的日志中没有异常,如果运行的是分布式集群,还要确保 druid.storage.type 被设置为非本地的深度存储。

移交失败的其他常见原因如下:

  1. Druid无法写入元数据存储,确保您的配置正确
  2. Historical进程容量不足,无法再下载任何段。如果发生这种情况,您将在Coordinator日志中看到异常,Coordinator控制台将显示历史记录接近容量
  3. 段已损坏,无法下载。如果发生这种情况,您将在Historical进程中看到异常
  4. 深度存储配置不正确。确保您的段实际存在于深度存储中,并且Coordinator日志没有错误

如何让HDFS工作

确保在类路径中包含 druid-hdfs-storage 和所有的hadoop配置、依赖项(可以通过在安装了hadoop的计算机上运行 hadoop classpath命令获得)。并且,提供必要的HDFS设置,如 深度存储 中所述。

没有在Historical进程中看到Druid段

您可以查看位于 <Coordinator_IP>:<PORT> 的Coordinator控制台, 确保您的段实际上已加载到 Historical进程中。如果段不存在,请检查Coordinator日志中有关复制错误容量的消息。不下载段的一个原因是,Historical进程的 maxSize 太小,使它们无法下载更多数据。您可以使用(例如)更改它:

-Ddruid.segmentCache.locations=[{"path":"/tmp/druid/storageLocation","maxSize":"500000000000"}]
-Ddruid.server.maxSize=500000000000

查询返回来了空结果

您可以对为数据源创建的dimension和metric使用段 元数据查询。确保您在查询中使用的聚合器的名称与这些metric之一匹配,还要确保指定的查询间隔与存在数据的有效时间范围匹配。

schema变化时如何在Druid中重新索引现有数据

您可以将 DruidInputSource并行任务 一起使用,以使用新schema摄取现有的druid段,并更改该段的name、dimensions、metrics、rollup等。有关详细信息,请参阅 DruidInputSource。或者,如果使用基于hadoop的摄取,那么可以使用"dataSource"输入规范来重新编制索引。

有关详细信息,请参阅 数据管理 页的 更新现有数据 部分。

如果更改Druid中现有数据的段粒度

在很多情况下,您可能希望降低旧数据的粒度。例如,任何超过1个月的数据都只有小时级别的粒度,而较新的数据只有分钟级别的粒度。此场景与重新索引相同。

为此,使用 DruidInputSource 并运行一个 并行任务DruidInputSource 将允许你从Druid中获取现有的段并将它们聚合并反馈给Druid。它还允许您在反馈数据时过滤这些段中的数据,这意味着,如果有要删除的行,可以在重新摄取期间将它们过滤掉。通常,上面的操作将作为一个批处理作业运行,即每天输入一大块数据并对其进行聚合。或者,如果使用基于hadoop的摄取,那么可以使用"dataSource"输入规范来重新编制索引。

有关详细信息,请参阅 数据管理 页的 更新现有数据 部分。

实时摄取似乎被卡住了

有几种方法可以做到这一点。如果中间持久化消耗太长时间或如果移交消耗太长事件,Druid将限制摄入,以防止内存不足的问题。如果您的流程日志表明某些列的生成时间非常长(例如,如果您的段粒度是每小时一次,但是创建一个列需要30分钟),那么您应该重新评估您的配置或扩展您的实时接收

更多信息

对于第一次使用Druid的用户来说,将数据输入Druid是非常困难的。请不要犹豫,在我们的IRC频道或在我们的 google群组 页面上提问。

渝ICP备16001958号 | Copyright © 2020 apache-druid.cn All right reserved,powered by Gitbook最近一次修改时间: 2021-11-17 16:33:41

results matching ""

    No results matching ""