SQL

[!WARNING] Apache Druid支持两种查询语言: Druid SQL和 原生查询。本文档讲述SQL查询。

Druid SQL是一个内置的SQL层,是Druid基于JSON的本地查询语言的替代品,它由基于 Apache Calcite 的解析器和规划器提供支持。Druid SQL将SQL转换为查询Broker(查询的第一个进程)上的原生Druid查询,然后作为原生Druid查询传递给数据进程。除了在Broker上 转换SQL 的(轻微)开销之外,与原生查询相比,没有额外的性能损失。

查询符号

Druid SQL支持如下结构的SELECT查询:

[ EXPLAIN PLAN FOR ]
[ WITH tableName [ ( column1, column2, ... ) ] AS ( query ) ]
SELECT [ ALL | DISTINCT ] { * | exprs }
FROM { <table> | (<subquery>) | <o1> [ INNER | LEFT ] JOIN <o2> ON condition }
[ WHERE expr ]
[ GROUP BY [ exprs | GROUPING SETS ( (exprs), ... ) | ROLLUP (exprs) | CUBE (exprs) ] ]
[ HAVING expr ]
[ ORDER BY expr [ ASC | DESC ], expr [ ASC | DESC ], ... ]
[ LIMIT limit ]
[ UNION ALL <another query> ]

FROM

FROM子句可以引用下列任何一个:

  • 来自 druid schema中的 表数据源。 这是默认schema,因此可以将Druid表数据源引用为 druid.dataSourceName 或者简单的 dataSourceName
  • 来自 lookup schema的 lookups, 例如 lookup.countries。 注意:lookups还可以使用 Lookup函数 来查询。
  • 子查询
  • 列表中任何内容之间的 joins,本地数据源(table、lookup、query)和系统表之间的联接除外。连接条件必须是连接左侧和右侧的表达式之间的相等。
  • 来自于 INFORMATION_SCHEMA 或者 sys schema的 元数据表

有关table、lookup、query和join数据源的更多信息,请参阅 数据源文档

WHERE

WHERE子句引用FROM表中的列,并将转换为 原生过滤器。WHERE子句还可以引用子查询,比如 WHERE col1 IN(SELECT foo FROM ...)。像这样的查询作为子查询的连接执行,如下在 查询转换 部分所述。

GROUP BY

GROUP BY子句引用FROM表中的列。使用 GROUP BYDISTINCT 或任何聚合函数都将使用Druid的 三种原生聚合查询类型之一触发聚合查询。GROUP BY可以引用表达式或者select子句的序号位置(如 GROUP BY 2以按第二个选定列分组)。

GROUP BY子句还可以通过三种方式引用多个分组集。 最灵活的是 GROUP BY GROUPING SETS,例如 GROUP BY GROUPING SETS ( (country, city), () ), 该实例等价于一个 GROUP BY country, city 然后 GROUP BY ()。 对于GROUPING SETS,底层数据只扫描一次,从而提高了效率。其次,GROUP BY ROLLUP为每个级别的分组表达式计算一个分组集,例如 GROUP BY ROLLUP (country, city) 等价于 GROUP BY GROUPING SETS ( (country, city), (country), () ) ,将为每个country/city对生成分组行,以及每个country的小计和总计。最后,GROUP BY CUBE为每个分组表达式组合计算分组集,例如 GROUP BY CUBE (country, city) 等价于 GROUP BY GROUPING SETS ( (country, city), (country), (city), () )。对不适用于特定行的列进行分组将包含 NULL, 例如,当计算 GROUP BY GROUPING SETS ( (country, city), () ), 与()对应的总计行对于"country"和"city"列将为 NULL

使用 GROUP BY GROUPING SETS, GROUP BY ROLLUP, 或者 GROUP BY CUBE时,请注意,可能不会按照在查询中指定分组集的顺序生成结果。如果需要按特定顺序生成结果,请使用ORDER BY子句。

HAVING

HAVING子句引用在执行GROUP BY之后出现的列,它可用于对分组表达式或聚合值进行筛选,它只能与GROUP BY一起使用。

ORDER BY

ORDER BY子句引用执行GROUP BY后出现的列。它可用于根据分组表达式或聚合值对结果进行排序。ORDER BY可以引用表达式或者select子句序号位置(例如 ORDER BY 2 根据第二个选定列进行排序)。对于非聚合查询,ORDER BY只能按 __time 排序。对于聚合查询,ORDER BY可以按任何列排序。

LIMIT

LIMIT子句可用于限制返回的行数。它可以用于任何查询类型。对于使用原生TopN查询类型(而不是原生GroupBy查询类型)运行的查询,它被下推到数据进程。未来的Druid版本也将支持使用原生GroupBy查询类型来降低限制。如果您注意到添加一个限制并不会对性能产生很大的影响,那么很可能Druid并没有降低查询的限制。

UNION ALL

UNION ALL操作符可用于将多个查询融合在一起。它们的结果将被连接起来,每个查询将单独运行,背对背(不并行)。Druid现在不支持没有"All"的"UNION"。UNION ALL必须出现在SQL查询的最外层(它不能出现在子查询或FROM子句中)。

请注意,尽管名称相似,UNION ALL与 union datasource 并不是一回事。UNION ALL允许联合查询结果,而UNION数据源允许联合表。

EXPLAIN PLAN

在任何查询的开头添加"EXPLAIN PLAN FOR",以获取有关如何转换的信息。在这种情况下,查询实际上不会执行。有关解释EXPLAIN PLAN输出的帮助,请参阅 查询转换文档

标识符和字面量

可以选择使用双引号引用数据源和列名等标识符。要在标识符中转义双引号,请使用另一个双引号,如 "My ""very own"" identifier"。所有标识符都区分大小写,不执行隐式大小写转换。

字面量字符串应该用单引号引起来,如 'foo'。带Unicode转义符的文本字符串可以像 U&'fo\00F6' 一样写入,其中十六进制字符代码的前缀是反斜杠。字面量数字可以写成 100(表示整数)、100.0(表示浮点值)或 1.0e5(科学表示法)等形式。字面量时间戳可以像 TIMESTAMP '2000-01-01 00:00:00' 一样写入, 用于时间算术的字面量间隔可以写成 INTERVAL '1' HOURINTERVAL '1 02:03' DAY TO MINUTE, INTERVAL '1-2' YEAR TO MONTH 等等。

动态参数

Druid SQL支持使用问号 (?) 的动态参数语法,动态参数在执行时绑定到占位符 ? 中。若要使用动态参数,请将查询中的任何文本替换为 字符,并在执行查询时提供相应的参数值, 参数按传递顺序绑定到占位符。HTTP POSTJDBC APIs 都支持参数。

数据类型

标准类型

Druid原生支持五种列类型:"long"(64位有符号整型),"float"(32位浮点型),"double"(64位浮点型),"string"(UTF-8编码的字符串或者字符串数组)和"complex"(获取更多奇异的数据类型,如hyperUnique列和approxHistogram列)

时间戳(包括 __time 列)被Druid视为long,其值是1970-01-01T00:00:00 UTC以来的毫秒数,不包括闰秒。因此,Druid中的时间戳不携带任何时区信息,而只携带关于它们所代表的确切时间的信息。有关时间戳处理的更多信息,请参阅 时间函数部分

下表描述了Druid如何在查询运行时将SQL类型映射到原生类型。在具有相同Druid运行时类型的两个SQL类型之间进行强制转换不会产生任何影响,除非表中指出了异常。两个具有不同Druid运行时类型的SQL类型之间的转换将在Druid中生成一个运行时转换。如果一个值不能正确地转换为另一个值,如 CAST('foo' AS BIGINT),则运行时将替换默认值。 NULL转换为不可为空类型时将替换为默认值(例如,NULL转为数字将转换为零)。

SQL类型 Druid运行时类型 默认值 注意事项
CHAR STRING ''
VARCHAR STRING '' Druid STRING列报告为VARCHAR,包括 多值字符串
DECIMAL DOUBLE 0.0 DECIMAL使用浮点,非定点
FLOAT FLOAT 0.0 Druid FLOAT列报告为FLOAT
REAL DOUBLE 0.0
DOUBLE DOUBLE 0.0 Druid DOUBLE列报告为DOUBLE
BOOLEAN LONG false
TINYINT LONG 0
SMALLINT LONG 0
INTEGER LONG 0
BIGINT LONG 0 Druid LONG列(除了 __time 报告为BIGINT
TIMESTAMP LONG 0, 意思是1970-01-01 00:00:00 UTC Druid的__time列被报告为TIMESTAMP。 string和timestamp类型的转换都是假定为标准格式,例如 2000-01-02 03:04:05, 而非ISO8601格式。 有关时间戳处理的更多信息,请参阅 时间函数部分
DATE LONG 0, 意思是1970-01-01 转换TIMESTAMP为DATE 时间戳将时间戳舍入到最近的一天。string和date类型的转换都是假定为标准格式,例如 2000-01-02。 有关时间戳处理的更多信息,请参阅 时间函数部分
OTHER COMPLEX none 可以表示各种Druid列类型,如hyperUnique、approxHistogram等

多值字符串

Druid的原生类型系统允许字符串可能有多个值。这些 多值维度 将被报告为SQL中的 VARCHAR 类型,可以像任何其他VARCHAR一样在语法上使用。引用多值字符串维度的常规字符串函数将分别应用于每行的所有值,多值字符串维度也可以通过特殊的 多值字符串函数 作为数组处理,该函数可以执行强大的数组操作。

按多值表达式分组将observe原生Druid多值聚合行为,这与某些其他SQL语法中 UNNEST 的功能类似。有关更多详细信息,请参阅有关 多值字符串维度 的文档。

NULL

runtime property 中的 druid.generic.useDefaultValueForNull 配置控制着Druid的NULL处理模式。

在默认模式(true)下,Druid将NULL和空字符串互换处理,而不是根据SQL标准。在这种模式下,Druid SQL只部分支持NULL。例如,表达式 col IS NULLcol = '' 等效,如果 col 包含空字符串,则两者的计算结果都为true。类似地,如果col1是空字符串,则表达式 COALESCE(col1,col2) 将返回 col2。当 COUNT(*) 聚合器计算所有行时,COUNT(expr) 聚合器将计算expr既不为空也不为空字符串的行数。此模式中的数值列不可为空;任何空值或缺少的值都将被视为零。

在SQL兼容模式(false)中,NULL的处理更接近SQL标准,该属性同时影响存储和查询,因此为了获得最佳行为,应该在接收时和查询时同时设置该属性。处理空值的能力会带来一些开销;有关更多详细信息,请参阅 段文档

聚合函数

聚合函数可以出现在任务查询的SELECT子句中,任何聚合器都可以使用 AGG(expr) FILTER(WHERE whereExpr) 这样的表达式进行过滤。 被过滤的聚合器仅仅聚合那些匹配了过滤器的行。 同一个SQL查询中的两个聚合器可能有不同的过滤器。

只有COUNT聚合支持使用DISTINCT

函数 描述
COUNT(*) 计算行数
COUNT( DISTINCT expr) 唯一值的计数,表达式可以是string、numeric或者hyperUnique。默认情况下,这是近似值,使用HyperLogLog 的变体。若要获取精确计数,请将"useApproximateCountDistinct"设置为"false"。如果这样做,expr必须是字符串或数字,因为使用hyperUnique列不可能精确计数。另请参见 APPROX_COUNT_DISTINCT(expr) 。在精确模式下,每个查询只允许一个不同的计数。
SUM(expr) 求和
MIN(expr) 取数字的最小值
MAX(expr) 取数字的最大值
AVG(expr) 取平均值
APPROX_COUNT_DISTINCT(expr) 唯一值的计数,该值可以是常规列或hyperUnique。这始终是近似值,而不考虑"useApproximateCountDistinct"的值。该函数使用了Druid内置的"cardinality"或"hyperUnique"聚合器。另请参见 COUNT(DISTINCT expr)
APPROX_COUNT_DISTINCT_DS_HLL(expr, [lgK, tgtHllType]) 唯一值的计数,该值可以是常规列或HLL sketchlgktgtHllType 参数在HLL Sketch文档中做了描述。 该值也始终是近似值,而不考虑"useApproximateCountDistinct"的值。另请参见 COUNT(DISTINCT expr), 使用该函数需要加载 DataSketches扩展
APPROX_COUNT_DISTINCT_DS_THETA(expr, [size]) 唯一值的计数,该值可以是常规列或Theta sketchsize 参数在Theta Sketch文档中做了描述。 该值也始终是近似值,而不考虑"useApproximateCountDistinct"的值。另请参见 COUNT(DISTINCT expr), 使用该函数需要加载 DataSketches扩展
DS_HLL(expr, [lgK, tgtHllType]) 在表达式的值上创建一个 HLL sketch, 该值可以是常规列或者包括HLL Sketch的列。lgktgtHllType 参数在HLL Sketch文档中做了描述。使用该函数需要加载 DataSketches扩展
DS_THETA(expr, [size]) 在表达式的值上创建一个Theta sketch,该值可以是常规列或者包括Theta Sketch的列。size 参数在Theta Sketch文档中做了描述。使用该函数需要加载 DataSketches扩展
APPROX_QUANTILE(expr, probability, [resolution]) 在数值表达式或者近似图 表达式上计算近似分位数,"probability"应该是位于0到1之间(不包括1),"resolution"是用于计算的centroids,更高的resolution将会获得更精确的结果,默认值为50。使用该函数需要加载 近似直方图扩展
APPROX_QUANTILE_DS(expr, probability, [k]) 在数值表达式或者 Quantiles sketch 表达式上计算近似分位数,"probability"应该是位于0到1之间(不包括1), k参数在Quantiles Sketch文档中做了描述。使用该函数需要加载 DataSketches扩展
APPROX_QUANTILE_FIXED_BUCKETS(expr, probability, numBuckets, lowerLimit, upperLimit, [outlierHandlingMode]) 在数值表达式或者fixed buckets直方图 表达式上计算近似分位数,"probability"应该是位于0到1之间(不包括1), numBuckets, lowerLimit, upperLimitoutlierHandlingMode 参数在fixed buckets直方图文档中做了描述。 使用该函数需要加载 近似直方图扩展
DS_QUANTILES_SKETCH(expr, [k]) 在表达式的值上创建一个Quantiles sketch,该值可以是常规列或者包括Quantiles Sketch的列。k参数在Quantiles Sketch文档中做了描述。使用该函数需要加载 DataSketches扩展
BLOOM_FILTER(expr, numEntries) 根据expr生成的值计算bloom筛选器,其中numEntries在假阳性率增加之前具有最大数量的不同值。详细可以参见 Bloom过滤器扩展
TDIGEST_QUANTILE(expr, quantileFraction, [compression]) 根据expr生成的值构建一个T-Digest sketch,并返回分位数的值。"compression"(默认值100)确定sketch的精度和大小。更高的compression意味着更高的精度,但更多的空间来存储sketch。有关更多详细信息,请参阅 t-digest扩展文档
TDIGEST_GENERATE_SKETCH(expr, [compression]) 根据expr生成的值构建一个T-Digest sketch。"compression"(默认值100)确定sketch的精度和大小。更高的compression意味着更高的精度,但更多的空间来存储sketch。有关更多详细信息,请参阅 t-digest扩展文档
VAR_POP(expr) 计算expr的总体方差, 额外的信息参见 stats扩展文档
VAR_SAMP(expr) 计算表达式的样本方差,额外的信息参见 stats扩展文档
VARIANCE(expr) 计算表达式的样本方差,额外的信息参见 stats扩展文档
STDDEV_POP(expr) 计算expr的总体标准差, 额外的信息参见 stats扩展文档
STDDEV_SAMP(expr) 计算表达式的样本标准差,额外的信息参见 stats扩展文档
STDDEV(expr) 计算表达式的样本标准差,额外的信息参见 stats扩展文档
EARLIEST(expr) 返回expr的最早值,该值必须是数字。如果expr来自一个与timestamp列(如Druid数据源)的关系,那么"earliest"是所有被聚合值的最小总时间戳最先遇到的值。如果expr不是来自带有时间戳的关系,那么它只是遇到的第一个值。
ARLIEST(expr, maxBytesPerString) EARLIEST(expr)相似,但是面向string。maxBytesPerString 参数确定每个字符串要分配多少聚合空间, 超过此限制的字符串将被截断。这个参数应该设置得尽可能低,因为高值会导致内存浪费。
LATEST(expr) 返回 expr 的最新值,该值必须是数字。如果 expr 来自一个与timestamp列(如Druid数据源)的关系,那么"latest"是最后一次遇到的值,它是所有被聚合的值的最大总时间戳。如果expr不是来自带有时间戳的关系,那么它只是遇到的最后一个值。
LATEST(expr, maxBytesPerString) LATEST(expr) 类似,但是面向string。maxBytesPerString 参数确定每个字符串要分配多少聚合空间, 超过此限制的字符串将被截断。这个参数应该设置得尽可能低,因为高值会导致内存浪费。
ANY_VALUE(expr) 返回 expr 的任何值,包括null。expr必须是数字, 此聚合器可以通过返回第一个遇到的值(包括空值)来简化和优化性能
ANY_VALUE(expr, maxBytesPerString) ANY_VALUE(expr) 类似,但是面向string。maxBytesPerString 参数确定每个字符串要分配多少聚合空间, 超过此限制的字符串将被截断。这个参数应该设置得尽可能低,因为高值会导致内存浪费。

对于近似聚合函数,请查看 近似聚合文档

扩展函数

数值函数

对于数学运算,如果表达式中涉及的所有操作数都是整数,Druid SQL将使用整数数学。否则,Druid将切换到浮点数学,通过将一个操作数转换为浮点,可以强制执行此操作。在运行时,对于大多数表达式,Druid将把32位浮点扩展到64位。

函数 描述
ABS(expr) 绝对值
CEIL(expr) 向上取整
EXP(expr) 次方
FLOOR(expr) 向下取整
LN(expr) 对数(以e为底)
LOG10(expr) 对数(以10为底)
POWER(expr,power) 次方
SQRT(expr) 开方
TRUNCATE(expr[, digits]) expr截断为指定的小数位数。如果数字为负数,则此操作会截断小数点左侧的许多位置。如果未指定,则数字默认为零。
ROUND(expr[, digits]) ROUND(x,y) 将返回x的值,并四舍五入到y小数位。虽然x可以是整数或浮点数,但y必须是整数。返回值的类型由x的类型指定。如果省略,则默认为0。当y为负时,x在y小数点的左侧四舍五入。
x + y
x - y
x * y
x / y
MOD(x, y) 模除
SIN(expr) 正弦
COS(expr) 余弦
TAN(expr) 正切
COT(expr) 余切
ASIN(expr) 反正弦
ACOS(expr) 反余弦
ATAN(expr) 反正切
ATAN2(y, x) 从直角坐标(x,y)到极坐标(r,θ)的转换角度θ。
DEGREES(expr) 将以弧度测量的角度转换为以度测量的近似等效角度
RADIANS(expr) 将以度为单位测量的角度转换为以弧度为单位测量的近似等效角度

字符串函数

字符串函数接受字符串,并返回与该函数相应的类型。

函数 描述
`x y` 拼接字符串
CONCAT(expr, expr, ...) 拼接一系列表达式
TEXTCAT(expr, expr) 两个参数版本的CONCAT
STRING_FORMAT(pattern[, args...]) 返回以Java的 方式格式化 的字符串字符串格式
LENGTH(expr) UTF-16代码单位的长度或表达式
CHAR_LENGTH(expr) LENGTH 的同义词
CHARACTER_LENGTH(expr) LENGTH 的同义词
STRLEN(expr) LENGTH 的同义词
LOOKUP(expr, lookupName) 已注册的 查询时Lookup表的Lookup表达式。 注意:lookups也可以直接使用 lookup schema来查询
LOWER(expr) 返回的expr的全小写
PARSE_LONG(string[, radix]) 将字符串解析为具有给定基数的长字符串(BIGINT),如果未提供基数,则解析为10(十进制)。
POSITION(needle IN haystack [FROM fromIndex]) 返回haystack中指针的索引,索引从1开始。搜索将从fromIndex开始,如果未指定fromIndex,则从1开始。如果找不到针,则返回0。
REGEXP_EXTRACT(expr, pattern, [index]) 应用正则表达式模式并提取捕获组,如果没有匹配,则为空。如果index未指定或为零,则返回与模式匹配的子字符串。
REPLACE(expr, pattern, replacement) 在expr中用replacement替换pattern,并返回结果。
STRPOS(haystack, needle) 返回haystack中指针的索引,索引从1开始。如果找不到针,则返回0。
SUBSTRING(expr, index, [length]) 返回从索引开始的expr子字符串,最大长度均以UTF-16代码单位度量。
RIGHT(expr, [length]) 从expr返回最右边的长度字符。
LEFT(expr, [length]) 返回expr中最左边的长度字符。
SUBSTR(expr, index, [length]) SUBSTRING的同义词
`TRIM([BOTH LEADING TRAILING][FROM] expr)` 返回expr, 如果字符在"chars"中,则从"expr"的开头、结尾或两端删除字符。如果未提供"chars",则默认为""(空格)。如果未提供方向参数,则默认为"BOTH"。
BTRIM(expr[, chars]) TRIM(BOTH <chars> FROM <expr>)的替代格式
LTRIM(expr[, chars]) TRIM(LEADING <chars> FROM <expr>)的替代格式
RTRIM(expr[, chars]) TRIM(TRAILING <chars> FROM <expr>)的替代格式
UPPER(expr) 返回全大写的expr
REVERSE(expr) 反转expr
REPEAT(expr, [N]) 将expr重复N次
LPAD(expr, length[, chars]) 从"expr"中返回一个用"chars"填充的"length"字符串。如果"length"小于"expr"的长度,则结果为"expr",并被截断为"length"。如果"expr"或"chars"为空,则结果为空。
RPAD(expr, length[, chars]) 从"expr"返回一个用"chars"填充的"length"字符串。如果"length"小于"expr"的长度,则结果为"expr",并被截断为"length"。如果"expr"或"chars"为空,则结果为空。

时间函数

时间函数可以与Druid的时 __time 一起使用,任何存储为毫秒时间戳的列都可以使用 MILLIS_TO_TIMESTAMP 函数,或者任何存储为字符串时间戳的列都可以使用 TIME_PARSE 函数。默认情况下,时间操作使用UTC时区。您可以通过将连接上下文参数"sqlTimeZone"设置为另一个时区的名称(如"America/Los_Angeles")或设置为偏移量(如"-08:00")来更改时区。如果需要在同一查询中混合多个时区,或者需要使用连接时区以外的时区,则某些函数还接受时区作为参数。这些参数始终优先于连接时区。

连接时区中的字面量时间戳可以使用 TIMESTAMP '2000-01-01 00:00:00' 语法编写。在其他时区写入字面量时间戳的最简单方法是使用TIME_PARSE,比如 TIME_PARSE('2000-02-01 00:00:00',NULL,'America/Los_Angeles')

函数 描述
CURRENT_TIMESTAMP 在连接时区的当前时间戳
CURRENT_DATE 在连接时区的当期日期
DATE_TRUNC(<unit>, <timestamp_expr>) 截断时间戳,将其作为新时间戳返回。单位可以是"毫秒"、"秒"、"分"、"时"、"日"、"周"、"月"、"季"、"年"、"十年"、"世纪"或"千年"。
TIME_CEIL(<timestamp_expr>, <period>, [<origin>, [<timezone>]]) 对时间戳进行向上取整,并将其作为新的时间戳返回。周期可以是任何ISO8601周期,如P3M(季度)或PT12H(半天)。时区(如果提供)应为时区名称,如"America/Los_Angeles"或偏移量,如"-08:00"。此函数类似于 CEIL,但更灵活。
TIME_FLOOR(<timestamp_expr>, <period>, [<origin>, [<timezone>]]) 对时间戳进行向下取整,将其作为新时间戳返回。周期可以是任何ISO8601周期,如P3M(季度)或PT12H(半天)。时区(如果提供)应为时区名称,如"America/Los_Angeles"或偏移量,如"-08:00"。此功能类似于 FLOOR,但更灵活。
TIME_SHIFT(<timestamp_expr>, <period>, <step>, [<timezone>]) 将时间戳移动一个周期(步进时间),将其作为新的时间戳返回。 period 可以是任何ISO8601周期,step 可能为负。时区(如果提供)应为时区名称,如"America/Los_Angeles"或偏移量,如"-08:00"。
TIME_EXTRACT(<timestamp_expr>, [<unit>, [<timezone>]]) 从expr中提取时间部分,并将其作为数字返回。单位可以是EPOCH、SECOND、MINUTE、HOUR、DAY(月的日)、DOW(周的日)、DOY(年的日)、WEEK(年周)、MONTH(1到12)、QUARTER(1到4)或YEAR。时区(如果提供)应为时区名称,如"America/Los_Angeles"或偏移量,如"-08:00"。此函数类似于 EXTRACT,但更灵活。单位和时区必须是字面量,并且必须提供引号,如时间提取 TIME_EXTRACT(__time, 'HOUR')TIME_EXTRACT(__time, 'HOUR', 'America/Los_Angeles')
TIME_PARSE(<string_expr>, [<pattern>, [<timezone>]]) 如果未提供该 pattern, 使用给定的 Joda DateTimeFormat模式 或ISO8601(例如2000-01-02T03:04:05Z)将字符串解析为时间戳。时区(如果提供)应为时区名称,如"America/Los_Angeles"或偏移量,如"-08:00",并将用作不包括时区偏移量的字符串的时区。模式和时区必须是字面量。无法解析为时间戳的字符串将返回空值。
TIME_FORMAT(<timestamp_expr>, [<pattern>, [<timezone>]]) 如果 pattern 未提供,使用给定的 Joda DateTimeFormat模式 或ISO8601(例如2000-01-02T03:04:05Z)将时间戳格式化为字符串。时区(如果提供)应为时区名称,如"America/Los_Angeles"或偏移量,如"-08:00",并将用作不包括时区偏移量的字符串的时区。模式和时区必须是字面量。无法解析为时间戳的字符串将返回空值。
MILLIS_TO_TIMESTAMP(millis_expr) 将纪元后的毫秒数转换为时间戳。
TIMESTAMP_TO_MILLIS(timestamp_expr) 将时间戳转换为自纪元以来的毫秒数
EXTRACT(<unit> FROM timestamp_expr) 从expr中提取时间部分,并将其作为数字返回。单位可以是EPOCH, MICROSECOND, MILLISECOND, SECOND, MINUTE, HOUR, DAY (day of month), DOW (day of week), ISODOW (ISO day of week), DOY (day of year), WEEK (week of year), MONTH, QUARTER, YEAR, ISOYEAR, DECADE, CENTURY or MILLENNIUM。必须提供未加引号的单位,如 EXTRACT(HOUR FROM __time)
FLOOR(timestamp_expr TO <unit>) 向下取整时间戳,将其作为新时间戳返回。unit可以是SECOND, MINUTE, HOUR, DAY, WEEK, MONTH, QUARTER, 或者YEAR
CEIL(timestamp_expr TO <unit>) 向上取整时间戳,将其作为新时间戳返回。unit可以是SECOND, MINUTE, HOUR, DAY, WEEK, MONTH, QUARTER, 或者YEAR
TIMESTAMPADD(<unit>, <count>, <timestamp>) 等价于 timestamp + count * INTERVAL '1' UNIT
TIMESTAMPDIFF(<unit>, <timestamp1>, <timestamp2>) 返回timestamp1timestamp2 之间的(有符号)unit
timestamp_expr { +/- } <interval_expr> 从时间戳中加上或减去时间量。interval_expr 可以包括 INTERVAL '2' HOUR 之类的区间字面量,也可以包括区间算法。该操作将天数统一视为86400秒,并且不考虑夏令时。要计算夏时制时间,请使用 TIME_SHIFT

归约函数

归约函数对零个或多个表达式进行操作,并返回单个表达式。如果没有表达式作为参数传递,则结果为 NULL。表达式必须全部转换为公共数据类型,即结果的类型:

  • 如果所有的参数都是 NULL, 结果是 NULL, 否则,NULL 参数被忽略
  • 如果所有的参数包含了数字和字符串的混合,参数都被解释为字符串
  • 如果所有的参数是整型数字,参数都被解释为长整型
  • 如果所有的参数是数值且至少一个参数是double,则参数都被解释为double
函数 描述
GREATEST([expr1, ...]) 计算零个或多个表达式,并根据上述比较返回最大值。
LEAST([expr1, ...]) 计算零个或多个表达式,并根据上述比较返回最小值。

IP地址函数

对于IPv4地址函数,地址参数可以是IPv4点分十进制字符串(例如"192.168.0.1")或表示为整数的IP地址(例如3232235521)。subnet 参数应该是一个字符串,格式为CIDR表示法中的IPv4地址子网(例如"192.168.0.0/16")。

函数 描述
IPV4_MATCH(address, subnet) 如果 address 属于 subnet文本,则返回true,否则返回false。如果 address 不是有效的IPv4地址,则返回false。如果 address 是整数而不是字符串,则此函数更效率。
IPV4_PARSE(address) address 解析为存储为整数的IPv4地址。如果 address 是有效的IPv4地址的整数,则它将被可以解析。如果 address 不能表示为IPv4地址,则返回null。
IPV4_STRINGIFY(address) address 转换为以点分隔的IPv4地址十进制字符串。如果 address 是有效的IPv4地址的字符串,则它将解析。如果 address 不能表示为IPv4地址,则返回null。

比较操作符

函数 描述
x = y 等于
x <> y 不等于
x > y 大于
x >= y 大于等于
x < y 小于
x <= y 小于等于
x BETWEEN y AND z 等价于 x >= y AND x <= z
x NOT BETWEEN y AND z 等价于 x >= y OR x <= z
x LIKE pattern [ESCAPE esc] 如果x匹配上了一个SQL LIKE模式则返回true
x NOT LIKE pattern [ESCAPE esc] 如果x没有匹配上了一个SQL LIKE模式则返回true
x IS NULL 如果x是NULL或者空串,返回true
x IS NOT NULL 如果x不是NULL也不是空串,返回true
x IS TRUE 如果x是true,返回true
x IS NOT TRUE 如果x不是true,返回true
x IS FALSE 如果x是false,返回true
x IS NOT FALSE 如果x不是false,返回true
x IN (values) 如果x是列出的值之一,则为True
x NOT IN (values) 如果x不是列出的值之一,则为True
x IN (subquery) 如果子查询返回x,则为True。这将转换为联接;有关详细信息,请参阅 查询转换
x NOT IN (subquery) 如果子查询没有返回x,则为True。这将转换为联接;有关详细信息,请参阅 查询转换
x AND y
x OR y
NOT x

Sketch函数

这些函数对返回sketch对象的表达式或列进行操作。

HLL Sketch函数

以下函数操作在 DataSketches HLL sketches 之上,使用这些函数之前需要加载 DataSketches扩展

函数 描述
HLL_SKETCH_ESTIMATE(expr, [round]) 从HLL草图返回非重复计数估计值。expr必须返回HLL草图。可选的round布尔参数如果设置为 true 将舍入估计值,默认值为 false
HLL_SKETCH_ESTIMATE_WITH_ERROR_BOUNDS(expr, [numStdDev]) 从HLL草图返回不同的计数估计值和错误边界。expr 必须返回HLL草图。可以提供可选的 numStdDev 参数。
HLL_SKETCH_UNION([lgK, tgtHllType], expr0, expr1, ...) 返回HLL草图的并集,其中每个输入表达式必须返回HLL草图。可以选择将 lgKtgtHllType 指定为第一个参数;如果提供了,则必须同时指定这两个可选参数。
HLL_SKETCH_TO_STRING(expr) 返回用于调试的HLL草图的可读字符串表示形式。expr 必须返回HLL草图。

Theta Sketch函数

以下函数操作在 theta sketches 之上,使用这些函数之前需要加载 DataSketches扩展

函数 描述
THETA_SKETCH_ESTIMATE(expr) 从theta草图返回不同的计数估计值。expr 必须返回theta草图。
THETA_SKETCH_ESTIMATE_WITH_ERROR_BOUNDS(expr, errorBoundsStdDev) 从theta草图返回不同的计数估计值和错误边界。expr 必须返回theta草图。
THETA_SKETCH_UNION([size], expr0, expr1, ...) 返回theta草图的并集,其中每个输入表达式必须返回theta草图。可以选择将 size 指定为第一个参数。
THETA_SKETCH_INTERSECT([size], expr0, expr1, ...) 返回theta草图的交集,其中每个输入表达式必须返回theta草图。可以选择将 size 指定为第一个参数。
THETA_SKETCH_NOT([size], expr0, expr1, ...) 返回theta草图的集合差,其中每个输入表达式必须返回theta草图。可以选择将 size 指定为第一个参数。

Quantiles Sketch函数

以下函数操作在 quantiles sketches 之上,使用这些函数之前需要加载 DataSketches扩展

函数 描述
DS_GET_QUANTILE(expr, fraction) 返回与来自分位数草图的 fraction 相对应的分位数估计。expr 必须返回分位数草图。
DS_GET_QUANTILES(expr, fraction0, fraction1, ...) 返回一个字符串,该字符串表示与分位数草图的分数列表相对应的分位数估计数组。expr 必须返回分位数草图
DS_HISTOGRAM(expr, splitPoint0, splitPoint1, ...) 返回一个字符串,该字符串表示给定一个分割点列表的直方图近似值,该列表定义了分位数草图中的直方图箱。expr 必须返回分位数草图。
DS_CDF(expr, splitPoint0, splitPoint1, ...) 返回一个字符串,该字符串表示给定的分割点列表(该列表定义了来自分位数草图的容器边缘)的累积分布函数的近似值。expr 必须返回分位数草图。
DS_RANK(expr, value) 返回对给定值的秩的近似值,该值是分布的分数,小于来自分位数草图的该值。expr 必须返回分位数草图。
DS_QUANTILE_SUMMARY(expr) 返回分位数草图的字符串摘要,用于调试。expr 必须返回分位数草图。

其他扩展函数

函数 描述
CAST(value AS TYPE) 将值转换为其他类型。 可以查看 数据类型 来了解在Druid SQL中如何传利CAST
CASE expr WHEN value1 THEN result1 \[ WHEN value2 THEN result2 ... \] \[ ELSE resultN \] END 简单CASE
CASE WHEN boolean_expr1 THEN result1 \[ WHEN boolean_expr2 THEN result2 ... \] \[ ELSE resultN \] END 搜索CASE
NULLIF(value1, value2) 如果value1和value2匹配,则返回NULL,否则返回value1
COALESCE(value1, value2, ...) 返回第一个既不是NULL也不是空字符串的值。
NVL(expr,expr-for-null) 如果'expr'为空(或字符串类型为空字符串),则返回 expr for null
BLOOM_FILTER_TEST(<expr>, <serialized-filter>) 如果值包含在Base64序列化bloom筛选器中,则返回true。 详情查看 Bloom Filter扩展

多值字符串函数

多值字符串函数文档中的所有"array"引用都可以引用多值字符串列或数组字面量。

函数 描述
ARRAY(expr1,expr ...) 从表达式参数构造SQL数组字面量,使用第一个参数的类型作为输出数组类型
MV_LENGTH(arr) 返回数组表达式的长度
MV_OFFSET(arr,long) 返回所提供的基于0的索引处的数组元素,或对于超出范围的索引返回null
MV_ORDINAL(arr,long) 返回所提供的基于1的索引处的数组元素,或对于超出范围的索引返回null
MV_CONTAINS(arr,expr) 如果数组包含expr指定的元素,则返回1;如果expr是数组,则返回expr指定的所有元素,否则返回0
MV_OVERLAP(arr1,arr2) 如果arr1和arr2有任何共同元素,则返回1,否则返回0
MV_OFFSET_OF(arr,expr) 返回数组中expr第一次出现的基于0的索引,或 -1null。如果 druid.generic.useDefaultValueForNull=false 如果数组中不存在匹配元素。
MV_ORDINAL_OF(arr,expr) 返回数组中expr第一次出现的基于1的索引,或 -1null。如果 druid.generic.useDefaultValueForNull=false 如果数组中不存在匹配元素。
MV_PREPEND(expr,arr) 在开头将expr添加到arr,结果数组类型由数组类型决定
MV_APPEND(arr,expr) 将expr追加到arr,结果数组类型由第一个数组的类型决定
MV_CONCAT(arr1,arr2) 连接2个数组,结果数组类型由第一个数组的类型决定
MV_SLICE(arr,start,end) 将arr的子数组从基于0的索引start(inclusive)返回到end(exclusive),如果start小于0,大于arr的长度或小于end,则返回空
MV_TO_STRING(arr,str) 用str指定的分隔符连接arr的所有元素
STRING_TO_MV(str1,str2) 将str1拆分为str2指定的分隔符上的数组

查询转换

在运行之前,Druid SQL将SQL查询转换为 原生查询,理解这种转换是获得良好性能的关键。

最佳实践

在研究如何将SQL查询转换为原生查询的性能影响时,请考虑以下(非详尽)要注意的事项列表。

  1. 如果在主时间列 __time 上写了一个过滤器,需要确保可以正确的转换为原生的 "interval" 过滤器,如下边部分中描述的 时间过滤器。否则,您可能需要更改编写筛选器的方式。
  2. 尽量避免连接后的子查询:它们会影响性能和可伸缩性。这包括由不匹配类型上的条件生成的隐式子查询,以及由使用表达式引用右侧的条件生成的隐式子查询。
  3. 阅读 查询执行页面,了解如何执行各种类型的原生查询。
  4. 解释执行计划输出时要小心,如果有疑问,请使用请求日志记录。请求日志将显示运行的确切原生查询。有关更多详细信息,请参见 下一节
  5. 如果您遇到一个可以计划得更好的查询,可以在 GitHub上提出一个问题。一个可重复的测试用例总是值得赞赏的。

解释EXPLAIN PLAN输出

EXPLAIN PLAN功能可以帮助您理解如何将给定的SQL查询转换为原生查询。对于不涉及子查询或联接的简单查询,EXPLAIN PLAN的输出易于解释。将运行的原生查询作为JSON嵌入到"DruidQueryRel"行中:

> EXPLAIN PLAN FOR SELECT COUNT(*) FROM wikipedia

DruidQueryRel(query=[{"queryType":"timeseries","dataSource":"wikipedia","intervals":"-146136543-09-08T08:23:32.096Z/146140482-04-24T15:36:27.903Z","granularity":"all","aggregations":[{"type":"count","name":"a0"}]}], signature=[{a0:LONG}])

对于涉及子查询或联接的更复杂查询,解释计划稍微更难解释。例如,考虑以下查询:

> EXPLAIN PLAN FOR
> SELECT
>     channel,
>     COUNT(*)
> FROM wikipedia
> WHERE channel IN (SELECT page FROM wikipedia GROUP BY page ORDER BY COUNT(*) DESC LIMIT 10)
> GROUP BY channel

DruidJoinQueryRel(condition=[=($1, $3)], joinType=[inner], query=[{"queryType":"groupBy","dataSource":{"type":"table","name":"__join__"},"intervals":{"type":"intervals","intervals":["-146136543-09-08T08:23:32.096Z/146140482-04-24T15:36:27.903Z"]},"granularity":"all","dimensions":["channel"],"aggregations":[{"type":"count","name":"a0"}]}], signature=[{d0:STRING, a0:LONG}])
  DruidQueryRel(query=[{"queryType":"scan","dataSource":{"type":"table","name":"wikipedia"},"intervals":{"type":"intervals","intervals":["-146136543-09-08T08:23:32.096Z/146140482-04-24T15:36:27.903Z"]},"resultFormat":"compactedList","columns":["__time","channel","page"],"granularity":"all"}], signature=[{__time:LONG, channel:STRING, page:STRING}])
  DruidQueryRel(query=[{"queryType":"topN","dataSource":{"type":"table","name":"wikipedia"},"dimension":"page","metric":{"type":"numeric","metric":"a0"},"threshold":10,"intervals":{"type":"intervals","intervals":["-146136543-09-08T08:23:32.096Z/146140482-04-24T15:36:27.903Z"]},"granularity":"all","aggregations":[{"type":"count","name":"a0"}]}], signature=[{d0:STRING}])

这里,有一个带有两个输入的连接。阅读这篇文章的方法是将EXPLAIN计划输出的每一行看作可能成为一个查询,或者可能只是一个简单的数据源。它们都拥有的query 字段称为"部分查询",并表示如果该行本身运行,将在该行所表示的数据源上运行的查询。在某些情况下,比如本例第二行中的"scan"查询,查询实际上并没有运行,最终被转换为一个简单的表数据源。有关如何工作的更多详细信息,请参见 Join转换 部分

我们可以使用Druid的 请求日志功能 看到这一点。在启用日志记录并运行此查询之后,我们可以看到它实际上作为以下原生查询运行。

{
  "queryType": "groupBy",
  "dataSource": {
    "type": "join",
    "left": "wikipedia",
    "right": {
      "type": "query",
      "query": {
        "queryType": "topN",
        "dataSource": "wikipedia",
        "dimension": {"type": "default", "dimension": "page", "outputName": "d0"},
        "metric": {"type": "numeric", "metric": "a0"},
        "threshold": 10,
        "intervals": "-146136543-09-08T08:23:32.096Z/146140482-04-24T15:36:27.903Z",
        "granularity": "all",
        "aggregations": [
          { "type": "count", "name": "a0"}
        ]
      }
    },
    "rightPrefix": "j0.",
    "condition": "(\"page\" == \"j0.d0\")",
    "joinType": "INNER"
  },
  "intervals": "-146136543-09-08T08:23:32.096Z/146140482-04-24T15:36:27.903Z",
  "granularity": "all",
  "dimensions": [
    {"type": "default", "dimension": "channel", "outputName": "d0"}
  ],
  "aggregations": [
    { "type": "count", "name": "a0"}
  ]
}

查询类型

Druid SQL使用四种不同的原生查询类型。

  • Scan 操作被用来做不进行聚合的查询(非GroupBy和DISTINCT)
  • Timeseries 操作被用来查询GROUP BY FLOOR(__time TO <unit>) 或者 TIME_FLOOR(__time, period), 不再有其他分组表达式,也没有HAVING或者LIMIT子句,没有嵌套,要么是没有ORDER BY、要么是有与GROUP BY表达式相同的ORDER BY。它还将Timeseries用于具有聚合函数但没有分组依据的"总计"查询。这种查询类型利用了Druid段是按时间排序的这一事实。
  • TopN 默认情况下用于按单个表达式分组、具有ORDER BY和LIMIT子句、没有HAVING子句和不嵌套的查询。但是,在某些情况下,TopN查询类型将提供近似的排名和结果;如果要避免这种情况,请将"useApproximateTopN"设置为"false"。TopN结果总是在内存中计算的。有关详细信息,请参阅TopN文档。
  • GroupBy 用于所有其他聚合,包括任何嵌套的聚合查询。Druid的GroupBy是一个传统的聚合引擎:它提供精确的结果和排名,并支持多种功能。GroupBy可以在内存中聚合,但如果没有足够的内存来完成查询,它可能会溢出到磁盘。如果您在GROUP BY子句中使用相同的表达式进行ORDER BY,或者根本没有ORDER BY,则结果将通过Broker从数据进程中流回。如果查询具有未出现在GROUP BY子句(如聚合函数)中的ORDER BY引用表达式,则Broker将在内存中具体化结果列表,最大值不超过LIMIT(如果有的话)。有关优化性能和内存使用的详细信息,请参阅GroupBy文档。

时间过滤器

对于所有原生查询类型,只要有可能,__time 列上的过滤器将被转换为顶级查询的"interval",这允许Druid使用其全局时间索引来快速调整必须扫描的数据集。请考虑以下(非详尽)时间过滤器列表,这些时间过滤器将被识别并转换为 "intervals":

  • __time >= TIMESTAMP '2000-01-01 00:00:00' (与绝对时间相比)
  • __time >= CURRENT_TIMESTAMP - INTERVAL '8' HOUR (与相对时间相比)
  • FLOOR(__time TO DAY) = TIMESTAMP '2000-01-01 00:00:00' (指定的一天)

请参阅 解释执行计划输出 部分,以了解有关确认时间筛选器按预期翻译的详细信息。

连接

SQL连接运算符转换为原生连接数据源,如下所示:

  1. 原生层可以直接处理的连接将被逐字翻译为 join数据源,其 leftrightcondition 是原始SQL的直接翻译。这包括任何SQL连接,其中右边是 lookup子查询,条件是等式,其中一边是基于左边表的表达式,另一边是对右边表的简单列引用,等式的两边是相同的数据类型。
  2. 如果一个连接不能够被直接处理为原生的 join数据源, Druid SQL将插入一个子查询使得其可运行。 例如: foo INNER JOIN bar ON foo.abc = LOWER(bar.def) 因为右边是一个表达式而非简单的列引用,所以不能够被直接转换,这时会插入一个子查询有效的转换为 INNER JOIN (SELECT LOWER(def) AS def FROM bar) t ON foo.abc = t.def
  3. Druid SQL目前不重新排序连接以优化查询。

请参阅 解释执行计划输出部分,以了解有关确认连接是否按预期转换的详细信息。

有关如何执行连接操作的信息,请参阅 查询执行页

子查询

SQL中的子查询一般被转换为原生的查询数据源。有关如何执行子查询操作的信息,请参阅 查询执行页

[!WARNING] WHERE子句中的子查询,如:WHERE col1 IN (SELECT foo FROM ...),被转化为内连接

近似

Druid SQL在一些场景中使用近似算法:

  • 默认情况下,COUNT(DISTINCT col) 聚合函数使用 HyperLogLog 的变体,HyperLogLog是一种快速近似的DISTINCT计数算法。如果通过查询上下文或通过Broker配置将"useApproximateCountDistinct"设置为"false",Druid SQL将切换到精确计数
  • 对于具有ORDER BY和LIMIT的单列GROUP BY查询,可以采用使用了近似算法的TopN引擎执行查询。如果通过查询上下文或通过Broker配置将"useApproximateTopN"设置为"false",Druid SQL将切换到精确的分组算法
  • 标记为使用草图或近似(例如近似计数不同)的聚合函数不管配置如何,始终是近似的

不支持的特性

Druid SQL并非支持所有的SQL特性。 以下特性不支持:

  • 原生数据源(table, lookup, subquery)与系统表的JOIN操作
  • 左侧和右侧的表达式之间不相等的JOIN条件
  • OVER子句,LAGLEAD 等分析型函数
  • OFFSET子句
  • DDL和DML
  • 元数据表 上使用Druid特性的函数,比如 TIME_PARSEAPPROX_QUANTILE_DS

另外,一些Druid原生查询中的特性目前还不被SQL支持。 不支持的特性如下:

客户端API

HTTP POST

在Druid SQL查询中,可以通过HTTP方式发送POST请求到 /druid/v2/sql 来执行SQL查询。该请求应该是一个带有 "query" 字段的JSON对象,例如: {"query" : "SELECT COUNT(*) FROM data_source WHERE foo = 'bar'"}

Request

属性 描述 默认值
query SQL 必填,无
resultFormat 查询结果的格式,详情查看下边的response部分 object
header 是否包含一个请求头,详情查看下边的response部分 false
context 包括 连接上下文 参数JSON对象 {}(空)
parameters 参数化查询的查询参数列表。列表中的每个参数都应该是一个JSON对象,比如 {"type":"VARCHAR","value":"foo"}type 应为SQL类型;有关支持的SQL类型的列表,请参见 数据类型

可以在命令行中使用 curl 来发送SQL查询:

$ cat query.json
{"query":"SELECT COUNT(*) AS TheCount FROM data_source"}

$ curl -XPOST -H'Content-Type: application/json' http://BROKER:8082/druid/v2/sql/ -d @query.json
[{"TheCount":24433}]

可以提供一个"context"的参数来添加 连接上下文 变量,例如:

{
  "query" : "SELECT COUNT(*) FROM data_source WHERE foo = 'bar' AND __time > TIMESTAMP '2000-01-01 00:00:00'",
  "context" : {
    "sqlTimeZone" : "America/Los_Angeles"
  }
}

参数化SQL查询也是支持的:

{
  "query" : "SELECT COUNT(*) FROM data_source WHERE foo = ? AND __time > ?",
  "parameters": [
    { "type": "VARCHAR", "value": "bar"},
    { "type": "TIMESTAMP", "value": "2000-01-01 00:00:00" }
  ]
}

通过对 元数据表 进行HTTP POST请求可以获得元数据

Responses

Druid SQL的HTTP POST API支持一个可变的结果格式,可以通过"resultFormat"参数来指定,例如:

{
  "query" : "SELECT COUNT(*) FROM data_source WHERE foo = 'bar' AND __time > TIMESTAMP '2000-01-01 00:00:00'",
  "resultFormat" : "object"
}

支持的结果格式为:

格式 描述 Content-Type
object 默认值,JSON对象的JSON数组。每个对象的字段名都与SQL查询返回的列匹配,并且按与SQL查询相同的顺序提供。 application/json
array JSON数组的JSON数组。每个内部数组按顺序都有与SQL查询返回的列匹配的元素。 application/json
objectLines 与"object"类似,但是JSON对象由换行符分隔,而不是包装在JSON数组中。如果您没有流式JSON解析器的现成访问权限,这可以使将整个响应集解析为流更加容易。为了能够检测到被截断的响应,此格式包含一个空行的尾部。 text/plain
arrayLines 与"array"类似,但是JSON数组由换行符分隔,而不是包装在JSON数组中。如果您没有流式JSON解析器的现成访问权限,这可以使将整个响应集解析为流更加容易。为了能够检测到被截断的响应,此格式包含一个空行的尾部。 text/plain
csv 逗号分隔的值,每行一行。单个字段值可以用双引号括起来进行转义。如果双引号出现在字段值中,则通过将它们替换为双引号(如""this"")来对其进行转义。为了能够检测到被截断的响应,此格式包含一个空行的尾部。 text/csv

您还可以通过在请求中将"header"设置为true来请求头,例如:

{
  "query" : "SELECT COUNT(*) FROM data_source WHERE foo = 'bar' AND __time > TIMESTAMP '2000-01-01 00:00:00'",
  "resultFormat" : "arrayLines",
  "header" : true
}

在这种情况下,返回的第一个结果将是头。对于 csvarrayarrayline 格式,标题将是列名列表。对于 objectobjectLines 格式,头将是一个对象,其中键是列名,值为空。

在发送响应体之前发生的错误将以JSON格式报告,状态代码为HTTP 500,格式与 原生Druid查询错误 相同。如果在发送响应体时发生错误,此时更改HTTP状态代码或报告JSON错误已经太迟,因此响应将简单地结束流,并且处理您的请求的Druid服务器将记录一个错误。

作为调用者,正确处理响应截断非常重要。这对于"object"和"array"格式很容易,因为的截断响应将是无效的JSON。对于面向行的格式,您应该检查它们都包含的尾部:结果集末尾的一个空行。如果通过JSON解析错误或缺少尾随的换行符检测到截断的响应,则应假定响应由于错误而未完全传递。

JDBC

您可以使用 Avatica JDBC Driver 来进行Druid SQL查询。 下载Avatica客户端jar包后加到类路径下,使用如下连接串: jdbc:avatica:remote:url=http://BROKER:8082/druid/v2/sql/avatica/

示例代码为:

// Connect to /druid/v2/sql/avatica/ on your Broker.
String url = "jdbc:avatica:remote:url=http://localhost:8082/druid/v2/sql/avatica/";

// Set any connection context parameters you need here (see "Connection context" below).
// Or leave empty for default behavior.
Properties connectionProperties = new Properties();

try (Connection connection = DriverManager.getConnection(url, connectionProperties)) {
  try (
      final Statement statement = connection.createStatement();
      final ResultSet resultSet = statement.executeQuery(query)
  ) {
    while (resultSet.next()) {
      // Do something
    }
  }
}

表的元数据信息在JDBC中也是可以查询的,通过 connection.getMetaData() 或者查询 信息Schema

连接粘性

Druid的JDBC服务不在Broker之间共享连接状态。这意味着,如果您使用JDBC并且有多个Druid Broker,您应该连接到一个特定的Broker,或者使用启用了粘性会话的负载平衡器。Druid Router进程在平衡JDBC请求时提供连接粘性,即使使用普通的非粘性负载平衡器,也可以用来实现必要的粘性。请参阅 Router文档 以了解更多详细信息

注意:非JDBC的 HTTP POST 是无状态的,不需要粘性

动态参数

在JDBC代码中也可以使用参数化查询,例如:

PreparedStatement statement = connection.prepareStatement("SELECT COUNT(*) AS cnt FROM druid.foo WHERE dim1 = ? OR dim1 = ?");
statement.setString(1, "abc");
statement.setString(2, "def");
final ResultSet resultSet = statement.executeQuery();

连接上下文

Druid SQL支持在客户端设置连接参数,下表中的参数会影响SQL执行。您提供的所有其他上下文参数都将附加到Druid查询,并可能影响它们的运行方式。关于可能选项的详情可以参见 查询上下文

请注意,要为SQL查询指定唯一标识符,请使用 sqlQueryId 而不是queryId。为SQL请求设置 queryId 没有任何效果,所有SQL底层的原生查询都将使用自动生成的queryId。

连接上下文可以指定为JDBC连接属性,也可以指定为JSON API中的 "context" 对象。

参数 描述 默认值
sqlQueryId 本次SQL查询的唯一标识符。对于HTTP客户端,它在 X-Druid-SQL-Query-Id 头中返回 自动生成
sqlTimeZone 设置此连接的时区,这将影响时间函数和时间戳文本的行为。应该是时区名称,如"America/Los_Angeles"或偏移量,如"-08:00" Broker配置中的 druid.sql.planner.sqlTimeZone , 默认为:UTC
useApproximateCountDistinct 是否对 COUNT(DISTINCT foo) 使用近似基数算法 Broker配置中的 druid.sql.planner.useApproximateCountDistinct, 默认为:true
useApproximateTopN 当SQL查询可以这样表示时,是否使用近似TopN查询。如果为false,则将使用精确的 GroupBy查询 Broker配置中的 druid.sql.planner.useApproximateTopN, 默认为:true

元数据表

Druid Broker从集群中加载的段推断每个数据源的表和列元数据,并使用此来计划SQL查询。该元数据在Broker启动时缓存,并通过 段元数据查询 在后台定期更新。后台元数据刷新由进入和退出集群的段触发,也可以通过配置进行限制。

Druid通过特殊的系统表公开系统信息。有两种schema可用:Information Schema和Sys Schema。Information Schema提供有关表和列类型的详细信息, Sys Schema提供了有关Druid内部的信息,比如段/任务/服务器。

INFORMATION SCHEMA

您可以使用JDBC连接 connection.getMetaData() 访问表和列元数据,或通过下面描述的INFORMATION_SCHEMA表。例如,要检索Druid数据源"foo"的元数据,请使用查询:

SELECT * FROM INFORMATION_SCHEMA.COLUMNS WHERE TABLE_SCHEMA = 'druid' AND TABLE_NAME = 'foo'

[!WARNING] INFORMATION_SCHEMA表目前不支持Druid特定的函数,如:TIME_PARSEAPPROX_QUANTILE_DS, 只有标准的SQL函数是可用的。

SCHEMATA表

Column Notes
CATALOG_NAME Unused
SCHEMA_NAME
SCHEMA_OWNER Unused
DEFAULT_CHARACTER_SET_CATALOG Unused
DEFAULT_CHARACTER_SET_SCHEMA Unused
DEFAULT_CHARACTER_SET_NAME Unused
SQL_PATH Unused

TABLES表

Column Notes
TABLE_CATALOG Unused
TABLE_SCHEMA
TABLE_NAME
TABLE_TYPE "TABLE" or "SYSTEM_TABLE"

COLUMNS表

Column Notes
TABLE_CATALOG Unused
TABLE_SCHEMA
TABLE_NAME
OLUMN_NAME
ORDINAL_POSITION
COLUMN_DEFAULT Unused
IS_NULLABLE
DATA_TYPE
CHARACTER_MAXIMUM_LENGTH Unused
CHARACTER_OCTET_LENGTH Unused
NUMERIC_PRECISION
NUMERIC_PRECISION_RADIX
NUMERIC_SCALE
DATETIME_PRECISION
CHARACTER_SET_NAME
COLLATION_NAME
JDBC_TYPE Type code from java.sql.Types (Druid extension)

SYSTEM SCHEMA

"sys"模式提供了对Druid段、服务器和任务的可见性。

[!WARNING] 注意: "sys"表当前不支持Druid特定的函数,例如 TIME_PARSEAPPROX_QUANTILE_DS。 仅仅标准SQL函数可以被使用。

SEGMENTS表

segments表提供了所有Druid段的详细信息,无论该段是否被发布

字段 类型 注意
segment_id STRING 唯一的段标识符
datasource STRING 数据源名称
start STRING Interval开始时间(ISO8601格式)
end STRING Interval结束时间(ISO8601格式)
size LONG 段大小,单位为字节
version STRING 版本字符串(通常是ISO8601时间戳,对应于段集首次启动的时间)。较高的版本意味着最近创建的段。版本比较基于字符串比较。
partition_num LONG 分区号(整数,在数据源+间隔+版本中是唯一的;不一定是连续的)
num_replicas LONG 当前正在服务的此段的副本数
num_rows LONG 当前段中的行数,如果查询时Broker未知,则此值可以为空
is_published LONG 布尔值表示为long类型,其中1=true,0=false。1表示此段已发布到元数据存储且 used=1。详情查看 架构页面
is_available LONG 布尔值表示为long类型,其中1=true,0=false。1表示此段当前由任何进程(Historical或Realtime)提供服务。详情查看 架构页面
is_realtime LONG 布尔值表示为long类型,其中1=true,0=false。如果此段仅由实时任务提供服务,则为1;如果任何Historical进程正在为此段提供服务,则为0。
is_overshadowed LONG 布尔值表示为long类型,其中1=true,0=false。如果此段已发布,并且被其他已发布的段完全覆盖则为1。目前,对于未发布的段,is_overshadowed 总是false,尽管这在未来可能会改变。可以通过过滤 is_published=1is_overshadowed=0 来筛选"应该发布"的段。如果段最近被替换,它们可以短暂地被发布,也可以被掩盖,但还没有被取消发布。详情查看 架构页面
payload STRING JSON序列化数据段负载

例如,要检索数据源"wikipedia"的所有段,请使用查询:

SELECT * FROM sys.segments WHERE datasource = 'wikipedia'

另一个检索每个数据源的段总大小、平均大小、平均行数和段数的示例:

SELECT
    datasource,
    SUM("size") AS total_size,
    CASE WHEN SUM("size") = 0 THEN 0 ELSE SUM("size") / (COUNT(*) FILTER(WHERE "size" > 0)) END AS avg_size,
    CASE WHEN SUM(num_rows) = 0 THEN 0 ELSE SUM("num_rows") / (COUNT(*) FILTER(WHERE num_rows > 0)) END AS avg_num_rows,
    COUNT(*) AS num_segments
FROM sys.segments
GROUP BY 1
ORDER BY 2 DESC

注意:请注意,一个段可以由多个流摄取任务或Historical进程提供服务,在这种情况下,它将有多个副本。当由多个摄取任务提供服务时,这些副本彼此之间的一致性很弱,直到某个片段最终由一个Historical段提供服务,此时该段是不可变的。Broker更喜欢从Historical中查询段,而不是从摄取任务中查询段。但如果一个段有多个实时副本,例如Kafka索引任务,同时一个任务比另一个慢,然后sys.segments结果在任务的持续时间内可能会有所不同,因为Broker只查询一个摄取任务,并且不能保证每次都选择相同的任务。段表的 num_rows 列在此期间可能有不一致的值。关于与流摄取任务的不一致性,有一个 公开问题

SERVERS表

Servers表列出集群中发现的所有服务器

字段 类型 注意
server STRING 服务名称,格式为host:port
host STRING 服务的hostname
plaintext_port LONG 服务器的不安全端口,如果禁用明文通信,则为-1
tls_port LONG 服务器的TLS端口,如果禁用了TLS,则为-1
server_type STRING Druid服务的类型,可能的值包括:COORDINATOR, OVERLORD, BROKER, ROUTER, HISTORICAL, MIDDLE_MANAGER 或者 PEON
tier STRING 分布层,查看 druid.server.tier。仅对Historical有效,对于其他类型则为null
current_size LONG 此服务器上以字节为单位的段的当前大小。仅对Historical有效,对于其他类型则为0
max_size LONG 此服务器建议分配给段的最大字节大小,请参阅 druid.server.maxSize 文件, 仅对Historical有效,对于其他类型则为0

要检索有关所有服务器的信息,请使用查询:

SELECT * FROM sys.servers;

SERVER_SEGMENTS表

SERVER_SEGMENTS表用来连接服务与段表

字段 类型 注意
server STRING 格式为host:port的服务名称, SERVER表 的主键
segment_id STRING 段标识符,SEGMENTS表 的主键

"SERVERS"和"SEGMENTS"之间的联接可用于查询特定数据源的段数,按SERVER分组,示例查询:

SELECT count(segments.segment_id) as num_segments from sys.segments as segments
INNER JOIN sys.server_segments as server_segments
ON segments.segment_id  = server_segments.segment_id
INNER JOIN sys.servers as servers
ON servers.server = server_segments.server
WHERE segments.datasource = 'wikipedia'
GROUP BY servers.server;

TASKS表

"TASKS"表提供有关活跃的和最近完成的索引任务的信息。有关更多信息,请查看 摄取任务的文档

字段 类型 注意
task_id STRING 唯一的任务标识符
group_id STRING 本任务的任务组ID,值依赖于任务的 type, 例如,对于原生索引任务, 它与 task_id 相同,对于子任务,该值为父任务的ID
type STRING 任务类型,例如该值为"index"表示为索引任务。 可以查看 任务概述
datasource STRING 被索引的数据源名称
created_time STRING ISO8601格式的时间戳,与创建摄取任务的时间相对应。请注意,此值是为已完成和正在等待的任务填充的。对于正在运行和挂起的任务,此值设置为1970-01-01T00:00:00Z
queue_insertion_time STRING ISO8601格式的时间戳,与此任务添加到Overlord上的队列时对应
status STRING 任务状态,可以是RUNNING、FAILED、SUCCESS
runner_status STRING 对于已完成任务的运行状态为NONE,对于进行中的任务,值可以为RUNNING、WAITING、PENDING
duration LONG 完成任务所用的时间(毫秒),此值仅对已完成的任务显示
location STRING 运行此任务的服务器名称,格式为主机:端口,此信息仅对正在运行的任务显示
host STRING 运行此任务的服务器名称
plaintext_port LONG 服务器的不安全端口,如果明文通信被禁用,则为-1
tls_port LONG 服务器的TLS端口,如果TLS被禁用,则为-1
error_msg STRING FAILED任务的详细错误信息

例如,要检索按状态筛选的任务信息,请使用查询

SELECT * FROM sys.tasks WHERE status='FAILED';

SUPERVISORS表

SUPERVISORS表提供supervisor的详细信息

字段 类型 注意
supervisor_id STRING supervisor任务的标识符
state STRING supervisor的基本状态,可用状态有: UNHEALTHY_SUPERVISOR, UNHEALTHY_TASKS, PENDING, RUNNING, SUSPENDED, STOPPING。详情可以查看 Kafka摄取文档
detailed_state STRING supervisor特定的状态。(详情查看特定的supervisor状态的文档)
healthy LONG 布尔值表示为long类型,其中1=true,0=false。1表示supervisor健康
type STRING supervisor的类型,例如 kafka, kinesis 或者 materialized_view
source STRING supervisor的源,例如 Kafka Topic或者Kinesis Stream
suspended LONG 布尔值表示为long类型,其中1=true,0=false。1表示supervisor处于暂停状态
spec STRING JSON序列化的supervisor说明

例如:要检索按运行状况筛选的supervisor任务信息,请使用查询:

SELECT * FROM sys.supervisors WHERE healthy=0;

服务配置

Druid SQL计划发生在Broker上,由 Broker runtime properties 配置。

安全性

有关进行SQL查询需要哪些权限的信息,请参阅基本安全文档中的 定义SQL权限

渝ICP备16001958号 | Copyright © 2020 apache-druid.cn All right reserved,powered by Gitbook最近一次修改时间: 2021-11-17 15:22:04

results matching ""

    No results matching ""