Amazon Athena Snowflake 连接器
适用于 Snowflake
先决条件
可以使用 Athena 控制台或 Amazon Serverless Application Repository 将该连接器部署到您的 Amazon Web Services 账户。有关更多信息,请参阅 部署连接器和连接到数据源 或 使用 Amazon Serverless Application Repository 部署数据源连接器。
使用此连接器前,请先设置 VPC 和安全组。有关更多信息,请参阅为数据源连接器创建 VPC。
限制
-
不支持写入 DDL 操作。
-
在多路复用器设置中,溢出桶和前缀在所有数据库实例之间共享。
-
任何相关的 Lambda 限制。有关更多信息,请参阅《Amazon Lambda 开发人员指南》中的 Lambda 配额。
-
目前,不支持 Snowflake 视图。
-
在 Snowflake 中,由于对象名称区分大小写,因此两个表能分别以小写和大写形式具有相同的名称(例如
EMPLOYEE和employee)。在 Athena 联合查询中,架构表名称以小写形式提供给 Lambda 函数。要解决此问题,您可以提供@schemaCase查询提示,用于从名称区分大小写的表中检索数据。以下是两个带有查询提示的示例查询。SELECT * FROM "lambda:snowflakeconnector".SYSTEM."MY_TABLE@schemaCase=upper&tableCase=upper"SELECT * FROM "lambda:snowflakeconnector".SYSTEM."MY_TABLE@schemaCase=upper&tableCase=lower"
条款
以下术语与 Snowflake 连接器有关。
-
数据库实例 — 部署在本地、Amazon EC2 或 Amazon RDS 上的任何数据库实例。
-
处理程序 — 访问您数据库实例的 Lambda 处理程序。处理程序可以用于元数据或数据记录。
-
元数据处理程序 — 从您的数据库实例中检索元数据的 Lambda 处理程序。
-
记录处理程序 — 从您的数据库实例中检索数据记录的 Lambda 处理程序。
-
复合处理程序 — 从您的数据库实例中检索元数据和数据记录的 Lambda 处理程序。
-
属性或参数 — 处理程序用来提取数据库信息的数据库属性。您可以将这些属性配置为 Lambda 环境变量。
-
连接字符串 — 用于建立数据库实例连接的文本字符串。
-
目录 — 向 Athena 注册的非 Amazon Glue 目录,是
connection_string属性的必要前缀。 -
多路复用处理程序 — 可以接受和使用多个数据库连接的 Lambda 处理程序。
参数
使用本节中的 Lambda 环境变量来配置 Snowflake 连接器。
连接字符串
使用以下格式的 JDBC 连接字符串连接到数据库实例。
snowflake://${jdbc_connection_string}
使用多路复用处理程序
您可以使用多路复用器通过单个 Lambda 函数连接到多个数据库实例。按目录名称来路由请求。在 Lambda 中使用以下类。
| Handler | 类 |
|---|---|
| 复合处理程序 | SnowflakeMuxCompositeHandler |
| 元数据处理程序 | SnowflakeMuxMetadataHandler |
| 记录处理程序 | SnowflakeMuxRecordHandler |
多路复用处理程序参数
| 参数 | 描述 |
|---|---|
$ |
必需。数据库实例连接字符串。将 Athena 中使用的目录的名称作为字符串前缀。例如,如果向 Athena 注册的目录是 mysnowflakecatalog,则环境变量名称是 mysnowflakecatalog_connection_string。 |
default |
必需。默认连接字符串。目录为 lambda:${AWS_LAMBDA_FUNCTION_NAME} 时使用此字符串。 |
以下示例属性适用于支持两个数据库实例的 Snowflake MUX Lambda 函数:snowflake1(默认)和 snowflake2。
| 属性 | 值 |
|---|---|
default |
snowflake://jdbc:snowflake://snowflake1.host:port/?warehouse=warehousename&db=db1&schema=schema1&${Test/RDS/Snowflake1} |
snowflake_catalog1_connection_string |
snowflake://jdbc:snowflake://snowflake1.host:port/?warehouse=warehousename&db=db1&schema=schema1${Test/RDS/Snowflake1} |
snowflake_catalog2_connection_string |
snowflake://jdbc:snowflake://snowflake2.host:port/?warehouse=warehousename&db=db1&schema=schema1&user=sample2&password=sample2 |
提供凭证
要在 JDBC 连接字符串中为数据库提供用户名和密码,可以使用连接字符串属性或 Amazon Secrets Manager。
-
连接字符串 — 可以将用户名和密码指定为 JDBC 连接字符串中的属性。
-
Amazon Secrets Manager - 要将 Athena 联合查询功能与 Amazon Secrets Manager 配合使用,连接到您的 Lambda 函数的 VPC 应该拥有互联网访问权限
或者 VPC 端点,以连接到 Secrets Manager。 您可以将 Amazon Secrets Manager 中的密钥名称放入您的 JDBC 连接字符串中。连接器将该密钥名称替换为来自 Secrets Manager 的
username和password值。对于 Amazon RDS 数据库实例,将紧密集成这种支持。如果您使用 Amazon RDS,我们强烈建议您使用 Amazon Secrets Manager 和凭证轮换。如果您的数据库不使用 Amazon RDS,请按以下格式将凭证存储为 JSON:
{"username": "${username}", "password": "${password}"}
带有密钥名称的示例连接字符串
以下字符串带有密钥名称 ${Test/RDS/Snowflake1}。
snowflake://jdbc:snowflake://snowflake1.host:port/?warehouse=warehousename&db=db1&schema=schema1${Test/RDS/Snowflake1}&...
该连接器使用该密钥名称来检索密钥,并提供用户名和密码,如以下示例所示。
snowflake://jdbc:snowflake://snowflake1.host:port/warehouse=warehousename&db=db1&schema=schema1&user=sample2&password=sample2&...
目前,Snowflake 可以识别 user 和 password JDBC 属性。还接受以下格式的用户名和密码:用户名/密码(不含密钥 user 或 password)。
使用单个连接处理程序
您可以使用以下单个连接元数据和记录处理程序连接到单个 Snowflake 实例。
| 处理程序类型 | 类 |
|---|---|
| 复合处理程序 | SnowflakeCompositeHandler |
| 元数据处理程序 | SnowflakeMetadataHandler |
| 记录处理程序 | SnowflakeRecordHandler |
单个连接处理程序参数
| 参数 | 描述 |
|---|---|
default |
必需。默认连接字符串。此字符串在无法识别目录时使用。 |
单个连接处理程序支持一个数据库实例,并且必须提供 default 连接字符串参数。将忽略所有其他连接字符串。
以下示例属性适用于 Lambda 函数支持的单个 Snowflake 实例。
| 属性 | 值 |
|---|---|
default |
snowflake://jdbc:snowflake://snowflake1.host:port/?secret=Test/RDS/Snowflake1 |
溢出参数
Lambda 开发工具包可以将数据溢出到 Amazon S3。由同一 Lambda 函数访问的所有数据库实例都会溢出到同一位置。
| 参数 | 描述 |
|---|---|
spill_bucket |
必需。溢出桶名称。 |
spill_prefix |
必需。溢出桶密钥前缀。 |
spill_put_request_headers |
(可选)用于溢出的 Amazon S3 putObject 请求的请求标头和值的 JSON 编码映射(例如,{"x-amz-server-side-encryption" :
"AES256"})。有关其他可能的标头,请参阅《Amazon Simple Storage Service API 参考》中的 PutObject。 |
PageCount 参数
限制每个分区的记录数。默认值为 500000
PartitionLimit(分区限制)参数
限制分区的数量。默认值为 10。数值大可能会导致超时问题。如果遇到超时错误,请将此参数设置为较低的值。
数据类型支持
下表显示了适用于 JDBC 和 Apache Arrow 的相应数据类型。
| JDBC | Arrow |
|---|---|
| 布尔值 | 位 |
| 整数 | Tiny |
| 短型 | Smallint |
| 整数 | Int |
| 长整型 | Bigint |
| float | Float4 |
| Double | Float8 |
| 日期 | DateDay |
| 时间戳 | DateMilli |
| 字符串 | Varchar |
| 字节 | Varbinary |
| BigDecimal | 小数 |
| ARRAY | List |
数据类型转换
除了 JDBC 到 Arrow 的转换外,连接器还执行某些其他转换,以使 Snowflake 源和 Athena 数据类型兼容。这些转换有助于确保成功执行查询。下表显示了这些转换。
| 源数据类型 (Snowflake) | 转换后的数据类型 (Athena) |
|---|---|
| TIMESTAMP | TIMESTAMPMILLI |
| DATE | TIMESTAMPMILLI |
| INTEGER | INT |
| DECIMAL | BIGINT |
| TIMESTAMP_NTZ | TIMESTAMPMILLI |
所有其他不支持的数据类型都转换为 VARCHAR。
分区和拆分
分区用于确定如何为该连接器生成拆分。Athena 将构建一个 varchar 类型的合成列,它将展示表的分区方案,以帮助该连接器生成拆分。该连接器不会修改实际的表定义。
性能优化
为了获得最佳性能,请尽可能在查询中使用筛选条件。此外,我们强烈建议使用本机分区来检索具有均匀分区分布的大型数据集。
许可证信息
使用此连接器,即表示您确认包含第三方组件(这些组件的列表可在此连接器的 pom.xml
另请参阅
有关最新 JDBC 驱动程序版本信息,请参见 GitHub.com 上适用于 Snowflake 连接器的 pom.xml
有关此连接器的更多信息,请访问 GitHub.com 上的相应站点