Crea tablas externas de BigLake para Delta Lake
BigLake te permite acceder a las tablas de Delta Lake con un control de acceso más detallado. Delta Lake es un formato de almacenamiento de datos tabulares de código abierto desarrollado por Databricks que admite tablas de datos a escala de petabytes.
BigQuery admite las siguientes funciones con las tablas de Delta Lake:
- Delegación de acceso: Consulta datos estructurados en almacenes de datos externos con delegación de acceso. La delegación de acceso separa el acceso a la tabla de Delta Lake del acceso al almacén de datos subyacente.
- Control de acceso detallado: Aplica la seguridad detallada a nivel de tabla, lo que incluye seguridad de nivel de fila y nivel de columna. Para las tablas de Delta Lake basadas en Cloud Storage, también puedes usar el enmascaramiento de datos dinámicos.
- Evolución del esquema: Los cambios en el esquema en las tablas de Delta Lake se detectan de forma automática. Los cambios en el esquema se reflejan en la tabla de BigQuery.
Las tablas de Delta Lake también admiten todas las funciones de BigLake cuando las configuras como tablas de BigLake.
Antes de comenzar
-
In the Trusted Cloud console, on the project selector page, select or create a Trusted Cloud project.
-
Verify that billing is enabled for your Trusted Cloud project.
-
Enable the BigQuery Connection and BigQuery Reservation APIs.
-
In the Trusted Cloud console, activate Cloud Shell.
Asegúrate de tener un conjunto de datos de BigQuery.
Asegúrate de que tu versión del SDK de Google Cloud sea 366.0.0 o posterior:
gcloud version
Si es necesario, actualiza el SDK de Google Cloud.
Crea una conexión de recursos de Cloud según tu fuente de datos externa y otórgale acceso a Cloud Storage. Si no tienes los permisos adecuados para crear una conexión, pídele a tu administrador de BigQuery que cree una conexión y la comparta contigo.
bigquery.tables.create
bigquery.connections.delegate
- Rol de Visualizador de BigQuery (
roles/bigquery.viewer
) - Rol de Usuario de conexión de BigQuery (
roles/bigquery.connectionUser
) - Acceso al bucket de Cloud Storage que contiene esos datos
- PROJECT_ID: ID del proyecto en el que deseas crear la tabla de Delta Lake
- DATASET: Es el conjunto de datos de BigQuery que contiene la tabla de Delta Lake.
- DELTALAKE_TABLE_NAME: El nombre de tu tabla de Delta Lake
- REGION: la región que contiene la conexión para crear la tabla de Delta Lake, por ejemplo,
us
CONNECTION_ID: el ID de conexión, por ejemplo,
myconnection
.Cuando ves los detalles de conexión en la consola de Trusted Cloud , el ID de conexión es el valor en la última sección del ID de conexión completamente calificado que se muestra en ID de conexión, por ejemplo,
projects/myproject/locations/connection_location/connections/myconnection
.DELTA_TABLE_GCS_BASE_PATH: Es el prefijo de la tabla de Delta Lake.
- DEFINITION_FILE: la ruta de acceso al archivo de definición de tablas.
- PROJECT_ID: ID del proyecto en el que deseas crear la tabla de Delta Lake
- DATASET: Es el conjunto de datos de BigQuery que contiene la tabla de Delta Lake.
- DELTALAKE_TABLE_NAME: El nombre de tu tabla de Delta Lake
- PROJECT_ID: ID del proyecto en el que deseas crear la tabla de Delta Lake
- REGION: la región que contiene la conexión para crear la tabla de Delta Lake, por ejemplo,
us
CONNECTION_ID: el ID de conexión, por ejemplo,
myconnection
.Cuando ves los detalles de conexión en la consola de Trusted Cloud , el ID de conexión es el valor en la última sección del ID de conexión completamente calificado que se muestra en ID de conexión, por ejemplo,
projects/myproject/locations/connection_location/connections/myconnection
.DELTA_TABLE_GCS_BASE_PATH: Es el prefijo de la tabla de Delta Lake.
DELTALAKE_TABLE_NAME: El nombre de tu tabla de Delta Lake
DATASET: Es el conjunto de datos de BigQuery que contiene la tabla de Delta Lake.
- Es posible que los usuarios experimenten errores
ACCESS_DENIED
cuando intenten acceder a archivos en Cloud Storage. - Las funciones, como el control de acceso detallado, solo están disponibles en las tablas de BigLake de Delta Lake.
- PROJECT_ID: ID del proyecto en el que deseas crear la tabla de Delta Lake
- DATASET: Es el conjunto de datos de BigQuery que contiene la tabla de Delta Lake.
- DELTALAKE_TABLE_NAME: El nombre de tu tabla de Delta Lake
- DELTA_TABLE_GCS_BASE_PATH: Es el prefijo de la tabla de Delta Lake.
- PROJECT_ID: ID del proyecto en el que deseas crear la tabla de Delta Lake
- REGION: la región que contiene la conexión para crear la tabla de Delta Lake, por ejemplo,
us
CONNECTION_ID: el ID de conexión, por ejemplo,
myconnection
.Cuando ves los detalles de conexión en la consola de Trusted Cloud , el ID de conexión es el valor en la última sección del ID de conexión completamente calificado que se muestra en ID de conexión, por ejemplo,
projects/myproject/locations/connection_location/connections/myconnection
.DELTALAKE_TABLE_NAME: El nombre de tu tabla de Delta Lake
DATASET: Es el conjunto de datos de BigQuery que contiene la tabla de Delta Lake.
- Admite la versión del lector 3 de Delta Lake con vectores de eliminación de rutas relativas y asignación de columnas.
- No admite los puntos de control de Delta Lake V2.
- Debes incluir la versión del lector en el último archivo de entrada de registro. Por ejemplo, las tablas nuevas deben incluir
00000..0.json
. - No se admiten las operaciones de captura de datos modificados (CDC). Se ignoran todas las operaciones de los CDC existentes.
- El esquema se detecta de forma automática. No se admite la modificación del esquema con BigQuery.
- Los nombres de las columnas de la tabla deben cumplir con las restricciones de nombres de columnas de BigQuery.
- No se admiten las vistas materializadas.
- La API de lectura no es compatible con Delta Lake.
Asegúrate de usar tablas de BigLake de Delta Lake (con una conexión).
Los usuarios tienen el permiso requerido que se describe.
Usa las utilidades de Delta Lake para compactar los archivos de datos subyacentes y quitar los archivos redundantes, como los datos y los metadatos.
Asegúrate de que
delta.checkpoint.writeStatsAsStruct
esté configurado comotrue
.Asegúrate de que las variables que se usan con frecuencia en las cláusulas de predicado estén en las columnas de partición.
Roles obligatorios
Se requieren los siguientes permisos para crear una tabla de Delta Lake:
El rol predefinido de administración de identidades y accesos de BigQuery (roles/bigquery.admin
) incluye estos permisos.
Si no eres principal en este rol, pídele a tu administrador que te otorgue estos permisos o que cree la tabla de Delta Lake por ti.
Además, para permitir que los usuarios de BigQuery consulten la tabla, la cuenta de servicio asociada con la conexión debe tener el siguiente permiso y acceso:
Para obtener más información sobre los roles y los permisos de la administración de identidades y accesos en BigQuery, consulta Funciones y permisos predefinidos.
Crea tablas con Delta Lake
Para crear tablas de Delta Lake, sigue estos pasos.
SQL
Usa la sentencia CREATE EXTERNAL TABLE
para crear la tabla de Delta Lake:
CREATE EXTERNAL TABLE `PROJECT_ID.DATASET.DELTALAKE_TABLE_NAME`
WITH CONNECTION `PROJECT_ID.REGION.CONNECTION_ID`
OPTIONS (
format ="DELTA_LAKE",
uris=['DELTA_TABLE_GCS_BASE_PATH']);
Reemplaza los siguientes valores:
bq
En un entorno de línea de comandos, usa el comando bq mk
para crear la tabla de Delta Lake:
bq mk --table --external_table_definition=DEFINITION_FILE PROJECT_ID:DATASET.DELTALAKE_TABLE_NAME
Reemplaza los siguientes valores:
REST
Usa la API de BigQuery para crear una tabla de Delta Lake llamando al método de la API tables.insert
:
REQUEST='{
"autodetect": true,
"externalDataConfiguration": {
"sourceFormat": "DELTA_LAKE",
"connectionId": "PROJECT_ID.REGION.CONNECTION_ID",
"sourceUris": [
"DELTA_TABLE_GCS_BASE_PATH"
],
},
"tableReference": {
"tableId": "DELTALAKE_TABLE_NAME"
}
}'
echo $REQUEST | curl -X POST -d @- -H "Content-Type: application/json" -H "Authorization: Bearer $(gcloud auth print-access-token)" https://bigquery.googleapis.com/bigquery/v2/projects/PROJECT_ID/datasets/DATASET/tables?autodetect_schema=true
Reemplaza los siguientes valores:
Cuando creas tablas de Delta Lake, el prefijo de Delta Lake se usa como el URI de la tabla. Por ejemplo, para una tabla que tiene registros en el bucket gs://bucket/warehouse/basictable/_delta_log
, el URI de la tabla es gs://bucket/warehouse/basictable
. Cuando ejecutas consultas en la tabla de Delta Lake, BigQuery lee los datos bajo el prefijo para identificar la versión actual de la tabla y, luego, calcula los metadatos y los archivos de la tabla.
Aunque puedes crear tablas externas de Delta Lake sin una conexión, no se recomienda por los siguientes motivos:
Actualiza tablas de Delta Lake
Para actualizar el esquema de las tablas de Delta Lake, sigue estos pasos.
bq
En un entorno de línea de comandos, usa el comando bq update
para actualizar (actualizar) el esquema de la tabla de Delta Lake:
bq update --autodetect_schema PROJECT_ID:DATASET.DELTALAKE_TABLE_NAME
Reemplaza los siguientes valores:
REST
Usa la API de BigQuery para actualizar una tabla de Delta Lake llamando al método de la API tables.patch
:
REQUEST='{
"externalDataConfiguration": {
"sourceFormat": "DELTA_LAKE",
"sourceUris": [
"DELTA_TABLE_GCS_BASE_PATH"
],
"connectionId": "PROJECT_ID.REGION.CONNECTION_ID",
"autodetect": true
}
}'
echo $REQUEST |curl -X PATCH -d @- -H "Content-Type: application/json" -H "Authorization: Bearer $(gcloud auth print-access-token)" https://bigquery.googleapis.com/bigquery/v2/projects/PROJECT_ID/datasets/DATASET/tables/DELTALAKE_TABLE_NAME?autodetect_schema=true
Reemplaza los siguientes valores:
Consulta tablas de Delta Lake
Después de crear una tabla de BigLake de Delta Lake, puedes consultarla con la sintaxis de GoogleSQL, de la misma manera que lo harías con una tabla de BigQuery estándar. Por ejemplo:
SELECT field1, field2 FROM mydataset.my_cloud_storage_table;
Para obtener más información, ve a Consulta datos de Cloud Storage en tablas de BigLake.
Se usa una conexión externa asociada con una cuenta de servicio para conectarse al almacén de datos. Debido a que la cuenta de servicio recupera datos del almacén de datos, los usuarios solo necesitan acceso a la tabla de Delta Lake.
Asignación de datos
BigQuery convierte los tipos de datos de Delta Lake en tipos de datos de BigQuery, como se muestra en la siguiente tabla:
Tipo de Delta Lake | Tipo de BigQuery |
---|---|
boolean |
BOOL |
byte |
INT64 |
int |
INT64 |
long |
INT64 |
float |
FLOAT64 |
double |
FLOAT64 |
Decimal(P/S) |
NUMERIC o BIG_NUMERIC , según la precisión |
date |
DATE |
time |
TIME |
timestamp (not partition column) |
TIMESTAMP |
timestamp (partition column) |
DATETIME |
string |
STRING |
binary |
BYTES |
array<Type> |
ARRAY<Type> |
struct |
STRUCT |
map<KeyType, ValueType> |
ARRAY<Struct<key KeyType, value ValueType>> |
Limitaciones
Las tablas de Delta Lake tienen limitaciones de tablas de BigLake y también las siguientes limitaciones:
Soluciona problemas
En esta sección, se proporciona ayuda con las tablas de BigLake de Delta Lake. Si necesitas ayuda más general para solucionar problemas con las consultas de BigQuery, consulta Soluciona problemas con las consultas.
Errores de tiempo de espera y recursos de la consulta
Verifica el directorio de registros (gs://bucket/warehouse/basictable/_delta_log
) de la tabla de Delta Lake y busca archivos JSON con un número de versión mayor que el punto de control anterior. Puedes obtener el número de versión enumerando el directorio o inspeccionando el archivo _delta_log/_last_checkpoint.
Los archivos JSON de más de 10 MiB pueden ralentizar la expansión de la tabla, lo que puede provocar problemas de tiempo de espera y recursos. Para resolver este problema, usa el siguiente comando para crear un nuevo punto de control de modo que las consultas omitan la lectura de los archivos JSON:
spark.sql("ALTER TABLE delta.`gs://bucket/mydeltatabledir` SET TBLPROPERTIES ('delta.checkpointInterval' = '1')");
Luego, los usuarios pueden usar el mismo comando para restablecer el intervalo de puntos de control al valor predeterminado de 10 o a un valor que evite tener más de 50 MB de archivos JSON entre los puntos de control.
Nombre de columna no válido
Asegúrate de que el mapeo de columnas esté activado para la tabla de Delta Lake. La asignación de columnas es compatible con la versión 2 o posterior del lector. Para la versión 1 del lector, configura "delta.columnMapping.mode" como "name" con el siguiente comando:
spark.sql("ALTER TABLE delta.`gs://bucket/mydeltatabledir` SET TBLPROPERTIES ('delta.columnMapping.mode' = 'name', 'delta.minReaderVersion' = '3', 'delta.minWriterVersion' = '7')");
Si el nombre de columna no válido cumple con las restricciones flexibles de nombres de columna, comunícate con Atención al cliente de Cloud o biglake-help@google.com.
Errores de acceso denegado
Para diagnosticar problemas con las tablas de BigLake de Delta Lake, verifica lo siguiente:
Rendimiento
Para mejorar el rendimiento de las consultas, prueba los siguientes pasos:
Los conjuntos de datos grandes (más de 100 TB) pueden beneficiarse de configuraciones y funciones adicionales. Si los pasos anteriores no resuelven los problemas, considera comunicarte con el servicio de atención al cliente o biglake-help@google.com, en especial para los conjuntos de datos de más de 100 TB.