Cómo traducir consultas en SQL con la API de traducción
En este documento, se describe cómo usar la API de Translation en BigQuery para traducir secuencias de comandos escritas en otros dialectos de SQL a consultas de GoogleSQL. La API de Translation puede simplificar el proceso de migración de cargas de trabajo a BigQuery.
Antes de comenzar
Antes de enviar un trabajo de traducción, completa los siguientes pasos:
- Asegúrate de tener todos los permisos necesarios.
- Habilita la API de BigQuery Migration.
- Recopila los archivos de origen que contienen las secuencias de comandos y las consultas de SQL que se deben traducir.
- Sube los archivos de origen a Cloud Storage.
Permisos necesarios
Para obtener los permisos que necesitas para crear trabajos de traducción con la API de traducción, pídele a tu administrador que te otorgue el rol de IAM de editor de MigrationWorkflow (roles/bigquerymigration.editor
) en el recurso parent
.
Para obtener más información sobre cómo otorgar roles, consulta Administra el acceso a proyectos, carpetas y organizaciones.
Este rol predefinido contiene los permisos necesarios para crear trabajos de traducción con la API de traducción. Para ver los permisos exactos que son necesarios, expande la sección Permisos requeridos:
Permisos necesarios
Se requieren los siguientes permisos para crear trabajos de traducción con la API de traducción:
-
bigquerymigration.workflows.create
-
bigquerymigration.workflows.get
También puedes obtener estos permisos con roles personalizados o con otros roles predefinidos.
Habilita la API de BigQuery Migration
Si tu proyecto de Google Cloud CLI se creó antes del 15 de febrero de 2022, habilita la API de BigQuery Migration de la siguiente manera:
En la consola de Trusted Cloud , ve a la página API de BigQuery Migration.
Haz clic en Habilitar.
Sube archivos de entrada a Cloud Storage
Si deseas usar la Trusted Cloud consola o la API de BigQuery Migration para realizar un trabajo de traducción, debes subir los archivos de origen que contienen las consultas y secuencias de comandos que deseas traducir a Cloud Storage. También puedes subir cualquier archivo de metadatos o archivos YAML de configuración al mismo bucket de Cloud Storage que contiene los archivos de origen. Para obtener más información sobre la creación de buckets y la carga de archivos a Cloud Storage, consulta Crea buckets y Sube objetos desde un sistema de archivos.
Tipos de tareas compatibles
La API de Translation puede traducir los siguientes dialectos de SQL a GoogleSQL:
- SQL de Amazon Redshift:
Redshift2BigQuery_Translation
- Apache HiveQL y Beeline CLI:
HiveQL2BigQuery_Translation
- SQL de Apache Spark:
SparkSQL2BigQuery_Translation
- T-SQL de Azure Synapse:
AzureSynapse2BigQuery_Translation
- Greenplum SQL:
Greenplum2BigQuery_Translation
- SQL de IBM Db2:
Db22BigQuery_Translation
- SQL de IBM Netezza y NZPLSQL:
Netezza2BigQuery_Translation
- SQL de MySQL:
MySQL2BigQuery_Translation
- SQL de Oracle, PL/SQL, Exadata:
Oracle2BigQuery_Translation
- SQL de PostgreSQL:
Postgresql2BigQuery_Translation
- SQL de Presto o Trino:
Presto2BigQuery_Translation
- SQL de Snowflake:
Snowflake2BigQuery_Translation
- SQLite:
SQLite2BigQuery_Translation
- T-SQL de SQL Server:
SQLServer2BigQuery_Translation
- Teradata y Teradata Vantage:
Teradata2BigQuery_Translation
- SQL de Vertica:
Vertica2BigQuery_Translation
Cómo controlar funciones de SQL no compatibles con UDF de ayuda
Cuando se traduce SQL de un dialecto de origen a BigQuery, es posible que algunas funciones no tengan un equivalente directo. Para abordar este problema, el servicio de migración de BigQuery (y la comunidad más amplia de BigQuery) proporcionan funciones definidas por el usuario (UDF) de ayuda que replican el comportamiento de estas funciones de dialecto de origen no compatibles.
Estas UDF suelen encontrarse en el conjunto de datos públicos bqutil
, lo que permite que las consultas traducidas hagan referencia a ellas inicialmente con el formato bqutil.<dataset>.<function>()
. Por ejemplo, bqutil.fn.cw_count()
.
Consideraciones importantes para los entornos de producción:
Si bien bqutil
ofrece un acceso conveniente a estas UDF de ayuda para la traducción y las pruebas iniciales, no se recomienda depender directamente de bqutil
para las cargas de trabajo de producción por varios motivos:
- Control de versiones: El proyecto
bqutil
aloja la versión más reciente de estas UDF, lo que significa que sus definiciones pueden cambiar con el tiempo. Si dependes directamente debqutil
, es posible que se produzca un comportamiento inesperado o que se produzcan cambios en tus consultas de producción si se actualiza la lógica de una UDF. - Aislamiento de dependencias: La implementación de UDF en tu propio proyecto aísla tu entorno de producción de los cambios externos.
- Personalización: Es posible que debas modificar o optimizar estas UDF para que se adapten mejor a tu lógica empresarial o a tus requisitos de rendimiento específicos. Esto solo es posible si se encuentran dentro de tu propio proyecto.
- Seguridad y administración: Es posible que las políticas de seguridad de tu organización restrinjan el acceso directo a conjuntos de datos públicos, como
bqutil
, para el procesamiento de datos de producción. Copiar UDF a tu entorno controlado se alinea con esas políticas.
Implementa UDFs de ayuda en tu proyecto:
Para un uso de producción confiable y estable, debes implementar estas UDF de ayuda en tu propio proyecto y conjunto de datos. Esto te brinda un control total sobre su versión, personalización y acceso. Para obtener instrucciones detalladas sobre cómo implementar estas UDF, consulta la guía de implementación de UDF en GitHub. En esta guía, se proporcionan las secuencias de comandos y los pasos necesarios para copiar las UDF en tu entorno.
Ubicaciones
La API de Translation está disponible en las siguientes ubicaciones de procesamiento:
Descripción de la región | Nombre de la región | Detalles | |
---|---|---|---|
Asia-Pacífico | |||
Delhi | asia-south2 |
||
Hong Kong | asia-east2 |
||
Yakarta | asia-southeast2 |
||
Melbourne | australia-southeast2 |
||
Bombay | asia-south1 |
||
Osaka | asia-northeast2 |
||
Seúl | asia-northeast3 |
||
Singapur | asia-southeast1 |
||
Sídney | australia-southeast1 |
||
Taiwán | asia-east1 |
||
Tokio | asia-northeast1 |
||
Europa | |||
Bélgica | europe-west1 |
|
|
Berlín | europe-west10 |
|
|
UE multirregión | eu |
||
Finlandia | europe-north1 |
|
|
Fráncfort | europe-west3 |
|
|
Londres | europe-west2 |
|
|
Madrid | europe-southwest1 |
|
|
Milán | europe-west8 |
||
Países Bajos | europe-west4 |
|
|
París | europe-west9 |
|
|
Estocolmo | europe-north2 |
|
|
Turín | europe-west12 |
||
Varsovia | europe-central2 |
||
Zúrich | europe-west6 |
|
|
América | |||
Columbus, Ohio | us-east5 |
||
Dallas | us-south1 |
|
|
Iowa | us-central1 |
|
|
Las Vegas | us-west4 |
||
Los Ángeles | us-west2 |
||
México | northamerica-south1 |
||
Virginia del Norte | us-east4 |
||
Oregón | us-west1 |
|
|
Quebec | northamerica-northeast1 |
|
|
São Paulo | southamerica-east1 |
|
|
Salt Lake City | us-west3 |
||
Santiago | southamerica-west1 |
|
|
Carolina del Sur | us-east1 |
||
Toronto | northamerica-northeast2 |
|
|
EE.UU. multirregión | us |
||
África | |||
Johannesburgo | africa-south1 |
||
MiddleEast | |||
Dammam | me-central2 |
||
Doha | me-central1 |
||
Israel | me-west1 |
Envía un trabajo de traducción
Para enviar un trabajo de traducción con la API de traducción, usa el método projects.locations.workflows.create
y proporciona una instancia del recurso MigrationWorkflow
con un tipo de tarea compatible.
Una vez que se envíe el trabajo, puedes emitir una consulta para obtener resultados.
Crea una traducción por lotes
Con el siguiente comando de curl
, se crea un trabajo de traducción por lotes en el que los archivos de entrada y salida se almacenan en Cloud Storage. El campo source_target_mapping
contiene una lista que asigna las entradas literal
de origen a una ruta relativa opcional para el resultado de destino.
curl -d "{ \"tasks\": { string: { \"type\": \"TYPE\", \"translation_details\": { \"target_base_uri\": \"TARGET_BASE\", \"source_target_mapping\": { \"source_spec\": { \"base_uri\": \"BASE\" } }, \"target_types\": \"TARGET_TYPES\", } } } }" \ -H "Content-Type:application/json" \ -H "Authorization: Bearer TOKEN" -X POST https://bigquerymigration.googleapis.com/v2alpha/projects/PROJECT_ID/locations/LOCATION/workflows
Reemplaza lo siguiente:
TYPE
: el tipo de tarea de la traducción, que determina el dialecto de origen y objetivo.TARGET_BASE
: Es el URI base para todos los resultados de traducción.BASE
: el URI base para todos los archivos leídos como fuentes de traducción.TARGET_TYPES
(opcional): Los tipos de salida generados. Si no se especifica, se genera SQL.sql
(predeterminado): Son los archivos de consulta en SQL traducidos.suggestion
: Son sugerencias generadas por IA.
El resultado se almacena en una subcarpeta del directorio de salida. La subcarpeta se nombra según el valor de
TARGET_TYPES
.TOKEN
: Es el token para la autenticación. Para generar un token, usa el comandogcloud auth print-access-token
o la zona de pruebas de OAuth 2.0 (usa el permisohttps://www.googleapis.com/auth/cloud-platform
).PROJECT_ID
: es el proyecto que procesará la traducción.LOCATION
: la ubicación en la que se procesa el trabajo.
El comando anterior muestra una respuesta que incluye un ID de flujo de trabajo escrito en el formato projects/PROJECT_ID/locations/LOCATION/workflows/WORKFLOW_ID
.
Ejemplo de traducción por lotes
Para traducir las secuencias de comandos de Teradata SQL en el directorio gs://my_data_bucket/teradata/input/
de Cloud Storage y almacenar los resultados en el directorio gs://my_data_bucket/teradata/output/
de Cloud Storage, puedes usar la siguiente consulta:
{
"tasks": {
"task_name": {
"type": "Teradata2BigQuery_Translation",
"translation_details": {
"target_base_uri": "gs://my_data_bucket/teradata/output/",
"source_target_mapping": {
"source_spec": {
"base_uri": "gs://my_data_bucket/teradata/input/"
}
},
}
}
}
}
Esta llamada mostrará un mensaje que contiene el ID del flujo de trabajo creado en el campo "name"
:
{
"name": "projects/123456789/locations/us/workflows/12345678-9abc-def1-2345-6789abcdef00",
"tasks": {
"task_name": { /*...*/ }
},
"state": "RUNNING"
}
Para obtener el estado actualizado del flujo de trabajo, ejecuta una consulta GET
.
El trabajo envía resultados a Cloud Storage a medida que avanza. El trabajo state
cambia a COMPLETED
después de que se generan todos los target_types
solicitados.
Si la tarea se realiza correctamente, puedes encontrar la consulta en SQL traducida en gs://my_data_bucket/teradata/output
.
Ejemplo de traducción por lotes con sugerencias de IA
En el siguiente ejemplo, se traducen las secuencias de comandos de Teradata SQL que se encuentran en el directorio de Cloud Storage gs://my_data_bucket/teradata/input/
y se almacenan los resultados en el directorio de Cloud Storage gs://my_data_bucket/teradata/output/
con una sugerencia adicional de IA:
{
"tasks": {
"task_name": {
"type": "Teradata2BigQuery_Translation",
"translation_details": {
"target_base_uri": "gs://my_data_bucket/teradata/output/",
"source_target_mapping": {
"source_spec": {
"base_uri": "gs://my_data_bucket/teradata/input/"
}
},
"target_types": "suggestion",
}
}
}
}
Una vez que la tarea se ejecute de forma correcta, las sugerencias de IA se pueden encontrar en el directorio de Cloud Storage gs://my_data_bucket/teradata/output/suggestion
.
Crea un trabajo de traducción interactivo con entradas y salidas literales de cadena
Con el siguiente comando de curl
, se crea un trabajo de traducción con entradas y salidas literales de cadena. El campo source_target_mapping
contiene una lista que asigna los directorios de origen a una ruta de acceso relativa opcional para el resultado de destino.
curl -d "{ \"tasks\": { string: { \"type\": \"TYPE\", \"translation_details\": { \"source_target_mapping\": { \"source_spec\": { \"literal\": { \"relative_path\": \"PATH\", \"literal_string\": \"STRING\" } } }, \"target_return_literals\": \"TARGETS\", } } } }" \ -H "Content-Type:application/json" \ -H "Authorization: Bearer TOKEN" -X POST https://bigquerymigration.googleapis.com/v2alpha/projects/PROJECT_ID/locations/LOCATION/workflows
Reemplaza lo siguiente:
TYPE
: el tipo de tarea de la traducción, que determina el dialecto de origen y objetivo.PATH
: el identificador de la entrada literal, similar a un nombre de archivo o una ruta de acceso.STRING
: Es la string de datos de entrada literales que se traducirán (por ejemplo, SQL).TARGETS
: Son los objetivos esperados que el usuario desea que se muestren directamente en la respuesta en el formatoliteral
. Deben estar en el formato del URI de destino (por ejemplo, GENERATED_DIR +target_spec.relative_path
+source_spec.literal.relative_path
). Todo lo que no esté en esta lista no se mostrará en la respuesta. El directorio generado, GENERATED_DIR para las traducciones de SQL generales essql/
.TOKEN
: Es el token para la autenticación. Para generar un token, usa el comandogcloud auth print-access-token
o la zona de pruebas de OAuth 2.0 (usa el permisohttps://www.googleapis.com/auth/cloud-platform
).PROJECT_ID
: es el proyecto que procesará la traducción.LOCATION
: la ubicación en la que se procesa el trabajo.
El comando anterior muestra una respuesta que incluye un ID de flujo de trabajo escrito en el formato projects/PROJECT_ID/locations/LOCATION/workflows/WORKFLOW_ID
.
Cuando se complete el trabajo, puedes ver los resultados consultando el trabajo y examinando el campo translation_literals
intercalado en la respuesta después de que se complete el flujo de trabajo.
Ejemplo de traducción interactiva
Para traducir la cadena SQL de Hive select 1
de forma interactiva, puedes usar la siguiente consulta:
"tasks": {
string: {
"type": "HiveQL2BigQuery_Translation",
"translation_details": {
"source_target_mapping": {
"source_spec": {
"literal": {
"relative_path": "input_file",
"literal_string": "select 1"
}
}
},
"target_return_literals": "sql/input_file",
}
}
}
Puedes usar cualquier relative_path
que desees para tu literal, pero el literal traducido solo aparecerá en los resultados si incluyes sql/$relative_path
en tu target_return_literals
. También puedes incluir varios literales en una sola consulta, en cuyo caso cada una de sus rutas de acceso relativas se debe incluir en target_return_literals
.
Esta llamada mostrará un mensaje que contiene el ID del flujo de trabajo creado en el campo "name"
:
{
"name": "projects/123456789/locations/us/workflows/12345678-9abc-def1-2345-6789abcdef00",
"tasks": {
"task_name": { /*...*/ }
},
"state": "RUNNING"
}
Para obtener el estado actualizado del flujo de trabajo, ejecuta una consulta GET
.
El trabajo se completa cuando "state"
cambia a COMPLETED
. Si la tarea se realiza correctamente, encontrarás el SQL traducido en el mensaje de respuesta:
{
"name": "projects/123456789/locations/us/workflows/12345678-9abc-def1-2345-6789abcdef00",
"tasks": {
"string": {
"id": "0fedba98-7654-3210-1234-56789abcdef",
"type": "HiveQL2BigQuery_Translation",
/* ... */
"taskResult": {
"translationTaskResult": {
"translatedLiterals": [
{
"relativePath": "sql/input_file",
"literalString": "-- Translation time: 2023-10-05T21:50:49.885839Z\n-- Translation job ID: projects/123456789/locations/us/workflows/12345678-9abc-def1-2345-6789abcdef00\n-- Source: input_file\n-- Translated from: Hive\n-- Translated to: BigQuery\n\nSELECT\n 1\n;\n"
}
],
"reportLogMessages": [
...
]
}
},
/* ... */
}
},
"state": "COMPLETED",
"createTime": "2023-10-05T21:50:49.543221Z",
"lastUpdateTime": "2023-10-05T21:50:50.462758Z"
}
Explora el resultado de la traducción
Después de ejecutar el trabajo de traducción, recupera los resultados mediante la especificación del ID del flujo de trabajo del trabajo de traducción mediante el siguiente comando:
curl \ -H "Content-Type:application/json" \ -H "Authorization:Bearer TOKEN" -X GET https://bigquerymigration.googleapis.com/v2alpha/projects/PROJECT_ID/locations/LOCATION/workflows/WORKFLOW_ID
Reemplaza lo siguiente:
TOKEN
: Es el token para la autenticación. Para generar un token, usa el comandogcloud auth print-access-token
o la zona de pruebas de OAuth 2.0 (usa el permisohttps://www.googleapis.com/auth/cloud-platform
).PROJECT_ID
: es el proyecto que procesará la traducción.LOCATION
: la ubicación en la que se procesa el trabajo.WORKFLOW_ID
: el ID que se genera cuando creas un flujo de trabajo de traducción.
La respuesta contiene el estado de tu flujo de trabajo de migración y los archivos completados en target_return_literals
.
La respuesta contendrá el estado de tu flujo de trabajo de migración y los archivos completados en target_return_literals
. Puedes sondear este extremo para verificar el estado de tu flujo de trabajo.