Guida alla traduzione SQL di Snowflake

Questo documento descrive in dettaglio le somiglianze e le differenze nella sintassi SQL tra Snowflake e BigQuery per contribuire ad accelerare la pianificazione e l'esecuzione del trasferimento dell'EDW (Enterprise Data Warehouse) a BigQuery. Il data warehousing Snowflake è progettato per funzionare con la sintassi SQL specifica di Snowflake. Gli script scritti per Snowflake potrebbero dover essere modificati prima di poter essere utilizzati in BigQuery, perché i dialetti SQL variano tra i servizi. Utilizza la traduzione SQL batch per eseguire la migrazione degli script SQL in blocco oppure la traduzione SQL interattiva per tradurre query ad hoc. Snowflake SQL è supportato da entrambi gli strumenti in anteprima.

Tipi di dati

Questa sezione mostra gli equivalenti tra i tipi di dati in Snowflake e in BigQuery.



Snowflake BigQuery Note
NUMBER/ DECIMAL/NUMERIC NUMERIC/BIGNUMERIC Può essere mappato su NUMERIC o BIGNUMERIC, a seconda della precisione e della scala.

Il tipo di dati NUMBER in Snowflake supporta 38 cifre di precisione e 37 cifre di scalabilità. La precisione e la scala possono essere specificate in base all'utente.

BigQuery supporta NUMERIC e BIGNUMERIC con precisione e scala specificate facoltativamente entro determinati limiti.
INT/INTEGER BIGNUMERIC INT/INTEGER e tutti gli altri tipi di dati simili a INT, come BIGINT, TINYINT, SMALLINT, BYTEINT, rappresentano un alias per il tipo di dati NUMBER in cui la precisione e la scala non possono essere specificate ed è sempre NUMBER(38, 0)

L'opzione di configurazione REWRITE_ZERO_SCALE_NUMERIC_AS_INTEGER può essere utilizzata per convertire INTEGER e i tipi correlati in INT64.
BIGINT BIGNUMERIC
SMALLINT BIGNUMERIC
TINYINT BIGNUMERIC
BYTEINT BIGNUMERIC
FLOAT/
FLOAT4/
FLOAT8
FLOAT64 Il tipo di dati FLOAT in Snowflake stabilisce che "NaN" è > X, dove X è qualsiasi valore FLOAT (diverso da "NaN").

Il tipo di dati FLOAT in BigQuery stabilisce che "NaN" è < X, dove X è qualsiasi valore FLOAT (diverso da "NaN").
DOUBLE/
DOUBLE PRECISION/

REAL
FLOAT64 Il tipo di dati DOUBLE in Snowflake è sinonimo del tipo di dati FLOAT in Snowflake, ma viene spesso visualizzato in modo errato come FLOAT. Viene archiviato correttamente come DOUBLE.
VARCHAR STRING Il tipo di dati VARCHAR in Snowflake ha una lunghezza massima di 16 MB (non compressi). Se la lunghezza non è specificata, il valore predefinito è la lunghezza massima.

Il tipo di dati STRING in BigQuery viene archiviato come Unicode con codifica UTF-8 a lunghezza variabile. La lunghezza massima è di 16.000 caratteri.
CHAR/CHARACTER STRING Il tipo di dati CHAR in Snowflake ha una lunghezza massima di 1.
STRING/TEXT STRING Il tipo di dati STRING in Snowflake è sinonimo di VARCHAR di Snowflake.
BINARY BYTES
VARBINARY BYTES
BOOLEAN BOOL Il tipo di dati BOOL in BigQuery può accettare solo TRUE/FALSE, a differenza del tipo di dati BOOL in Snowflake, che può accettare TRUE/FALSE/NULL.
DATE DATE Il tipo DATE in Snowflake accetta i formati di data più comuni, a differenza del tipo DATE in BigQuery, che accetta solo date nel formato "AAAA-[M]M-[G]G".
TIME TIME Il tipo TIME in Snowflake supporta da 0 a 9 nanosecondi di precisione, mentre il tipo TIME in BigQuery supporta da 0 a 6 nanosecondi di precisione.
TIMESTAMP DATETIME TIMESTAMP è un alias configurabile dall'utente che per impostazione predefinita è TIMESTAMP_NTZ, che corrisponde a DATETIME in BigQuery.
TIMESTAMP_LTZ TIMESTAMP
TIMESTAMP_NTZ/DATETIME DATETIME
TIMESTAMP_TZ TIMESTAMP
OBJECT JSON Il tipo OBJECT in Snowflake non supporta i valori con tipo esplicito. I valori sono di tipo VARIANT.
VARIANT JSON Il tipo OBJECT in Snowflake non supporta i valori con tipo esplicito. I valori sono di tipo VARIANT.
ARRAY ARRAY<JSON> Il tipo ARRAY in Snowflake può supportare solo i tipi VARIANT, mentre il tipo ARRAY in BigQuery può supportare tutti i tipi di dati, ad eccezione di un array stesso.

BigQuery dispone anche dei seguenti tipi di dati che non hanno un analogo Snowflake diretto:

Sintassi delle query e operatori di query

Questa sezione illustra le differenze nella sintassi delle query tra Snowflake e BigQuery.

SELECT estratto conto

La maggior parte delle istruzioni Snowflake SELECT è compatibile con BigQuery. La tabella seguente contiene un elenco di differenze minori.

Snowflake BigQuery

SELECT TOP ...

FROM table

SELECT expression

FROM table

ORDER BY expression DESC

LIMIT number

SELECT

x/total AS probability,

ROUND(100 * probability, 1) AS pct

FROM raw_data


Nota: Snowflake supporta la creazione e il riferimento di un alias nella stessa istruzione SELECT.

SELECT

x/total AS probability,

ROUND(100 * (x/total), 1) AS pct

FROM raw_data

SELECT * FROM (

VALUES (1), (2), (3)

)

SELECT AS VALUE STRUCT(1, 2, 3)

Per impostazione predefinita, gli alias e gli identificatori Snowflake non fanno distinzione tra maiuscole e minuscole. Per preservare la distinzione tra maiuscole e minuscole, racchiudi gli alias e gli identificatori tra virgolette doppie (").

FROM clausola

Una clausola FROM in una query specifica le possibili tabelle, viste, sottoquery o funzioni di tabella da utilizzare in un'istruzione SELECT. Tutti questi riferimenti alle tabelle sono supportati in BigQuery.

La tabella seguente contiene un elenco di differenze minori.

Snowflake BigQuery

SELECT $1, $2 FROM (VALUES (1, 'one'), (2, 'two'));

WITH table1 AS
(
SELECT STRUCT(1 as number, 'one' as spelling)
UNION ALL
SELECT STRUCT(2 as number, 'two' as spelling)
)
SELECT *
FROM table1

SELECT* FROM table SAMPLE(10)

SELECT* FROM table

TABLESAMPLE

BERNOULLI (0.1 PERCENT)

SELECT * FROM table1 AT(TIMESTAMP => timestamp) SELECT * FROM table1 BEFORE(STATEMENT => statementID)

SELECT * FROM table

FOR SYSTEM_TIME AS OF timestamp


Nota: BigQuery non ha un'alternativa diretta a BEFORE di Snowflake che utilizza un ID istruzione. Il valore di timestamp non può essere precedente di più di 7 giorni rispetto al timestamp attuale.

@[namespace]<stage_name>[/path]

BigQuery non supporta il concetto di file di staging.

SELECT*

FROM table

START WITH predicate

CONNECT BY

[PRIOR] col1 = [PRIOR] col2

[, ...]

...

BigQuery non offre un'alternativa diretta a CONNECT BY di Snowflake.

È possibile fare riferimento alle tabelle BigQuery nella clausola FROM utilizzando:

  • [project_id].[dataset_id].[table_name]
  • [dataset_id].[table_name]
  • [table_name]

BigQuery supporta anche riferimenti aggiuntivi alle tabelle:

  • Versioni precedenti della definizione e delle righe della tabella utilizzando FOR SYSTEM_TIME AS OF
  • Percorsi dei campi o qualsiasi percorso che si risolve in un campo all'interno di un tipo di dati (ovvero un STRUCT)
  • Array appiattiti

WHERE clausola

La clausola Snowflake WHERE e la clausola BigQuery WHERE sono identiche, tranne per quanto segue:

Snowflake BigQuery

SELECT col1, col2 FROM table1, table2 WHERE col1 = col2(+)

SELECT col1, col2
FROM table1 INNER JOIN table2
ON col1 = col2

Nota: BigQuery non supporta la sintassi (+) per JOIN

Tipi di JOIN

Sia Snowflake che BigQuery supportano i seguenti tipi di join:

Sia Snowflake che BigQuery supportano le clausoleONeUSING.

La tabella seguente contiene un elenco di differenze minori.

Snowflake BigQuery

SELECT col1

FROM table1

NATURAL JOIN

table2

SELECT col1

FROM table1

INNER JOIN

table2

USING (col1, col2 [, ...])


Nota: in BigQuery, le clausole JOIN richiedono una condizione JOIN, a meno che non si tratti di un CROSS JOIN o una delle tabelle unite sia un campo all'interno di un tipo di dati o di un array.

SELECT ... FROM table1 AS t1, LATERAL ( SELECT*

FROM table2 AS t2

WHERE t1.col = t2.col )


Nota: a differenza dell'output di un join non laterale, l'output di un join laterale include solo le righe generate dalla visualizzazione in linea. Non è necessario unire le righe sul lato sinistro a quelle sul lato destro perché le righe sul lato sinistro sono già state prese in considerazione passando alla visualizzazione in linea.

SELECT ... FROM table1 as t1 LEFT JOIN table2 as t2

ON t1.col = t2.col

Nota: BigQuery non supporta un'alternativa diretta per LATERAL JOIN.

WITH clausola

Una clausola BigQuery WITH contiene una o più sottoquery denominate che vengono eseguite ogni volta che un'istruzione SELECT successiva fa riferimento a queste sottoquery. Le clausole WITH di Snowflake si comportano allo stesso modo di BigQuery, con l'eccezione che BigQuery non supporta WITH RECURSIVE.

GROUP BY clausola

Supporto delle clausole GROUP BY di Snowflake GROUP BY, GROUP BY ROLLUP, GROUP BY GROUPING SETS, e GROUP BY CUBE, mentre le clausole GROUP BY di BigQuery supportano GROUP BY, GROUP BY ALL, GROUP BY ROLLUP, GROUP BY GROUPING SETS, e GROUP BY CUBE.

Snowflake HAVING e BigQuery HAVING sono sinonimi. Tieni presente che HAVING si verifica dopo GROUP BY e l'aggregazione e prima di ORDER BY.

Snowflake BigQuery

SELECT col1 as one, col2 as two

FROM table GROUP BY (one, 2)

SELECT col1 as one, col2 as two

FROM table GROUP BY (one, 2)

SELECT col1 as one, col2 as two

FROM table GROUP BY ROLLUP (one, 2)

SELECT col1 as one, col2 as two

FROM table GROUP BY ROLLUP (one, 2)

SELECT col1 as one, col2 as two

FROM table GROUP BY GROUPING SETS (one, 2)


Nota: Snowflake consente fino a 128 set di raggruppamento nello stesso blocco di query

SELECT col1 as one, col2 as two

FROM table GROUP BY GROUPING SETS (one, 2)

SELECT col1 as one, col2 as two

FROM table GROUP BY CUBE (one,2)


Nota: Snowflake consente fino a 7 elementi (128 set di raggruppamento) in ogni cubo

SELECT col1 as one, col2 as two

FROM table GROUP BY CUBE (one, 2)

ORDER BY clausola

Esistono alcune piccole differenze tra le clausole Snowflake ORDER BY e BigQuery ORDER BY.

Snowflake BigQuery
In Snowflake, i NULL vengono classificati per ultimi per impostazione predefinita (ordine crescente). In BigQuery, i NULLS vengono classificati per primi per impostazione predefinita (ordine crescente).
Puoi specificare se i valori NULL devono essere ordinati per primi o per ultimi utilizzando rispettivamente NULLS FIRST o NULLS LAST. Non esiste un equivalente per specificare se i valori NULL devono essere i primi o gli ultimi in BigQuery.

LIMIT/FETCH clausola

La clausola LIMIT/FETCH in Snowflake limita il numero massimo di righe restituite da un'istruzione o una sottoquery. LIMIT (sintassi Postgres) e FETCH (sintassi ANSI) producono lo stesso risultato.

In Snowflake e BigQuery, l'applicazione di una clausola LIMIT a una query non influisce sulla quantità di dati letti.

Snowflake BigQuery

SELECT col1, col2

FROM table

ORDER BY col1

LIMIT count OFFSET start


SELECT ...

FROM ...

ORDER BY ...

OFFSET start {[ROW | ROWS]} FETCH {[FIRST | NEXT]} count

{[ROW | ROWS]} [ONLY]


Nota: i valori NULL, la stringa vuota ("") e $$$$ sono accettati e vengono trattati come "illimitati". L'utilizzo principale è per connettori e driver.

SELECT col1, col2

FROM table

ORDER BY col1

LIMIT count OFFSET start


Nota: BigQuery non supporta FETCH. LIMIT sostituisce FETCH.

Nota: in BigQuery, OFFSET deve essere utilizzato insieme a un LIMIT count. Assicurati di impostare il valore count INT64 sul numero minimo necessario di righe ordinate per ottenere il massimo rendimento. L'ordinamento non necessario di tutte le righe dei risultati comporterà prestazioni di esecuzione delle query peggiori.

QUALIFY clausola

La clausola QUALIFY in Snowflake consente di filtrare i risultati per le funzioni finestra in modo simile a quanto fa HAVING con le funzioni aggregate e le clausole GROUP BY.

Snowflake BigQuery

SELECT col1, col2 FROM table QUALIFY ROW_NUMBER() OVER (PARTITION BY col1 ORDER BY col2) = 1;

La clausola QUALIFY di Snowflake con una funzione di analisi come ROW_NUMBER(), COUNT() e con OVER PARTITION BY viene espressa in BigQuery come clausola WHERE in una sottoquery che contiene il valore di analisi.

Utilizzo di ROW_NUMBER():

SELECT col1, col2

FROM ( SELECT col1, col2

ROW NUMBER() OVER (PARTITION BY col1 ORDER by col2) RN FROM table ) WHERE RN = 1;


Utilizzando ARRAY_AGG(), che supporta partizioni più grandi:

SELECT result.* FROM ( SELECT ARRAY_AGG(table ORDER BY table.col2 DESC LIMIT 1) [OFFSET(0)] FROM table

GROUP BY col1 ) AS result;

Funzioni

Le sezioni seguenti elencano le funzioni Snowflake e i relativi equivalenti BigQuery.

Funzioni di aggregazione

La tabella seguente mostra i mapping tra le funzioni aggregate, analitiche aggregate e aggregate approssimative comuni di Snowflake e i relativi equivalenti BigQuery.

Snowflake BigQuery

ANY_VALUE([DISTINCT] expression) [OVER ...]


Nota: DISTINCT non ha alcun effetto

ANY_VALUE(expression) [OVER ...]

APPROX_COUNT_DISTINCT([DISTINCT] expression) [OVER ...]


Nota: DISTINCT non ha alcun effetto

APPROX_COUNT_DISTINCT(expression)


Nota: BigQuery non supporta APPROX_COUNT_DISTINCT con le funzioni finestra

APPROX_PERCENTILE(expression, percentile) [OVER ...]


Nota: Snowflake non ha l'opzione per RESPECT NULLS

APPROX_QUANTILES([DISTINCT] expression,100) [OFFSET((CAST(TRUNC(percentile * 100) as INT64))]


Nota: BigQuery non supporta APPROX_QUANTILES con le funzioni finestra

APPROX_PERCENTILE_ACCUMULATE (expression)

BigQuery non supporta la possibilità di memorizzare lo stato intermedio durante la previsione di valori approssimativi.

APPROX_PERCENTILE_COMBINE(state)

BigQuery non supporta la possibilità di memorizzare lo stato intermedio durante la previsione di valori approssimativi.

APPROX_PERCENTILE_ESTIMATE(state, percentile)

BigQuery non supporta la possibilità di memorizzare lo stato intermedio durante la previsione di valori approssimativi.

APPROX_TOP_K(expression, [number [counters]]


Nota: se non viene specificato alcun parametro numerico, il valore predefinito è 1. I contatori devono essere significativamente maggiori del numero.

APPROX_TOP_COUNT(expression, number)


Nota: BigQuery non supporta APPROX_TOP_COUNT con le funzioni finestra.

APPROX_TOP_K_ACCUMULATE(expression, counters)

BigQuery non supporta la possibilità di memorizzare lo stato intermedio durante la previsione di valori approssimativi.

APPROX_TOP_K_COMBINE(state, [counters])

BigQuery non supporta la possibilità di memorizzare lo stato intermedio durante la previsione di valori approssimativi.

APPROX_TOP_K_ESTIMATE(state, [k])

BigQuery non supporta la possibilità di memorizzare lo stato intermedio durante la previsione di valori approssimativi.

APPROXIMATE_JACCARD_INDEX([DISTINCT] expression)


Puoi utilizzare una funzione definita dall'utente personalizzata per implementare MINHASH con k funzioni hash distinte. Un altro approccio per ridurre la varianza in MINHASH consiste nel mantenere
k dei valori minimi di una funzione hash. In questo caso, l'indice di Jaccard può essere approssimato come segue:

WITH

minhash_A AS (

SELECT DISTINCT FARM_FINGERPRINT(TO_JSON_STRING(t)) AS h

FROM TA AS t

ORDER BY h

LIMIT k),

minhash_B AS (

SELECT DISTINCT FARM_FINGERPRINT(TO_JSON_STRING(t)) AS h

FROM TB AS t

ORDER BY h

LIMIT k)

SELECT

COUNT(*) / k AS APPROXIMATE_JACCARD_INDEX

FROM minhash_A

INNER JOIN minhash_B

ON minhash_A.h = minhash_B.h

APPROXIMATE_SIMILARITY([DISTINCT] expression)


È un sinonimo di APPROXIMATE_JACCARD_INDEX e può essere implementato nello stesso modo.

ARRAY_AGG([DISTINCT] expression1) [WITHIN GROUP (ORDER BY ...)]

[OVER ([PARTITION BY expression2])]

Note: Snowflake does not support ability to IGNORE|RESPECT NULLS and to LIMIT directly in ARRAY_AGG.

ARRAY_AGG([DISTINCT] expression1

[{IGNORE|RESPECT}] NULLS] [ORDER BY ...] LIMIT ...])

[OVER (...)]

AVG([DISTINCT] expression) [OVER ...]

AVG([DISTINCT] expression) [OVER ...]


Nota: AVG di BigQuery non esegue il casting automatico su STRING.

BITAND_AGG(expression)

[OVER ...]

BIT_AND(expression) [OVER ...]

Nota: BigQuery non esegue il cast implicito delle colonne di caratteri/testo al valore INTEGER più vicino.

BITOR_AGG(expression)

[OVER ...]

BIT_OR(expression)

[OVER ...]


Nota: BigQuery non esegue il cast implicito delle colonne di caratteri/testo al valore INTEGER più vicino.

BITXOR_AGG([DISTINCT] expression) [OVER ...]

BIT_XOR([DISTINCT] expression) [OVER ...]


Nota: BigQuery non esegue il cast implicito delle colonne di caratteri/testo al valore INTEGER più vicino.

BOOLAND_AGG(expression) [OVER ...]


Nota: Snowflake consente di trattare i valori numerici, decimali e in virgola mobile come TRUE se non sono pari a zero.

LOGICAL_AND(expression)

[OVER ...]

BOOLOR_AGG(expression)

[OVER ...]


Nota: Snowflake consente di trattare i valori numerici, decimali e in virgola mobile come TRUE se non sono pari a zero.

LOGICAL_OR(expression)

[OVER ...]

BOOLXOR_AGG(expression)

[OVER ([PARTITION BY <partition_expr> ])


Nota: Snowflake consente di trattare i valori numerici, decimali e in virgola mobile come TRUE se non sono pari a zero.
Per l'espressione numerica:

SELECT

CASE COUNT(*)

WHEN 1 THEN TRUE

WHEN 0 THEN NULL

ELSE FALSE

END AS BOOLXOR_AGG

FROM T

WHERE expression != 0


Per utilizzare OVER, puoi eseguire il seguente comando (è fornito un esempio booleano):

SELECT

CASE COUNT(expression) OVER (PARTITION BY partition_expr)

WHEN 0 THEN NULL

ELSE

CASE COUNT(

CASE expression

WHEN TRUE THEN 1

END) OVER (PARTITION BY partition_expr)

WHEN 1 THEN TRUE

ELSE FALSE

END

END AS BOOLXOR_AGG

FROM T

CORR(dependent, independent)

[OVER ...]

CORR(dependent, independent)

[OVER ...]

COUNT([DISTINCT] expression [,expression2]) [OVER ...]

COUNT([DISTINCT] expression [,expression2]) [OVER ...]

COVAR_POP(dependent, independent) [OVER ...]

COVAR_POP(dependent, independent) [OVER ...]

COVAR_SAMP(dependent, independent)

[OVER ...]

COVAR_SAMP(dependent, independent)

[OVER ...]

GROUPING(expression1, [,expression2...])

BigQuery non supporta un'alternativa diretta a GROUPING di Snowflake. Disponibile tramite una funzione definita dall'utente.

GROUPING_ID(expression1, [,expression2...])

BigQuery non supporta un'alternativa diretta a GROUPING_ID di Snowflake. Disponibile tramite una funzione definita dall'utente.

HASH_AGG([DISTINCT] expression1, [,expression2])

[OVER ...]

SELECT
BIT_XOR(
FARM_FINGERPRINT(
TO_JSON_STRING(t))) [OVER]
FROM t

SELECT HLL([DISTINCT] expression1, [,expression2])

[OVER ...]


Nota: Snowflake non consente di specificare la precisione.

SELECT HLL_COUNT.EXTRACT(sketch) FROM (

SELECT HLL_COUNT.INIT(expression)

AS sketch FROM table )


Nota: BigQuery non supporta HLL_COUNT… con le funzioni finestra. Un utente non può includere più espressioni in una singola funzione HLL_COUNT....

HLL_ACCUMULATE([DISTINCT] expression)


Nota: Snowflake non consente di specificare la precisione.
HLL_COUNT.INIT(expression [, precision])

HLL_COMBINE([DISTINCT] state)

HLL_COUNT.MERGE_PARTIAL(schizzo)

HLL_ESTIMATE(state)

HLL_COUNT.EXTRACT(sketch)

HLL_EXPORT(binary)

BigQuery non supporta un'alternativa diretta a HLL_EXPORT di Snowflake.

HLL_IMPORT(object)

BigQuery non supporta un'alternativa diretta a HLL_IMPORT di Snowflake.

KURTOSIS(expression)

[OVER ...]

BigQuery non supporta un'alternativa diretta a KURTOSIS di Snowflake.

LISTAGG(

[DISTINCT] aggregate_expression

[, delimiter]

)

[OVER ...]

STRING_AGG(

[DISTINCT] aggregate_expression

[, delimiter]

)

[OVER ...]

MEDIAN(expression) [OVER ...]


Nota: Snowflake non supporta la possibilità di IGNORE|RESPECT NULLS e di LIMIT direttamente in ARRAY_AGG.

PERCENTILE_CONT(

value_expression,

0.5

[ {RESPECT | IGNORE} NULLS]

) OVER()

MAX(expression) [OVER ...]


MIN(expression) [OVER ...]

MAX(expression) [OVER ...]


MIN(expression) [OVER ...]

MINHASH(k, [DISTINCT] expressions)

Puoi utilizzare una UDF personalizzata per implementare MINHASH con k funzioni hash distinte. Un altro approccio per ridurre la varianza in MINHASH consiste nel conservare k dei valori minimi di una funzione hash: SELECT DISTINCT
FARM_FINGERPRINT(
TO_JSON_STRING(t)) AS MINHASH

FROM t

ORDER BY MINHASH

LIMIT k

MINHASH_COMBINE([DISTINCT] state)

<code<select
FROM (
SELECT DISTINCT
FARM_FINGERPRINT(
TO_JSON_STRING(t)) AS h
FROM TA AS t
ORDER BY h
LIMIT k
UNION
SELECT DISTINCT
FARM_FINGERPRINT(
TO_JSON_STRING(t)) AS h
FROM TB AS t
ORDER BY h
LIMIT k
)
ORDER BY h
LIMIT k

MODE(expr1)

OVER ( [ PARTITION BY <expr2> ] )

SELECT expr1

FROM (

SELECT

expr1,

ROW_NUMBER() OVER (

PARTITION BY expr2

ORDER BY cnt DESC) rn

FROM (

SELECT

expr1,

expr2,

COUNTIF(expr1 IS NOT NULL) OVER

(PARTITION BY expr2, expr1) cnt

FROM t))

WHERE rn = 1

OBJECT_AGG(key, value) [OVER ...]

Potresti valutare l'utilizzo di TO_JSON_STRING per convertire un valore in una stringa formattata in JSON.

PERCENTILE_CONT(percentile) WITHIN GROUP (ORDER BY value_expression)

[OVER ...]

PERCENTILE_CONT(

value_expression,

percentile

[ {RESPECT | IGNORE} NULLS]

) OVER()

PERCENTILE_DISC(percentile) WITHIN GROUP (ORDER BY value_expression)

[OVER ...]

PERCENTILE_DISC(

value_expression,

percentile

[ {RESPECT | IGNORE} NULLS]

) OVER()

REGR_AVGX(dependent, independent)

[OVER ...]

SELECT AVG(independent) [OVER ...]

FROM table

WHERE (

(dependent IS NOT NULL) AND

(independent IS NOT NULL)

)

REGR_AVGY(dependent, independent)

[OVER ...]

SELECT AVG(dependent) [OVER ...]

FROM table

WHERE (

(dependent IS NOT NULL) AND

(independent IS NOT NULL)

)

REGR_COUNT(dependent, independent)

[OVER ...]

SELECT COUNT(*) [OVER ...]

FROM table

WHERE (

(dependent IS NOT NULL) AND

(independent IS NOT NULL)

)

REGR_INTERCEPT(dependent, independent)

[OVER ...]

SELECT

AVG(dependent) -

COVAR_POP(dependent,independent)/

VAR_POP(dependent) *

AVG(independent)

[OVER ...]

FROM table

WHERE (

(dependent IS NOT NULL) AND

(independent IS NOT NULL)

)

[GROUP BY ...]

REGR_R2(dependent, independent)

[OVER ...]

SELECT

CASE

WHEN VAR_POP(independent) = 0

THEN NULL

WHEN VAR_POP(dependent) = 0 AND VAR_POP(independent) != 0

THEN 1

ELSE POWER(CORR(dependent, independent), 2)

END AS ...

FROM table

WHERE (

(dependent IS NOT NULL) AND

(independent IS NOT NULL)

)

[GROUP BY ...]

REGR_SLOPE(dependent, independent)

[OVER ...]

SELECT

COVAR_POP(dependent,independent)/

VAR_POP(dependent)

[OVER ...]

FROM table

WHERE (

(dependent IS NOT NULL) AND

(independent IS NOT NULL)

)

[GROUP BY ...]

REGR_SXX(dependent, independent)

[OVER ...]

SELECT COUNT(*)*VAR_POP(independent)

[OVER ...]

FROM table

WHERE (

(dependent IS NOT NULL) AND

(independent IS NOT NULL)

)

[GROUP BY ...]

REGR_SYY(dependent, independent)

[OVER ...]

SELECT COUNT(*)*VAR_POP(dependent)

[OVER ...]

FROM table

WHERE (

(dependent IS NOT NULL) AND

(independent IS NOT NULL)

)

[GROUP BY ...]

SKEW(expression)

BigQuery non supporta un'alternativa diretta a SKEW di Snowflake.

STDDEV([DISTINCT] expression)

[OVER ...]

STDDEV([DISTINCT] expression)

[OVER ...]

STDDEV_POP([DISTINCT] expression)

[OVER ...]

STDDEV_POP([DISTINCT] expression)

[OVER ...]

STDDEV_SAMP([DISTINCT] expression)

[OVER ...]

STDDEV_SAMP([DISTINCT] expression)

[OVER ...]

SUM([DISTINCT] expression)

[OVER ...]

SUM([DISTINCT] expression)

[OVER ...]

VAR_POP([DISTINCT] expression)

[OVER ...]


Nota: Snowflake supporta la possibilità di eseguire il cast di VARCHAR in valori in virgola mobile.

VAR_POP([DISTINCT] expression)

[OVER ...]

VARIANCE_POP([DISTINCT] expression)

[OVER ...]


Nota: Snowflake supporta la possibilità di eseguire il cast di VARCHAR in valori in virgola mobile.

VAR_POP([DISTINCT] expression)

[OVER ...]

VAR_SAMP([DISTINCT] expression)

[OVER ...]


Nota: Snowflake supporta la possibilità di eseguire il cast di VARCHAR in valori in virgola mobile.

VAR_SAMP([DISTINCT] expression)

[OVER ...]

VARIANCE([DISTINCT] expression)

[OVER ...]


Nota: Snowflake supporta la possibilità di eseguire il cast di VARCHAR in valori in virgola mobile.

VARIANCE([DISTINCT] expression)

[OVER ...]

BigQuery offre anche le seguenti funzioni aggregate, aggregate analytic, e approximate aggregate, che non hanno un analogo diretto in Snowflake:

Funzioni di espressione bitwise

La tabella seguente mostra i mapping tra le funzioni di espressione bitwise comuni di Snowflake e i relativi equivalenti BigQuery.

Se il tipo di dati di un'espressione non è INTEGER, Snowflake tenta di eseguire il cast a INTEGER. Tuttavia, BigQuery non tenta di eseguire il cast a INTEGER.

Snowflake BigQuery

BITAND(expression1, expression2)

BIT_AND(x) FROM UNNEST([expression1, expression2]) AS x expression1 & expression2

BITNOT(expression)

~ expression

BITOR(expression1, expression2)

BIT_OR(x) FROM UNNEST([expression1, expression2]) AS x


expression1 | expression2

BITSHIFTLEFT (expression, n)

expression << n

BITSHIFTRIGHT

(expression, n)

expression >> n

BITXOR(expression, expression)


Nota: Snowflake non supporta DISTINCT.

BIT_XOR([DISTINCT] x) FROM UNNEST([expression1, expression2]) AS x


expression ^ expression

Funzioni di espressione condizionale

La tabella seguente mostra i mapping tra le espressioni condizionali Snowflake comuni e i relativi equivalenti BigQuery.

Snowflake BigQuery

expression [ NOT ] BETWEEN lower AND upper

(expression >= lower AND expression <= upper)

BOOLAND(expression1, expression2)


Nota: Snowflake consente di trattare i valori numerici, decimali e in virgola mobile come TRUE se non sono pari a zero.

LOGICAL_AND(x)

FROM UNNEST([expression1, expression2]) AS x


expression1 AND expression2

BOOLNOT(expression1)


Nota: Snowflake consente di trattare i valori numerici, decimali e in virgola mobile come TRUE se non sono pari a zero.

NOT expression

BOOLOR

Nota: Snowflake consente di trattare i valori numerici, decimali e in virgola mobile come TRUE se non sono pari a zero.

LOGICAL_OR(x) FROM UNNEST([expression1, expression2]) AS x


expression1 OR expression2

BOOLXOR

Nota: Snowflake consente di trattare i valori numerici, decimali e in virgola mobile come TRUE se non sono pari a zero.
BigQuery non supporta un'alternativa diretta a BOOLXOR. di Snowflake

CASE [expression] WHEN condition1 THEN result1 [WHEN condition2 THEN result2]

[...]

[ELSE result3]

END

CASE [expression] WHEN condition1 THEN result1 [WHEN condition2 THEN result2]

[...]

[ELSE result3]

END

COALESCE(expr1, expr2, [,...])


Nota: Snowflake richiede almeno due espressioni. BigQuery ne richiede solo uno.

COALESCE(expr1, [,...])

DECODE(expression, search1, result1, [search2, result2...] [,default])

CASE [expression] WHEN condition1 THEN result1 [WHEN condition2 THEN result2]

[...]

[ELSE result3]

END

Nota: BigQuery supporta le sottoquery nelle istruzioni di condizione. Può essere utilizzato per riprodurre DECODE di Snowflake. L'utente deve utilizzare IS NULL anziché = NULL per trovare corrispondenze tra le espressioni di selezione NULL e le espressioni di ricerca NULL.

EQUAL_NULL(expression1, expression2)

BigQuery non supporta un'alternativa diretta a EQUAL_NULL. di Snowflake

GREATEST(expression1, [,expression2]...)

GREATEST(expression1, [,expression2]...)

IFF(condition, true_result, false_result)

IF(condition, true_result, false_result)

IFNULL(expression1, expression2)

IFNULL(expression1, expression2)

[ NOT ] IN ...

[ NOT ] IN ...

expression1 IS [ NOT ] DISTINCT FROM expression2

BigQuery non supporta un'alternativa diretta a IS [ NOT ] DISTINCT FROM. di Snowflake

expression IS [ NOT ] NULL

expression IS [ NOT ] NULL

IS_NULL_VALUE(variant_expr)

BigQuery non supporta i tipi di dati VARIANT.

LEAST(expression,...)

LEAST(expression,...)

NULLIF(expression1,expression2)

NULLIF(expression1,expression2)

NVL(expression1, expression2)

IFNULL(expression1,expression2)

NVL2(expr1,expr2,expr2)

IF(expr1 IS NOT NULL, expr2,expr3)

REGR_VALX(expr1,expr2)

IF(expr1 IS NULL, NULL, expr2)

Nota: BigQuery non supporta un'alternativa diretta alle funzioni REGR... di Snowflake.

REGR_VALY(expr1,expr2)

IF(expr2 IS NULL, NULL, expr1)


Nota: BigQuery non supporta un'alternativa diretta alle funzioni REGR... di Snowflake.

ZEROIFNULL(expression)

IFNULL(expression,0)

Funzioni di contesto

La tabella seguente mostra i mapping tra le funzioni di contesto Snowflake comuni e i relativi equivalenti BigQuery.

Snowflake BigQuery

CURRENT_ACCOUNT()

SESSION_USER()


Nota: non è un confronto diretto. Snowflake restituisce l'ID account, BigQuery restituisce l'indirizzo email dell'utente.

CURRENT_CLIENT()

Concetto non utilizzato in BigQuery

CURRENT_DATABASE()

SELECT catalog_name

FROM INFORMATION_SCHEMA.SCHEMATA

Viene restituita una tabella dei nomi dei progetti. Non è un confronto diretto.

CURRENT_DATE[()]


Nota: Snowflake non applica "()" dopo il comando CURRENT_DATE per rispettare gli standard ANSI.

CURRENT_DATE([timezone])


Nota: CURRENT_DATE di BigQuery supporta la specifica facoltativa del fuso orario.

CURRENT_REGION()

SELECT location

FROM INFORMATION_SCHEMA.SCHEMATA


Nota: INFORMATION_SCHEMA.SCHEMATA di BigQuery restituisce riferimenti di località più generalizzati rispetto a CURRENT_REGION() di Snowflake. Non è un confronto diretto.

CURRENT_ROLE()

Concetto non utilizzato in BigQuery

CURRENT_SCHEMA()

SELECT schema_name

FROM INFORMATION_SCHEMA.SCHEMATA

Viene restituita una tabella di tutti i set di dati (chiamati anche schemi) disponibili nel progetto o nella regione. Non è un confronto diretto.

CURRENT_SCHEMAS()

Concetto non utilizzato in BigQuery

CURRENT_SESSION()

Concetto non utilizzato in BigQuery

CURRENT_STATEMENT()

SELECT query

FROM INFORMATION_SCHEMA.JOBS_BY_*


Nota: INFORMATION_SCHEMA.JOBS_BY_* di BigQuery consente di cercare query per tipo di job, tipo di inizio/fine e così via.

CURRENT_TIME[([frac_sec_prec])]


Nota: Snowflake consente una precisione facoltativa dei secondi frazionari. I valori validi sono compresi tra 0 e 9 nanosecondi. Il valore predefinito è 9. Per rispettare lo standard ANSI, può essere chiamato senza "()".

CURRENT_TIME()

CURRENT_TIMESTAMP[([frac_sec_prec])]


Nota: Snowflake consente una precisione facoltativa dei secondi frazionari. I valori validi sono compresi tra 0 e 9 nanosecondi. Il valore predefinito è 9. Per rispettare lo standard ANSI, questa funzione può essere chiamata senza "()". Imposta TIMEZONE come parametro di sessione.

CURRENT_DATETIME([timezone]) CURRENT_TIMESTAMP()


Nota: CURRENT_DATETIME restituisce il tipo di dati DATETIME (non supportato in Snowflake). CURRENT_TIMESTAMP restituisce il tipo di dati TIMESTAMP.

CURRENT_TRANSACTION()

SELECT job_id

FROM INFORMATION_SCHEMA.JOBS_BY_*

Nota: INFORMATION_SCHEMA.JOBS_BY_* di BigQuery consente di cercare gli ID job per tipo di job, tipo di inizio/fine e così via.

CURRENT_USER[()]


Nota: Snowflake non applica "()" dopo il comando CURRENT_USER per rispettare gli standard ANSI.

SESSION_USER()


SELECT user_email

FROM INFORMATION_SCHEMA.JOBS_BY_*

Nota: non è un confronto diretto. Snowflake restituisce il nome utente, mentre BigQuery restituisce l'indirizzo email dell'utente.

CURRENT_VERSION()

Concetto non utilizzato in BigQuery

CURRENT_WAREHOUSE()

SELECT catalg_name

FROM INFORMATION_SCHEMA.SCHEMATA

LAST_QUERY_ID([num])

SELECT job_id

FROM INFORMATION_SCHEMA.JOBS_BY_*


Nota: INFORMATION_SCHEMA.JOBS_BY_* di BigQuery consente di cercare gli ID job per tipo di job, tipo di inizio/fine e così via.

LAST_TRANSACTION()

SELECT job_id

FROM INFORMATION_SCHEMA.JOBS_BY_*


Nota: INFORMATION_SCHEMA.JOBS_BY_* di BigQuery consente di cercare gli ID job per tipo di job, tipo di inizio/fine e così via.

LOCALTIME()


Nota: Snowflake non applica "()" dopo il comando LOCALTIME per rispettare gli standard ANSI.

CURRENT_TIME()

LOCALTIMESTAMP()

CURRENT_DATETIME([timezone]) CURRENT_TIMESTAMP()


Nota: CURRENT_DATETIME restituisce il tipo di dati DATETIME (non supportato in Snowflake). CURRENT_TIMESTAMP restituisce il tipo di dati TIMESTAMP.

Funzioni di conversione

La tabella seguente mostra i mapping tra le funzioni di conversione Snowflake comuni e i relativi equivalenti BigQuery.

Tieni presente che le funzioni che sembrano identiche in Snowflake e BigQuery potrebbero restituire tipi di dati diversi.

Snowflake BigQuery

CAST(expression AS type)


expression :: type

CAST(expression AS type)

TO_ARRAY(expression)

[expression]


ARRAY(subquery)

TO_BINARY(expression[, format])


Nota: Snowflake supporta la conversione HEX, BASE64 e UTF-8. Snowflake supporta anche TO_BINARY utilizzando il tipo di dati VARIANT. BigQuery non ha un'alternativa al tipo di dati VARIANT.

TO_HEX(CAST(expression AS BYTES)) TO_BASE64(CAST(expression AS BYTES))

CAST(expression AS BYTES)


Nota: il casting STRING predefinito di BigQuery utilizza la codifica UTF-8. Snowflake non offre un'opzione per supportare la codifica BASE32.

TO_BOOLEAN(expression)


Nota:
  • INT64
    TRUE:
    altrimenti, FALSE: 0
  • STRING
    TRUE: "true"/"t"/"yes"/"y"/"on"/"1", FALSE: "false"/"f"/"no"/"n"/"off"/"0"

CAST(expression AS BOOL)


Nota:
  • INT64
    TRUE:
    altrimenti, FALSE: 0
  • STRING
    TRUE: "true", FALSE: "false"

TO_CHAR(expression[, format])


TO_VARCHAR(expression[, format])


Nota: i modelli di formato di Snowflake sono disponibili qui. BigQuery non ha un'alternativa al tipo di dati VARIANT.

CAST(expression AS STRING)


Nota: l'espressione di input di BigQuery può essere formattata utilizzando FORMAT_DATE, FORMAT_DATETIME, FORMAT_TIME o FORMAT_TIMESTAMP.

TO_DATE(expression[, format])


DATE(expression[, format])


Nota: Snowflake supporta la possibilità di convertire direttamente i tipi INTEGER in tipi DATE. I modelli di formato di Snowflake sono disponibili qui. BigQuery non ha un'alternativa al tipo di dati VARIANT.

CAST(expression AS DATE)


Nota: l'espressione di input di BigQuery può essere formattata utilizzando FORMAT, FORMAT_DATETIME o FORMAT_TIMESTAMP.

TO_DECIMAL(expression[, format]

[,precision[, scale]]


TO_NUMBER(expression[, format]

[,precision[, scale]]


TO_NUMERIC(expression[, format]

[,precision[, scale]]


Nota: i modelli di formato di Snowflake per i tipi di dati DECIMAL, NUMBER e NUMERIC sono disponibili qui. BigQuery non ha un'alternativa al tipo di dati VARIANT.

ROUND(CAST(expression AS NUMERIC)

, x)


Nota: l'espressione di input di BigQuery può essere formattata utilizzando FORMAT.

TO_DOUBLE(expression[, format])


Nota: i modelli di formato di Snowflake per i tipi di dati DOUBLE sono disponibili qui. BigQuery non ha un'alternativa al tipo di dati VARIANT.

CAST(expression AS FLOAT64)


Nota: l'espressione di input di BigQuery può essere formattata utilizzando FORMAT.

TO_JSON(variant_expression)

BigQuery non ha un'alternativa al tipo di dati VARIANT di Snowflake.

TO_OBJECT(variant_expression)

BigQuery non ha un'alternativa al tipo di dati VARIANT di Snowflake.

TO_TIME(expression[, format])


TIME(expression[, format])


Nota: i modelli di formato di Snowflake per i tipi di dati STRING sono disponibili qui. BigQuery non ha un'alternativa al tipo di dati VARIANT.

CAST(expression AS TIME)


Nota: BigQuery non ha un'alternativa al tipo di dati VARIANT di Snowflake. L'espressione di input di BigQuery può essere formattata utilizzando FORMAT, FORMAT_DATETIME, FORMAT_TIMESTAMP o FORMAT_TIME.

TO_TIMESTAMP(expression[, scale])


TO_TIMESTAMP_LTZ(expression[, scale])


TO_TIMESTAMP_NTZ(expression[, scale])


TO_TIMESTAMP_TZ(expression[, scale])


Nota: BigQuery non ha un'alternativa al tipo di dati VARIANT.

CAST(expression AS TIMESTAMP)


Nota: l'espressione di input di BigQuery può essere formattata utilizzando FORMAT, FORMAT_DATE, FORMAT_DATETIME, FORMAT_TIME. Il fuso orario può essere incluso/non incluso tramite i parametri FORMAT_TIMESTAMP.

TO_VARIANT(expression)

BigQuery non ha un'alternativa al tipo di dati VARIANT di Snowflake.

TO_XML(variant_expression)

BigQuery non ha un'alternativa al tipo di dati VARIANT di Snowflake.

TRY_CAST(expression AS type)

SAFE_CAST(expression AS type)

TRY_TO_BINARY(expression[, format])

TO_HEX(SAFE_CAST(expression AS BYTES)) TO_BASE64(SAFE_CAST(expression AS BYTES))

SAFE_CAST(expression AS BYTES)

TRY_TO_BOOLEAN(expression)

SAFE_CAST(expression AS BOOL)

TRY_TO_DATE(expression)

SAFE_CAST(expression AS DATE)

TRY_TO_DECIMAL(expression[, format]

[,precision[, scale]]


TRY_TO_NUMBER(expression[, format]

[,precision[, scale]]


TRY_TO_NUMERIC(expression[, format]

[,precision[, scale]]

ROUND(

SAFE_CAST(expression AS NUMERIC)

, x)

TRY_TO_DOUBLE(expression)

SAFE_CAST(expression AS FLOAT64)

TRY_TO_TIME(expression)

SAFE_CAST(expression AS TIME)

TRY_TO_TIMESTAMP(expression)


TRY_TO_TIMESTAMP_LTZ(expression)


TRY_TO_TIMESTAMP_NTZ(expression)


TRY_TO_TIMESTAMP_TZ(expression)

SAFE_CAST(expression AS TIMESTAMP)

BigQuery offre anche le seguenti funzioni di conversione, che non hanno un analogo diretto in Snowflake:

Funzioni di generazione dei dati

La tabella seguente mostra i mapping tra le funzioni comuni di generazione dei dati di Snowflake e le relative funzioni equivalenti di BigQuery.

Snowflake BigQuery

NORMAL(mean, stddev, gen)

BigQuery non supporta un confronto diretto con NORMAL. di Snowflake

RANDOM([seed])

IF(RAND()>0.5, CAST(RAND()*POW(10, 18) AS INT64),

(-1)*CAST(RAND()*POW(10, 18) AS

INT64))


Nota: BigQuery non supporta la generazione di seed

RANDSTR(length, gen)

BigQuery non supporta un confronto diretto con RANDSTR. di Snowflake
SEQ1 / SEQ2 / SEQ4 / SEQ8 BigQuery non supporta un confronto diretto con SEQ_. di Snowflake

UNIFORM(min, max, gen)

CAST(min + RAND()*(max-min) AS INT64)


Nota:utilizza le UDF permanenti per creare un equivalente di UNIFORM di Snowflake. Esempio qui.
UUID_STRING([uuid, name])

Nota: Snowflake restituisce 128 bit casuali. Snowflake supporta gli UUID versione 4 (casuali) e versione 5 (denominati).

GENERATE_UUID()


Nota: BigQuery restituisce 122 bit casuali. BigQuery supporta solo gli UUID di versione 4.

ZIPF(s, N, gen)

BigQuery non supporta un confronto diretto con ZIPF. di Snowflake

Funzioni di data e ora

La tabella seguente mostra i mapping tra le funzioni di data e ora di Snowflake più comuni e i relativi equivalenti BigQuery. Le funzioni di data e ora di BigQuery includono funzioni di data, funzioni di data e ora, funzioni di ora e funzioni di timestamp.

Snowflake BigQuery

ADD_MONTHS(date, months)

CAST(

DATE_ADD(

date,

INTERVAL integer MONTH

) AS TIMESTAMP

)

CONVERT_TIMEZONE(source_tz, target_tz, source_timestamp)


CONVERT_TIMEZONE(target_tz, source_timestamp)

PARSE_TIMESTAMP(

"%c%z",

FORMAT_TIMESTAMP(

"%c%z",

timestamp,

target_timezone

)

)


Nota: source_timezone è sempre UTC in BigQuery

DATE_FROM_PARTS(year, month, day)


Nota: Snowflake supporta l'overflow e le date negative. Ad esempio, DATE_FROM_PARTS(2000, 1 + 24, 1) restituisce 1° gennaio 2002. Questa operazione non è supportata in BigQuery.

DATE(year, month, day)


DATE(timestamp_expression[, timezone])


DATE(datetime_expression)

DATE_PART(part, dateOrTime)


Nota: Snowflake supporta i tipi di parte giorno della settimana ISO, nanosecondo e secondo/millisecondo/microsecondo/nanosecondo dell'epoca. BigQuery no. Consulta l'elenco completo dei tipi di parti di Snowflake qui..

EXTRACT(part FROM dateOrTime)


Nota: BigQuery supporta i tipi di parte settimana(<weekday>), microsecondo e millisecondo. Snowflake no. Consulta l'elenco completo dei tipi di parti BigQuery qui e qui.

DATE_TRUNC(part, dateOrTime)


Nota: Snowflake supporta il tipo di parte nanosecondo. BigQuery no. Consulta l'elenco completo dei tipi di parti di Snowflake qui..

DATE_TRUNC(date, part)


DATETIME_TRUNC(datetime, part)


TIME_TRUNC(time, part)


TIMESTAMP_TRUNC(timestamp, part[, timezone])


Nota: BigQuery supporta i tipi di parte settimana(<weekday>), settimana ISO e anno ISO. Snowflake no.

DATEADD(part, value, dateOrTime)

DATE_ADD(date, INTERVAL value part)

DATEDIFF(

part,

start_date_or_time,

end_date_or_time

)


Nota: Snowflake supporta il calcolo della differenza tra due tipi di data, ora e timestamp in questa funzione.

DATE_DIFF(

end_date,

start_date,

part

)


DATETIME_DIFF(

end_datetime,

start_datetime,

part

)


TIME_DIFF(

start_time,

end_time,

part

)


TIMESTAMP_DIFF(

end_timestamp,

start_timestamp,

part

)


Nota: BigQuery supporta i tipi di parte settimana(<weekday>) e anno ISO.

DAYNAME(dateOrTimestamp)

FORMAT_DATE('%a', date)


FORMAT_DATETIME('%a', datetime)


FORMAT_TIMESTAMP('%a', timestamp)

EXTRACT(part FROM dateOrTime)


Nota: Snowflake supporta i tipi di parte giorno della settimana ISO, nanosecondo e secondo/millisecondo/microsecondo/nanosecondo dell'epoca. BigQuery no. Consulta l'elenco completo dei tipi di parti di Snowflake qui..

EXTRACT(part FROM dateOrTime)


Nota: BigQuery supporta i tipi di parte settimana(<weekday>), microsecondo e millisecondo. Snowflake no. Consulta l'elenco completo dei tipi di parti BigQuery qui e qui.

[HOUR, MINUTE, SECOND](timeOrTimestamp)

EXTRACT(part FROM timestamp [AT THE ZONE timezone])

LAST_DAY(dateOrTime[, part])

DATE_SUB( DATE_TRUNC(

DATE_ADD(date, INTERVAL

1 part),

part),

INTERVAL 1 DAY)

MONTHNAME(dateOrTimestamp)

FORMAT_DATE('%b', date)


FORMAT_DATETIME('%b', datetime)


FORMAT_TIMESTAMP('%b', timestamp)

NEXT_DAY(dateOrTime, dowString)

DATE_ADD(

DATE_TRUNC(

date,

WEEK(dowString)),

INTERVAL 1 WEEK)


Nota: potrebbe essere necessario riformattare dowString. Ad esempio, "su" di Snowflake diventerà "SUNDAY" di BigQuery.

PREVIOUS_DAY(dateOrTime, dowString)

DATE_TRUNC(

date,

WEEK(dowString)

)


Nota: potrebbe essere necessario riformattare dowString. Ad esempio, "su" di Snowflake diventerà "SUNDAY" di BigQuery.

TIME_FROM_PARTS(hour, minute, second[, nanosecond)


Nota: Snowflake supporta i tempi di overflow. Ad esempio, TIME_FROM_PARTS(0, 100, 0) restituisce 01:40:00… Questa operazione non è supportata in BigQuery. BigQuery non supporta i nanosecondi.

TIME(hour, minute, second)


TIME(timestamp, [timezone])


TIME(datetime)

TIME_SLICE(dateOrTime, sliceLength, part[, START]


TIME_SLICE(dateOrTime, sliceLength, part[, END]

DATE_TRUNC(

DATE_SUB(CURRENT_DATE(),

INTERVAL value MONTH),

MONTH)


DATE_TRUNC(

DATE_ADD(CURRENT_DATE(),

INTERVAL value MONTH),

MONTH)


Nota: BigQuery non supporta un confronto diretto ed esatto con TIME_SLICE di Snowflake. Utilizza DATETINE_TRUNC, TIME_TRUNC, TIMESTAMP_TRUNC per il tipo di dati appropriato.

TIMEADD(part, value, dateOrTime)

TIME_ADD(time, INTERVAL value part)

TIMEDIFF(

part,

expression1,

expression2,

)


Nota: Snowflake supporta il calcolo della differenza tra due tipi di data, ora e timestamp in questa funzione.

DATE_DIFF(

dateExpression1,

dateExpression2,

part

)


DATETIME_DIFF(

datetimeExpression1,

datetimeExpression2,

part

)


TIME_DIFF(

timeExpression1,

timeExpression2,

part

)


TIMESTAMP_DIFF(

timestampExpression1,

timestampExpression2,

part

)


Nota: BigQuery supporta i tipi di parte settimana(<weekday>) e anno ISO.

TIMESTAMP_[LTZ, NTZ, TZ _]FROM_PARTS (year, month, day, hour, second [, nanosecond][, timezone])

TIMESTAMP(

string_expression[, timezone] | date_expression[, timezone] |

datetime_expression[, timezone]

)


Nota: BigQuery richiede che i timestamp vengano inseriti come tipi STRING. Esempio: "2008-12-25 15:30:00"

TIMESTAMPADD(part, value, dateOrTime)

TIMESTAMPADD(timestamp, INTERVAL value part)

TIMESTAMPDIFF(

part,

expression1,

expression2,

)


Nota: Snowflake supporta il calcolo della differenza tra due tipi di data, ora e timestamp in questa funzione.

DATE_DIFF(

dateExpression1,

dateExpression2,

part

)


DATETIME_DIFF(

datetimeExpression1,

datetimeExpression2,

part

)


TIME_DIFF(

timeExpression1,

timeExpression2,

part

)


TIMESTAMP_DIFF(

timestampExpression1,

timestampExpression2,

part

)


Nota: BigQuery supporta i tipi di parte settimana(<weekday>) e anno ISO.

TRUNC(dateOrTime, part)


Nota: Snowflake supporta il tipo di parte nanosecondo. BigQuery no. Consulta l'elenco completo dei tipi di parti di Snowflake qui..

DATE_TRUNC(date, part)


DATETIME_TRUNC(datetime, part)


TIME_TRUNC(time, part)


TIMESTAMP_TRUNC(timestamp, part[, timezone])


Nota: BigQuery supporta i tipi di parte settimana(<weekday>), settimana ISO e anno ISO. Snowflake no.

[YEAR*, DAY*, WEEK*, MONTH, QUARTER](dateOrTimestamp)

EXTRACT(part FROM timestamp [AT THE ZONE timezone])

BigQuery offre anche le seguenti funzioni di data e ora, che non hanno un analogo diretto in Snowflake:

Funzioni di schema e tabella delle informazioni

BigQuery non supporta concettualmente molte delle funzioni di schema e tabella delle informazioni di Snowflake. Snowflake offre le seguenti funzioni di schema informativo e tabella, che non hanno un analogo diretto in BigQuery:

Di seguito è riportato un elenco di funzioni di sistema e tabelle di informazioni di BigQuery e Snowflake associate.

Snowflake BigQuery
QUERY_HISTORY

QUERY_HISTORY_BY_*
INFORMATION_SCHEMA.JOBS_BY_*

Nota: non è un'alternativa diretta.
TASK_HISTORY INFORMATION_SCHEMA.JOBS_BY_*

Nota: non è un'alternativa diretta.

BigQuery offre le seguenti funzioni di schema informativo e tabella, che non hanno un analogo diretto in Snowflake:

Funzioni numeriche

La tabella seguente mostra i mapping tra le funzioni numeriche comuni di Snowflake e i relativi equivalenti BigQuery.

Snowflake BigQuery

ABS(expression)

ABS(expression)

ACOS(expression)

ACOS(expression)

ACOSH(expression)

ACOSH(expression)

ASIN(expression)

ASIN(expression)

ASINH(expression)

ASINH(expression)

ATAN(expression)

ATAN(expression)

ATAN2(y, x)

ATAN2(y, x)

ATANH(expression)

ATANH(expression)

CBRT(expression)

POW(expression, ⅓)

CEIL(expression [, scale])

CEIL(expression)


Nota: CEIL di BigQuery non supporta la possibilità di indicare la precisione o la scala. ROUND non consente di specificare l'arrotondamento per eccesso.

COS(expression)

COS(expression)

COSH(expression)

COSH(expression)

COT(expression)

1/TAN(expression)

DEGREES(expression)

(expression)*(180/ACOS(-1))

EXP(expression)

EXP(expression)

FACTORIAL(expression)

BigQuery non ha un'alternativa diretta a FACTORIAL di Snowflake. Utilizza una funzione definita dall'utente.

FLOOR(expression [, scale])

FLOOR(expression)


Nota: FLOOR di BigQuery non supporta la possibilità di indicare la precisione o la scala. ROUND non consente di specificare l'arrotondamento per eccesso. TRUNC funziona in modo sinonimo per i numeri positivi, ma non per i numeri negativi, in quanto valuta il valore assoluto.

HAVERSINE(lat1, lon1, lat2, lon2)

ST_DISTANCE( ST_GEOGPOINT(lon1, lat1),

ST_GEOGPOINT(lon2, lat2)

)/1000


Nota: non è una corrispondenza esatta, ma è abbastanza simile.

LN(expression)

LN(expression)

LOG(base, expression)

LOG(expression [,base])


LOG10(expression)


Nota:la base predefinita per LOG è 10.

MOD(expression1, expression2)

MOD(expression1, expression2)

PI()

ACOS(-1)

POW(x, y)


POWER(x, y)

POW(x, y)


POWER(x, y)

RADIANS(expression)

(expression)*(ACOS(-1)/180)

ROUND(expression [, scale])

ROUND(expression, [, scale])

SIGN(expression)

SIGN(expression)

SIN(expression)

SIN(expression)

SINH(expression)

SINH(expression)

SQRT(expression)

SQRT(expression)

SQUARE(expression)

POW(expression, 2)

TAN(expression)

TAN(expression)

TANH(expression)

TANH(expression)

TRUNC(expression [, scale])


TRUNCATE(expression [, scale])

TRUNC(expression [, scale])


Nota: il valore restituito di BigQuery deve essere inferiore all'espressione; non supporta l'uguaglianza.

BigQuery offre anche le seguenti funzioni matematiche, che non hanno un analogo diretto in Snowflake:

Funzioni per i dati semistrutturati

Snowflake BigQuery
ARRAY_APPEND Funzione definita dall'utente personalizzata
ARRAY_CAT ARRAY_CONCAT
ARRAY_COMPACT Funzione definita dall'utente personalizzata
ARRAY_CONSTRUCT [ ]
ARRAY_CONSTRUCT_COMPACT Funzione definita dall'utente personalizzata
ARRAY_CONTAINS Funzione definita dall'utente personalizzata
ARRAY_INSERT Funzione definita dall'utente personalizzata
ARRAY_INTERSECTION Funzione definita dall'utente personalizzata
ARRAY_POSITION Funzione definita dall'utente personalizzata
ARRAY_PREPEND Funzione definita dall'utente personalizzata
ARRAY_SIZE ARRAY_LENGTH
ARRAY_SLICE Funzione definita dall'utente personalizzata
ARRAY_TO_STRING ARRAY_TO_STRING
ARRAYS_OVERLAP Funzione definita dall'utente personalizzata
AS_<object_type> CAST
AS_ARRAY CAST
AS_BINARY CAST
AS_BOOLEAN CAST
AS_CHAR , AS_VARCHAR CAST
AS_DATE CAST
AS_DECIMAL , AS_NUMBER CAST
AS_DOUBLE , AS_REAL CAST
AS_INTEGER CAST
AS_OBJECT CAST
AS_TIME CAST
AS_TIMESTAMP_* CAST
CHECK_JSON Funzione definita dall'utente personalizzata
CHECK_XML Funzione definita dall'utente personalizzata
FLATTEN UNNEST
GET Funzione definita dall'utente personalizzata
GET_IGNORE_CASE Funzione definita dall'utente personalizzata

GET_PATH , :

Funzione definita dall'utente personalizzata
IS_<object_type> Funzione definita dall'utente personalizzata
IS_ARRAY Funzione definita dall'utente personalizzata
IS_BINARY Funzione definita dall'utente personalizzata
IS_BOOLEAN Funzione definita dall'utente personalizzata
IS_CHAR , IS_VARCHAR Funzione definita dall'utente personalizzata
IS_DATE , IS_DATE_VALUE Funzione definita dall'utente personalizzata
IS_DECIMAL Funzione definita dall'utente personalizzata
IS_DOUBLE , IS_REAL Funzione definita dall'utente personalizzata
IS_INTEGER Funzione definita dall'utente personalizzata
IS_OBJECT Funzione definita dall'utente personalizzata
IS_TIME Funzione definita dall'utente personalizzata
IS_TIMESTAMP_* Funzione definita dall'utente personalizzata
OBJECT_CONSTRUCT Funzione definita dall'utente personalizzata
OBJECT_DELETE Funzione definita dall'utente personalizzata
OBJECT_INSERT Funzione definita dall'utente personalizzata
PARSE_JSON JSON_EXTRACT
PARSE_XML Funzione definita dall'utente personalizzata
STRIP_NULL_VALUE Funzione definita dall'utente personalizzata
STRTOK_TO_ARRAY SPLIT
TRY_PARSE_JSON Funzione definita dall'utente personalizzata
TYPEOF Funzione definita dall'utente personalizzata
XMLGET Funzione definita dall'utente personalizzata

Funzioni di stringa e binarie

Snowflake BigQuery

string1 || string2

CONCAT(string1, string2)

ASCII

TO_CODE_POINTS(string1)[OFFSET(0)]

BASE64_DECODE_BINARY

SAFE_CONVERT_BYTES_TO_STRING(

FROM_BASE64(<bytes_input>)

)

BASE64_DECODE_STRING

SAFE_CONVERT_BYTES_TO_STRING(

FROM_BASE64(<string1>)

)

BASE64_ENCODE

TO_BASE64(

SAFE_CAST(<string1> AS BYTES)

)

BIT_LENGTH

BYTE_LENGTH * 8

CHARACTER_LENGTH

CHARINDEX(substring, string)

STRPOS(string, substring)

CHR,CHAR

CODE_POINTS_TO_STRING([number])

COLLATE Funzione definita dall'utente personalizzata
COLLATION Funzione definita dall'utente personalizzata
COMPRESS Funzione definita dall'utente personalizzata

CONCAT(string1, string2)

CONCAT(string1, string2)

Nota: la funzione CONCAT(...) di BigQuery supporta la concatenazione di un numero qualsiasi di stringhe.
CONTAINS Funzione definita dall'utente personalizzata
DECOMPRESS_BINARY Funzione definita dall'utente personalizzata
DECOMPRESS_STRING Funzione definita dall'utente personalizzata
EDITDISTANCE EDIT_DISTANCE
ENDSWITH Funzione definita dall'utente personalizzata
HEX_DECODE_BINARY

SAFE_CONVERT_BYTES_TO_STRING(

FROM_HEX(<string1>)

HEX_DECODE_STRING

SAFE_CONVERT_BYTES_TO_STRING(

FROM_HEX(<string1>)

HEX_ENCODE

TO_HEX(

SAFE_CAST(<string1> AS BYTES))

ILIKE Funzione definita dall'utente personalizzata
ILIKE ANY Funzione definita dall'utente personalizzata
INITCAP INITCAP
INSERT Funzione definita dall'utente personalizzata
LEFT Funzione definita dall'utente
LENGTH

LENGTH(expression)

LIKE LIKE
LIKE ALL Funzione definita dall'utente personalizzata
LIKE ANY Funzione definita dall'utente personalizzata
LOWER

LOWER(string)

LPAD

LPAD(string1, length[, string2])

LTRIM

LTRIM(string1, trim_chars)

MD5,MD5_HEX

MD5(string)

MD5_BINARY Funzione definita dall'utente personalizzata
OCTET_LENGTH Funzione definita dall'utente personalizzata
PARSE_IP Funzione definita dall'utente personalizzata
PARSE_URL Funzione definita dall'utente personalizzata
POSITION

STRPOS(string, substring)

REPEAT

REPEAT(string, integer)

REPLACE

REPLACE(string1, old_chars, new_chars)

REVERSE

number_characters

)

REVERSE(expression)

RIGHT Funzione definita dall'utente
RPAD RPAD
RTRIM

RTRIM(string, trim_chars)

RTRIMMED_LENGTH Funzione definita dall'utente personalizzata
SHA1,SHA1_HEX

SHA1(string)

SHA1_BINARY Funzione definita dall'utente personalizzata
SHA2,SHA2_HEX Funzione definita dall'utente personalizzata
SHA2_BINARY Funzione definita dall'utente personalizzata
SOUNDEX Funzione definita dall'utente personalizzata
SPACE Funzione definita dall'utente personalizzata
SPLIT SPLIT
SPLIT_PART Funzione definita dall'utente personalizzata
SPLIT_TO_TABLE Funzione definita dall'utente personalizzata
STARTSWITH Funzione definita dall'utente personalizzata
STRTOK

SPLIT(instring, delimiter)[ORDINAL(tokennum)]


Nota: l'intero argomento della stringa del delimitatore viene utilizzato come singolo delimitatore. Il delimitatore predefinito è una virgola.
STRTOK_SPLIT_TO_TABLE Funzione definita dall'utente personalizzata
SUBSTR,SUBSTRING SUBSTR
TRANSLATE Funzione definita dall'utente personalizzata
TRIM TRIM
TRY_BASE64_DECODE_BINARY Funzione definita dall'utente personalizzata
TRY_BASE64_DECODE_STRING

SUBSTR(string, 0, integer)

TRY_HEX_DECODE_BINARY

SUBSTR(string, -integer)

TRY_HEX_DECODE_STRING

LENGTH(expression)

UNICODE Funzione definita dall'utente personalizzata

UPPER

UPPER

Funzioni di stringa (espressioni regolari)

Snowflake BigQuery
REGEXP

IF(REGEXP_CONTAINS,1,0)=1

REGEXP_COUNT

ARRAY_LENGTH(

REGEXP_EXTRACT_ALL(

source_string,

pattern

)

)


Se position è specificato:

ARRAY_LENGTH(

REGEXP_EXTRACT_ALL(

SUBSTR(source_string, IF(position <= 0, 1, position)),

pattern

)

)


Nota: BigQuery fornisce il supporto delle espressioni regolari utilizzando la libreria re2. Consulta la documentazione per la sintassi delle espressioni regolari.
REGEXP_INSTR

IFNULL(

STRPOS(

source_string,

REGEXP_EXTRACT(

source_string,

pattern)

), 0)


Se position è specificato:

IFNULL(

STRPOS(

SUBSTR(source_string, IF(position <= 0, 1, position)),

REGEXP_EXTRACT(

SUBSTR(source_string, IF(position <= 0, 1, position)),

pattern)

) + IF(position <= 0, 1, position) - 1, 0)


Se occurrence è specificato:

IFNULL(

STRPOS(

SUBSTR(source_string, IF(position <= 0, 1, position)),

REGEXP_EXTRACT_ALL(

SUBSTR(source_string, IF(position <= 0, 1, position)),

pattern

)[SAFE_ORDINAL(occurrence)]

) + IF(position <= 0, 1, position) - 1, 0)


Nota: BigQuery fornisce il supporto delle espressioni regolari utilizzando la libreria re2. Consulta la documentazione per la sintassi delle espressioni regolari.

REGEXP_LIKE

IF(REGEXP_CONTAINS,1,0)=1

REGEXP_REPLACE

REGEXP_REPLACE(

source_string,

pattern,

""

)


Se replace_string è specificato:

REGEXP_REPLACE(

source_string,

pattern,

replace_string

)


Se position è specificato:

CASE

WHEN position > LENGTH(source_string) THEN source_string

WHEN position <= 0 THEN

REGEXP_REPLACE(

source_string,

pattern,

""

)

ELSE

CONCAT(

SUBSTR(

source_string, 1, position - 1),

REGEXP_REPLACE(

SUBSTR(source_string, position),

pattern,

replace_string

)

)

END


Nota: BigQuery fornisce il supporto delle espressioni regolari utilizzando la libreria re2. Consulta la documentazione per la sintassi delle espressioni regolari.
REGEXP_SUBSTR

REGEXP_EXTRACT(

source_string,

pattern

)


Se position è specificato:

REGEXP_EXTRACT(

SUBSTR(source_string, IF(position <= 0, 1, position)),

pattern

)


Se occurrence è specificato:

REGEXP_EXTRACT_ALL(

SUBSTR(source_string, IF(position <= 0, 1, position)),

pattern

)[SAFE_ORDINAL(occurrence)]


Nota: BigQuery fornisce il supporto delle espressioni regolari utilizzando la libreria re2. Consulta la documentazione per la sintassi delle espressioni regolari.
RLIKE

IF(REGEXP_CONTAINS,1,0)=1

Funzioni di sistema

Snowflake BigQuery
SYSTEM$ABORT_SESSION Funzione definita dall'utente personalizzata
SYSTEM$ABORT_TRANSACTION Funzione definita dall'utente personalizzata
SYSTEM$CANCEL_ALL_QUERIES Funzione definita dall'utente personalizzata
SYSTEM$CANCEL_QUERY Funzione definita dall'utente personalizzata
SYSTEM$CLUSTERING_DEPTH Funzione definita dall'utente personalizzata
SYSTEM$CLUSTERING_INFORMATION Funzione definita dall'utente personalizzata
SYSTEM$CLUSTERING_RATIO — Deprecated Funzione definita dall'utente personalizzata
SYSTEM$CURRENT_USER_TASK_NAME Funzione definita dall'utente personalizzata
SYSTEM$DATABASE_REFRESH_HISTORY Funzione definita dall'utente personalizzata
SYSTEM$DATABASE_REFRESH_PROGRESS , SYSTEM$DATABASE_REFRESH_PROGRESS_BY_JOB Funzione definita dall'utente personalizzata
SYSTEM$GET_AWS_SNS_IAM_POLICY Funzione definita dall'utente personalizzata
SYSTEM$GET_PREDECESSOR_RETURN_VALUE Funzione definita dall'utente personalizzata
SYSTEM$LAST_CHANGE_COMMIT_TIME Funzione definita dall'utente personalizzata
SYSTEM$PIPE_FORCE_RESUME Funzione definita dall'utente personalizzata
SYSTEM$PIPE_STATUS Funzione definita dall'utente personalizzata
SYSTEM$SET_RETURN_VALUE Funzione definita dall'utente personalizzata
SYSTEM$SHOW_OAUTH_CLIENT_SECRETS Funzione definita dall'utente personalizzata
SYSTEM$STREAM_GET_TABLE_TIMESTAMP Funzione definita dall'utente personalizzata
SYSTEM$STREAM_HAS_DATA Funzione definita dall'utente personalizzata
SYSTEM$TASK_DEPENDENTS_ENABLE Funzione definita dall'utente personalizzata
SYSTEM$TYPEOF Funzione definita dall'utente personalizzata
SYSTEM$USER_TASK_CANCEL_ONGOING_EXECUTIONS Funzione definita dall'utente personalizzata
SYSTEM$WAIT Funzione definita dall'utente personalizzata
SYSTEM$WHITELIST Funzione definita dall'utente personalizzata
SYSTEM$WHITELIST_PRIVATELINK Funzione definita dall'utente personalizzata

Funzioni tabella

Snowflake BigQuery
GENERATOR Funzione definita dall'utente personalizzata
GET_OBJECT_REFERENCES Funzione definita dall'utente personalizzata
RESULT_SCAN Funzione definita dall'utente personalizzata
VALIDATE Funzione definita dall'utente personalizzata

Funzioni di utilità e hash

Snowflake BigQuery
GET_DDL Richiesta di funzionalità
HASH HASH è una funzione proprietaria specifica di Snowflake. Non può essere tradotto senza conoscere la logica sottostante utilizzata da Snowflake.

Funzioni finestra

Snowflake BigQuery
CONDITIONAL_CHANGE_EVENT Funzione definita dall'utente personalizzata
CONDITIONAL_TRUE_EVENT Funzione definita dall'utente personalizzata
CUME_DIST CUME_DIST
DENSE_RANK DENSE_RANK
FIRST_VALUE FIRST_VALUE
LAG LAG
LAST_VALUE LAST_VALUE
LEAD LEAD
NTH_VALUE NTH_VALUE
NTILE NTILE
PERCENT_RANK PERCENT_RANK
RANK RANK
RATIO_TO_REPORT Funzione definita dall'utente personalizzata
ROW_NUMBER ROW_NUMBER
WIDTH_BUCKET Funzione definita dall'utente personalizzata

BigQuery supporta anche SAFE_CAST(expression AS typename), che restituisce NULL se BigQuery non è in grado di eseguire un cast (ad esempio, SAFE_CAST("apple" AS INT64) restituisce NULL).

Operatori

Le sezioni seguenti elencano gli operatori Snowflake e i relativi equivalenti BigQuery.

Operatori aritmetici

La tabella seguente mostra i mapping tra gli operatori aritmetici di Snowflake e i relativi equivalenti BigQuery.

Snowflake BigQuery

(Unary) (+'5')

CAST("5" AS NUMERIC)

a + b

a + b

(Unary) (-'5')

(-1) * CAST("5" AS NUMERIC)


Nota: BigQuery supporta il segno meno unario standard, ma non converte gli interi in formato stringa nel tipo INT64, NUMERIC o FLOAT64.

a - b

a - b

date1 - date2


date1 - 365

DATE_DIFF(date1, date2, date_part) DATE_SUB(date1, date2, date_part)

a * b

a * b

a / b

a / b

a % b

MOD(a, b)

Per visualizzare i dettagli di scala e precisione di Snowflake durante l'esecuzione di operazioni aritmetiche, consulta la documentazione di Snowflake.

Operatori di confronto

Gli operatori di confronto di Snowflake e gli operatori di confronto di BigQuery sono gli stessi.

Operatori logici/booleani

Gli operatori logici/booleani di Snowflake e gli operatori logici/booleani di BigQuery sono gli stessi.

Operatori Set

La tabella seguente mostra i mapping tra gli operatori di insieme di Snowflake e i relativi equivalenti BigQuery.

Snowflake BigQuery

SELECT ... INTERSECT SELECT ...

SELECT ...

INTERSECT DISTINCT

SELECT...

SELECT ... MINUS SELECT ...

SELECT ... EXCEPT SELECT …


Nota: MINUS e EXCEPT sono sinonimi.

SELECT ... EXCEPT DISTINCT SELECT ...

SELECT ... UNION SELECT ...

SELECT ... UNION ALL SELECT ...

SELECT ... UNION DISTINCT SELECT ...


SELECT ... UNION ALL SELECT ...

Operatori di sottoquery

La tabella seguente mostra i mapping tra gli operatori di sottoquery di Snowflake e i relativi equivalenti BigQuery.

Snowflake BigQuery

SELECT ... FROM ... WHERE col <operator> ALL … SELECT ... FROM ... WHERE col <operator> ANY ...

BigQuery non supporta un'alternativa diretta ad ALL/ANY di Snowflake.

SELECT ... FROM ...

WHERE [NOT] EXISTS...

SELECT ... FROM ...

WHERE [NOT] EXISTS...

SELECT ... FROM ...

WHERE [NOT] IN...

SELECT ... FROM ...

WHERE [NOT] IN...

SELECT * FROM table1

UNION

SELECT * FROM table2

EXCEPT

SELECT * FROM table3

SELECT * FROM table1

UNION ALL

(

SELECT * FROM table2

EXCEPT

SELECT * FROM table3

)


Nota: BigQuery richiede le parentesi per separare le diverse operazioni sui set. Se lo stesso operatore di insieme viene ripetuto, le parentesi non sono necessarie.

Sintassi DML

Questa sezione illustra le differenze nella sintassi del linguaggio di gestione dei dati tra Snowflake e BigQuery.

INSERT estratto conto

Snowflake offre una parola chiave DEFAULT configurabile per le colonne. In BigQuery, il valore DEFAULT per le colonne Nullable è NULL e DEFAULT non è supportato per le colonne obbligatorie. La maggior parte delle istruzioni Snowflake INSERT è compatibile con BigQuery. La tabella seguente mostra le eccezioni.

Snowflake BigQuery

INSERT [OVERWRITE] INTO table

VALUES [... | DEFAULT | NULL] ...


Nota: BigQuery non supporta l'inserimento di oggetti JSON con un'istruzione INSERT .

INSERT [INTO] table (column1 [, ...])

VALUES (DEFAULT [, ...])

Nota: BigQuery non supporta un'alternativa diretta a OVERWRITE di Snowflake. Utilizza invece DELETE.

INSERT INTO table (column1 [, ...]) SELECT... FROM ...

INSERT [INTO] table (column1, [,...])

SELECT ...

FROM ...

INSERT [OVERWRITE] ALL <intoClause> ... INSERT [OVERWRITE] {FIRST | ALL} {WHEN condition THEN <intoClause>}

[...]

[ELSE <intoClause>]

...

Nota: <intoClause> rappresenta INSERT statement standard, elencato sopra.
BigQuery non supporta INSERTs multi-tabella condizionali e incondizionali.

BigQuery supporta anche l'inserimento di valori utilizzando una sottoquery (in cui uno dei valori viene calcolato utilizzando una sottoquery), che non è supportato in Snowflake. Ad esempio:

INSERT INTO table (column1, column2)
VALUES ('value_1', (
  SELECT column2
  FROM table2
))

COPY estratto conto

Snowflake supporta la copia dei dati dai file temporanei a una tabella esistente e da una tabella a un'area di staging interna denominata, a un'area di staging esterna denominata e a una posizione esterna (Amazon S3, Google Cloud Storage o Microsoft Azure).

BigQuery non utilizza il comando SQL COPY per caricare i dati, ma puoi utilizzare uno dei numerosi strumenti e opzioni non SQL per caricare i dati nelle tabelle BigQuery. Puoi anche utilizzare i sink della pipeline di dati forniti in Apache Spark o Apache Beam per scrivere i dati in BigQuery.

UPDATE estratto conto

La maggior parte delle istruzioni UPDATE di Snowflake è compatibile con BigQuery. La tabella seguente mostra le eccezioni.

Snowflake BigQuery

UPDATE table SET col = value [,...] [FROM ...] [WHERE ...]

UPDATE table

SET column = expression [,...]

[FROM ...]

WHERE TRUE


Nota: tutte le istruzioni UPDATE in BigQuery richiedono una parola chiave WHERE, seguita da una condizione.

DELETE e TRUNCATE TABLE

Le istruzioni DELETE e TRUNCATE TABLE sono due modi per rimuovere righe da una tabella senza influire sullo schema o sugli indici della tabella.

In Snowflake, sia DELETE che TRUNCATE TABLE mantengono i dati eliminati utilizzando Time Travel di Snowflake a scopo di recupero per il periodo di conservazione dei dati. Tuttavia, DELETE non elimina la cronologia di caricamento dei file esterni e i metadati di caricamento.

In BigQuery, l'istruzione DELETE deve avere una clausola WHERE. Per maggiori informazioni su DELETE in BigQuery, consulta gli esempi di BigQueryDELETE nella documentazione DML.

Snowflake BigQuery

DELETE FROM table_name [USING ...]

[WHERE ...]



TRUNCATE [TABLE] [IF EXISTS] table_name

DELETE [FROM] table_name [alias]

WHERE ...


Nota: le istruzioni BigQuery DELETE richiedono una clausola WHERE .

MERGE estratto conto

L'istruzione MERGE può combinare le operazioni INSERT, UPDATE e DELETE in un'unica istruzione "upsert" ed eseguire le operazioni automaticamente. L'operazione MERGE deve corrispondere al massimo a una riga di origine per ogni riga di destinazione.

Le tabelle BigQuery sono limitate a 1000 istruzioni DML al giorno, pertanto devi consolidare in modo ottimale le istruzioni INSERT, UPDATE e DELETE in una singola istruzione MERGE, come mostrato nella tabella seguente:

Snowflake BigQuery

MERGE INTO target USING source ON target.key = source.key WHEN MATCHED AND source.filter = 'Filter_exp' THEN

UPDATE SET target.col1 = source.col1, target.col1 = source.col2,

...


Nota: Snowflake supporta un parametro di sessione ERROR_ON_NONDETERMINISTIC_MERGE per gestire i risultati non deterministici.

MERGE target

USING source

ON target.key = source.key

WHEN MATCHED AND source.filter = 'filter_exp' THEN

UPDATE SET

target.col1 = source.col1,

target.col2 = source.col2,

...



Nota: se aggiorni tutte le colonne, devono essere elencate tutte.

GET e LIST

L'istruzione GET scarica i file di dati da una delle seguenti aree di staging di Snowflake in una directory/cartella locale su un computer client:

  • Fase interna denominata
  • Fase interna per una tabella specificata
  • Fase interna per l'utente corrente

L'istruzione LIST (LS) restituisce un elenco di file di cui è stato eseguito lo staging (ovvero caricati da un file system locale o scaricati da una tabella) in una delle seguenti aree di staging di Snowflake:

  • Fase interna denominata
  • Fase esterna denominata
  • Area di gestione temporanea per una tabella specificata
  • Fase per l'utente corrente

BigQuery non supporta il concetto di staging e non ha equivalenti di GET e LIST.

PUT e REMOVE

L'istruzione PUT carica (ovvero esegue lo staging) i file di dati da una directory/cartella locale su un computer client in una delle seguenti aree di staging di Snowflake:

  • Fase interna denominata
  • Fase interna per una tabella specificata
  • Fase interna per l'utente corrente

L'istruzione REMOVE (RM) rimuove i file che sono stati sottoposti a staging in una delle seguenti aree di staging interne di Snowflake:

  • Fase interna denominata
  • Area di gestione temporanea per una tabella specificata
  • Fase per l'utente corrente

BigQuery non supporta il concetto di staging e non ha equivalenti di PUT e REMOVE.

Sintassi DDL

Questa sezione illustra le differenze nella sintassi del linguaggio di definizione dei dati tra Snowflake e BigQuery.

Database, schema e condivisione di DDL

La maggior parte della terminologia di Snowflake corrisponde a quella di BigQuery, tranne per il fatto che il database Snowflake è simile al set di dati BigQuery. Consulta la mappatura dettagliata della terminologia da Snowflake a BigQuery.

CREATE DATABASE estratto conto

Snowflake supporta la creazione e la gestione di un database tramite comandi di gestione del database, mentre BigQuery offre più opzioni, come l'utilizzo di Console, CLI, librerie client e così via per la creazione di set di dati. Questa sezione utilizzerà i comandi della CLI BigQuery corrispondenti ai comandi Snowflake per risolvere le differenze.

Snowflake BigQuery

CREATE DATABASE <name>


Nota: Snowflake fornisce questi requisiti per l'assegnazione dei nomi ai database. Consente solo 255 caratteri nel nome.

bq mk <name>


Nota: BigQuery ha requisiti di denominazione dei set di dati simili a Snowflake, tranne per il fatto che consente 1024 caratteri nel nome.

CREATE OR REPLACE DATABASE <name>

La sostituzione del set di dati non è supportata in BigQuery.

CREATE TRANSIENT DATABASE <name>

La creazione di un set di dati temporaneo non è supportata in BigQuery.

CREATE DATABASE IF NOT EXISTS <name>

Concetto non supportato in BigQuery

CREATE DATABASE <name>

CLONE <source_db>

[ { AT | BEFORE }

( { TIMESTAMP => <timestamp> |

OFFSET => <time_difference> |

STATEMENT => <id> } ) ]

La clonazione dei set di dati non è ancora supportata in BigQuery.

CREATE DATABASE <name>

DATA_RETENTION_TIME_IN_DAYS = <num>

Il time travel a livello di set di dati non è supportato in BigQuery. Tuttavia, è supportato lo spostamento nel tempo per i risultati di tabelle e query.

CREATE DATABASE <name>

DEFAULT_DDL_COLLATION = '<collation_specification>'

Il confronto in DDL non è supportato in BigQuery.

CREATE DATABASE <name>

COMMENT = '<string_literal>'

bq mk \

--description "<string_literal>" \

<name>

CREATE DATABASE <name>

FROM SHARE <provider_account>.<share_name>

La creazione di set di dati condivisi non è supportata in BigQuery. Tuttavia, gli utenti possono condividere il set di dati tramite la console/l'interfaccia utente una volta creato.

CREATE DATABASE <name>

AS REPLICA OF

<region>.<account>.<primary_db_name>

AUTO_REFRESH_MATERIALIZED_VIEWS_ON_SECONDARY = { TRUE | FALSE }


Nota: Snowflake offre l'opzione per la manutenzione automatica in background delle viste materializzate nel database secondario, che non è supportata in BigQuery.

bq mk --transfer_config \

--target_dataset = <name> \

--data_source = cross_region_copy \ --params='

{"source_dataset_id":"<primary_db_name>"

,"source_project_id":"<project_id>"

,"overwrite_destination_table":"true"}'

Nota: BigQuery supporta la copia dei set di dati utilizzando BigQuery Data Transfer Service. Consulta questa pagina per i prerequisiti per la copia di un set di dati.

BigQuery offre anche le seguenti opzioni di comando bq mk, che non hanno un analogo diretto in Snowflake:

  • --location <dataset_location>
  • --default_table_expiration <time_in_seconds>
  • --default_partition_expiration <time_in_seconds>

ALTER DATABASE estratto conto

Questa sezione utilizzerà i comandi dell'interfaccia a riga di comando BigQuery corrispondenti ai comandi Snowflake per risolvere le differenze nelle istruzioni ALTER.

Snowflake BigQuery

ALTER DATABASE [ IF EXISTS ] <name> RENAME TO <new_db_name>

La ridenominazione dei set di dati non è supportata in BigQuery, ma la copia dei set di dati è supportata.

ALTER DATABASE <name>

SWAP WITH <target_db_name>

Lo scambio di set di dati non è supportato in BigQuery.

ALTER DATABASE <name>

SET

[DATA_RETENTION_TIME_IN_DAYS = <num>]

[ DEFAULT_DDL_COLLATION = '<value>']

La gestione della conservazione e delle regole di confronto dei dati a livello di set di dati non è supportata in BigQuery.

ALTER DATABASE <name>

SET COMMENT = '<string_literal>'

bq update \

--description "<string_literal>" <name>

ALTER DATABASE <name>

ENABLE REPLICATION TO ACCOUNTS <snowflake_region>.<account_name>

[ , <snowflake_region>.<account_name> ... ]

Concetto non supportato in BigQuery.

ALTER DATABASE <name>

DISABLE REPLICATION [ TO ACCOUNTS <snowflake_region>.<account_name>

[ , <snowflake_region>.<account_name> ... ]]

Concetto non supportato in BigQuery.

ALTER DATABASE <name>

SET AUTO_REFRESH_MATERIALIZED_VIEWS_ON_SECONDARY = { TRUE | FALSE }

Concetto non supportato in BigQuery.

ALTER DATABASE <name> REFRESH

Concetto non supportato in BigQuery.

ALTER DATABASE <name>

ENABLE FAILOVER TO ACCOUNTS <snowflake_region>.<account_name>

[ , <snowflake_region>.<account_name> ... ]

Concetto non supportato in BigQuery.

ALTER DATABASE <name>

DISABLE FAILOVER [ TO ACCOUNTS <snowflake_region>.<account_name>

[ , <snowflake_region>.<account_name> ... ]]

Concetto non supportato in BigQuery.

ALTER DATABASE <name>

PRIMARY

Concetto non supportato in BigQuery.

DROP DATABASE estratto conto

Questa sezione utilizzerà il comando BigQuery CLI corrispondente al comando Snowflake per risolvere la differenza nell'istruzione DROP.

Snowflake BigQuery

DROP DATABASE [ IF EXISTS ] <name>

[ CASCADE | RESTRICT ]


Nota: in Snowflake, l'eliminazione di un database non comporta la sua rimozione definitiva dal sistema. Una versione del database eliminato viene conservata per il numero di giorni specificato dal parametro DATA_RETENTION_TIME_IN_DAYS per il database.

bq rm -r -f -d <name>


Where

-r consiste nel rimuovere tutti gli oggetti nel set di dati

-f is to skip confirmation for execution

-d indica il set di dati

Nota: in BigQuery, l'eliminazione di un set di dati è definitiva. Inoltre, la propagazione non è supportata a livello di set di dati, poiché tutti i dati e gli oggetti nel set di dati vengono eliminati.

Snowflake supporta anche il comando UNDROP DATASET che ripristina la versione più recente di un set di dati eliminato. Al momento non è supportato in BigQuery a livello di set di dati.

USE DATABASE estratto conto

Snowflake offre la possibilità di impostare il database per una sessione utente utilizzando il comando USE DATABASE. In questo modo non è più necessario specificare nomi di oggetti completi nei comandi SQL. BigQuery non fornisce alcuna alternativa al comando USE DATABASE di Snowflake.

SHOW DATABASE estratto conto

Questa sezione utilizzerà il comando BigQuery CLI corrispondente al comando Snowflake per risolvere la differenza nell'istruzione SHOW.

Snowflake BigQuery

SHOW DATABASES


Nota: Snowflake offre una singola opzione per elencare e mostrare i dettagli di tutti i database, inclusi quelli eliminati che rientrano nel periodo di conservazione.
bq ls --format=prettyjson
e / o

bq show <dataset_name>


Nota: in BigQuery, il comando ls fornisce solo i nomi dei set di dati e le informazioni di base, mentre il comando show fornisce dettagli come il timestamp dell'ultima modifica, gli ACL e le etichette di un set di dati. BigQuery fornisce anche maggiori dettagli sui set di dati tramite Information Schema.

SHOW TERSE DATABASES


Nota: con l'opzione TERSE, Snowflake consente di visualizzare solo informazioni/campi specifici sui set di dati.
Concetto non supportato in BigQuery.

SHOW DATABASES HISTORY

Il concetto di Time Travel non è supportato in BigQuery a livello di set di dati.
SHOW DATABASES

[LIKE '<pattern>']

[STARTS WITH '<name_string>']

Il filtro dei risultati in base ai nomi dei set di dati non è supportato in BigQuery. Tuttavia, è supportato il filtraggio per etichette.
SHOW DATABASES

LIMIT <rows> [FROM '<name_string>']


Nota: per impostazione predefinita, Snowflake non limita il numero di risultati. Tuttavia, il valore di LIMIT non può superare 10.000.

bq ls \

--max_results <rows>


Nota: per impostazione predefinita, BigQuery mostra solo 50 risultati.

BigQuery offre anche le seguenti opzioni di comando bq, che non hanno un analogo diretto in Snowflake:

  • bq ls --format=pretty: restituisce risultati formattati di base
  • *bq ls -a: *Restituisce solo i set di dati anonimi (quelli che iniziano con un trattino basso)
  • bq ls --all: restituisce tutti i set di dati, inclusi quelli anonimi
  • bq ls --filter labels.key:value: restituisce i risultati filtrati in base all'etichetta del set di dati
  • bq ls --d: esclude i set di dati anonimi dai risultati
  • bq show --format=pretty: restituisce risultati di base formattati dettagliati per tutti i set di dati

Gestione di SCHEMA

Snowflake fornisce più comandi di gestione dello schema simili a quelli di gestione del database. Questo concetto di creazione e gestione dello schema non è supportato in BigQuery.

Tuttavia, BigQuery ti consente di specificare lo schema di una tabella quando carichi i dati in una tabella e quando crei una tabella vuota. In alternativa, puoi utilizzare il rilevamento automatico dello schema per i formati di dati supportati.

Gestione di SHARE

Snowflake fornisce più comandi di gestione della condivisione simili ai comandi di gestione di database e schemi. Questo concetto di creazione e gestione della condivisione non è supportato in BigQuery.

DDL di tabella, vista e sequenza

CREATE TABLE estratto conto

La maggior parte delle istruzioni CREATE TABLE di Snowflake è compatibile con BigQuery, ad eccezione dei seguenti elementi di sintassi, che non vengono utilizzati in BigQuery:

Snowflake BigQuery

CREATE TABLE table_name

(

col1 data_type1 NOT NULL,

col2 data_type2 NULL,

col3 data_type3 UNIQUE,

col4 data_type4 PRIMARY KEY,

col5 data_type5

)


Nota: i vincoli UNIQUE e PRIMARY KEY sono informativi e non vengono applicati dal sistema Snowflake.

CREATE TABLE table_name

(

col1 data_type1 NOT NULL,

col2 data_type2,

col3 data_type3,

col4 data_type4,

col5 data_type5,

)

CREATE TABLE table_name

(

col1 data_type1[,...]

table_constraints

)


dove table_constraints sono:

[UNIQUE(column_name [, ... ])]

[PRIMARY KEY(column_name [, ...])]

[FOREIGN KEY(column_name [, ...])

REFERENCES reftable [(refcolumn)]


Nota: UNIQUE e PRIMARY KEY sono vincoli informativi e non vengono applicati dal sistema Snowflake.

CREATE TABLE table_name

(

col1 data_type1[,...]

)

PARTITION BY column_name

CLUSTER BY column_name [, ...]


Nota: BigQuery non utilizza i vincoli di tabella UNIQUE, PRIMARY KEY o FOREIGN KEY. Per ottenere un'ottimizzazione simile a quella fornita da questi vincoli durante l'esecuzione delle query, partiziona e raggruppa le tabelle BigQuery. CLUSTER BY supporta fino a quattro colonne.

CREATE TABLE table_name

LIKE original_table_name

Consulta questo esempio per scoprire come utilizzare le tabelle INFORMATION_SCHEMA per copiare nomi di colonne, tipi di dati e vincoli NOT NULL in una nuova tabella.

CREATE TABLE table_name

(

col1 data_type1

)

BACKUP NO


Nota:in Snowflake, l'impostazione BACKUP NO è specificata per "risparmiare tempo di elaborazione durante la creazione di snapshot e il ripristino da snapshot e per ridurre lo spazio di archiviazione".
L'opzione della tabella BACKUP NO non viene utilizzata né è necessaria perché BigQuery conserva automaticamente fino a 7 giorni di versioni storiche di tutte le tabelle, senza alcun effetto sul tempo di elaborazione né sullo spazio di archiviazione fatturato.

CREATE TABLE table_name

(

col1 data_type1

)

table_attributes


dove table_attributes sono:

[DISTSTYLE {AUTO|EVEN|KEY|ALL}]

[DISTKEY (column_name)]

[[COMPOUND|INTERLEAVED] SORTKEY

(column_name [, ...])]

BigQuery supporta il clustering, che consente di archiviare le chiavi in ordine ordinato.

CREATE TABLE table_name

AS SELECT ...

CREATE TABLE table_name

AS SELECT ...

CREATE TABLE IF NOT EXISTS table_name

...

CREATE TABLE IF NOT EXISTS table_name

...

BigQuery supporta anche l'istruzione DDL CREATE OR REPLACE TABLE, che sovrascrive una tabella se esiste già.

L'istruzione CREATE TABLE di BigQuery supporta anche le seguenti clausole, che non hanno un equivalente Snowflake:

Per ulteriori informazioni su CREATE TABLE in BigQuery, consulta Esempi di istruzioni CREATE TABLE nella documentazione DDL.

ALTER TABLE estratto conto

Questa sezione utilizzerà i comandi BigQuery CLI corrispondenti ai comandi Snowflake per risolvere le differenze nelle istruzioni ALTER per le tabelle.

Snowflake BigQuery

ALTER TABLE [ IF EXISTS ] <name> RENAME TO <new_name>

ALTER TABLE [IF EXISTS] <name>

SET OPTIONS (friendly_name="<new_name>")

ALTER TABLE <name>

SWAP WITH <target_db_name>

Lo scambio di tabelle non è supportato in BigQuery.

ALTER TABLE <name>

SET

[DEFAULT_DDL_COLLATION = '<value>']

La gestione del collation dei dati per le tabelle non è supportata in BigQuery.

ALTER TABLE <name>

SET

[DATA_RETENTION_TIME_IN_DAYS = <num>]

ALTER TABLE [IF EXISTS] <name>

SET OPTIONS (expiration_timestamp=<timestamp>)

ALTER TABLE <name>

SET

COMMENT = '<string_literal>'

ALTER TABLE [IF EXISTS] <name>

SET OPTIONS (description='<string_literal>')

Inoltre, Snowflake fornisce opzioni di clustering, colonne e vincoli per la modifica di tabelle non supportate da BigQuery.

DROP TABLE e UNDROP TABLE

Questa sezione utilizzerà il comando BigQuery CLI corrispondente al comando Snowflake per risolvere la differenza nelle istruzioni DROP e UNDROP.

Snowflake BigQuery

DROP TABLE [IF EXISTS] <table_name>

[CASCADE | RESTRICT]


Nota: in Snowflake, l'eliminazione di una tabella non comporta la sua rimozione definitiva dal sistema. Una versione della tabella eliminata viene conservata per il numero di giorni specificato dal parametro DATA_RETENTION_TIME_IN_DAYS per il database.

bq rm -r -f -d <dataset_name>.<table_name>


Where

-r serve per rimuovere tutti gli oggetti nel set di dati
-f serve per saltare la conferma per l'esecuzione
-d indica il set di dati

Nota: in BigQuery, anche l'eliminazione di una tabella non è definitiva, ma uno snapshot viene attualmente mantenuto solo per 7 giorni.

UNDROP TABLE <table_name>

bq cp \ <dataset_name>.<table_name>@<unix_timestamp> <dataset_name>.<new_table_name>


Nota: in BigQuery, devi prima determinare un timestamp UNIX di quando esisteva la tabella (in millisecondi). Poi copia la tabella in corrispondenza del timestamp in una nuova tabella. La nuova tabella deve avere un nome diverso da quello della tabella eliminata.

CREATE EXTERNAL TABLE estratto conto

BigQuery consente di creare tabelle esterne permanenti e temporanee ed eseguire query sui dati direttamente da:

Snowflake consente di creare una tabella esterna permanente che, quando viene eseguita una query, legge i dati da un insieme di uno o più file in un'area di staging esterna specificata.

Questa sezione utilizzerà il comando BigQuery CLI corrispondente al comando Snowflake per risolvere le differenze nell'istruzione CREATE EXTERNAL TABLE.

Snowflake BigQuery
CREATE [OR REPLACE] EXTERNAL TABLE

table

((<col_name> <col_type> AS <expr> )

| (<part_col_name> <col_type> AS <part_expr>)[ inlineConstraint ]

[ , ... ] )

LOCATION = externalStage

FILE_FORMAT =

({FORMAT_NAME='<file_format_name>'

|TYPE=source_format [formatTypeOptions]})


Where:

externalStage = @[namespace.]ext_stage_name[/path]


Nota: Snowflake consente di preparare i file contenenti i dati da leggere e specificare le opzioni del tipo di formato per le tabelle esterne. I tipi di formato Snowflake (CSV, JSON, AVRO, PARQUET, ORC) sono tutti supportati da BigQuery, ad eccezione del tipo XML.

[1] bq mk \

--external_table_definition=definition_file \

dataset.table


OR


[2] bq mk \

--external_table_definition=schema_file@source_format={Cloud Storage URI | drive_URI} \

dataset.table


OR


[3] bq mk \

--external_table_definition=schema@source_format = {Cloud Storage URI | drive_URI} \

dataset.table


Nota: BigQuery consente di creare una tabella permanente collegata all'origine dati utilizzando un file di definizione della tabella [1], un file di schema JSON [2] o una definizione di schema incorporata [3]. La gestione temporanea dei file da leggere e la specifica delle opzioni del tipo di formato non sono supportate in BigQuery.

CREATE [OR REPLACE] EXTERNAL TABLE [IF EXISTS]

<table_name>

((<col_name> <col_type> AS <expr> )

[ , ... ] )

[PARTITION BY (<identifier>, ...)]

LOCATION = externalStage

[REFRESH_ON_CREATE = {TRUE|FALSE}]

[AUTO_REFRESH = {TRUE|FALSE}]

[PATTERN = '<regex_pattern>']

FILE_FORMAT = ({FORMAT_NAME = '<file_format_name>' | TYPE = { CSV | JSON | AVRO | ORC | PARQUET} [ formatTypeOptions]})

[COPY GRANTS]

[COMMENT = '<string_literal>']

bq mk \

--external_table_definition=definition_file \

dataset.table


Nota: BigQuery al momento non supporta nessuna delle opzioni dei parametri facoltativi fornite da Snowflake per la creazione di tabelle esterne. Per il partizionamento, BigQuery supporta l'utilizzo della pseudocolonna _FILE_NAME per creare tabelle/viste partizionate sopra le tabelle esterne. Per maggiori informazioni, consulta la sezione Eseguire query sulla pseudocolonna _FILE_NAME.

Inoltre, BigQuery supporta anche l'esecuzione di query su dati partizionati esternamente nei formati AVRO, PARQUET, ORC, JSON e CSV archiviati in Google Cloud Storage utilizzando un layout di partizionamento Hive predefinito.

CREATE VIEW estratto conto

La tabella seguente mostra gli equivalenti tra Snowflake e BigQuery per l'istruzione CREATE VIEW.

Snowflake BigQuery

CREATE VIEW view_name AS SELECT ...

CREATE VIEW view_name AS SELECT ...

CREATE OR REPLACE VIEW view_name AS SELECT ...

CREATE OR REPLACE VIEW

view_name AS SELECT ...

CREATE VIEW view_name

(column_name, ...)

AS SELECT ...

CREATE VIEW view_name

AS SELECT ...

Non supportata CREATE VIEW IF NOT EXISTS

view_name

OPTIONS(view_option_list)

AS SELECT ...

CREATE VIEW view_name

AS SELECT ...

WITH NO SCHEMA BINDING

In BigQuery, per creare una vista, tutti gli oggetti a cui viene fatto riferimento devono già esistere.

BigQuery consente di eseguire query sulle origini dati esterne.

CREATE SEQUENCE estratto conto

Le sequenze non vengono utilizzate in BigQuery. Questo risultato può essere ottenuto con il seguente batch. Per ulteriori informazioni sulle chiavi surrogate e sulle dimensioni a variazione lenta (SCD), consulta le seguenti guide:

INSERT INTO dataset.table SELECT *, ROW_NUMBER() OVER () AS id FROM dataset.table

DDL di caricamento e scaricamento dei dati

Snowflake supporta il caricamento e lo scaricamento dei dati tramite comandi di gestione di stage, formato file e pipe. BigQuery offre anche diverse opzioni, ad esempio bq load, BigQuery Data Transfer Service, bq extract e così via. Questa sezione evidenzia le differenze nell'utilizzo di queste metodologie per il caricamento e lo scaricamento dei dati.

DDL per account e sessione

I concetti di Account e Sessione di Snowflake non sono supportati in BigQuery. BigQuery consente la gestione degli account tramite Cloud IAM a tutti i livelli. Inoltre, le transazioni con più istruzioni non sono ancora supportate in BigQuery.

Funzioni definite dall'utente

Una funzione definita dall'utente consente di creare funzioni per operazioni personalizzate. Queste funzioni accettano colonne di input, eseguono azioni e restituiscono il risultato di queste azioni come valore.

Sia Snowflake che BigQuery supportano le funzioni definite dall'utente utilizzando espressioni SQL e codice JavaScript.

Consulta il repository GitHub GoogleCloudPlatform/bigquery-utils/ per una libreria di UDF BigQuery comuni.

Sintassi di CREATE FUNCTION

La seguente tabella illustra le differenze nella sintassi di creazione delle UDF SQL tra Snowflake e BigQuery.

Snowflake BigQuery

CREATE [ OR REPLACE ] FUNCTION

function_name

([sql_arg_name sql_arg_data_type[,..]])

RETURNS data_type

AS sql_function_definition

s

CREATE [OR REPLACE] FUNCTION function_name

([sql_arg_name sql_arg_data_type[,..]])

AS sql_function_definition


Nota: in BigQuery SQL UDF, il tipo di dati restituito è facoltativo. BigQuery deduce il tipo di risultato della funzione dal corpo della funzione SQL quando una query chiama la funzione.

CREATE [OR REPLACE] FUNCTION

function_name

([sql_arg_name sql_arg_data_type[,..]])

RETURNS TABLE (col_name, col_data_type[,..])

AS sql_function_definition


CREATE [OR REPLACE] FUNCTION function_name

([sql_arg_name sql_arg_data_type[,..]])

RETURNS data_type

AS sql_function_definition


Nota:in BigQuery SQL UDF, il tipo di tabella restituito non è attualmente supportato, ma è incluso nella roadmap del prodotto e sarà disponibile a breve. Tuttavia, BigQuery supporta la restituzione di ARRAY di tipo STRUCT.

CREATE [SECURE] FUNCTION

function_name

([sql_arg_name sql_arg_data_type[,..]])

RETURNS data_type

AS sql_function_definition


Nota: Snowflake offre un'opzione sicura per limitare la definizione e i dettagli delle UDF solo agli utenti autorizzati (ovvero gli utenti a cui è stato concesso il ruolo proprietario della vista).

CREATE FUNCTION

function_name

([sql_arg_name sql_arg_data_type[,..]])

RETURNS data_type

AS sql_function_definition


Nota: la sicurezza delle funzioni non è un parametro configurabile in BigQuery. BigQuery supporta la creazione di ruoli e autorizzazioni IAM per limitare l'accesso ai dati e alla definizione della funzione sottostanti.

CREATE [OR REPLACE] FUNCTION

function_name

([sql_arg_name sql_arg_data_type[,..]])

RETURNS data_type

[ { CALLED ON NULL INPUT | { RETURNS NULL ON NULL INPUT | STRICT } } ]

AS sql_function_definition

CREATE [OR REPLACE] FUNCTION function_name

([sql_arg_name sql_arg_data_type[,..]])

RETURNS data_type

AS sql_function_definition


Nota: il comportamento della funzione per gli input null viene gestito implicitamente in BigQuery e non deve essere specificato come opzione separata.

CREATE [OR REPLACE] FUNCTION

function_name

([sql_arg_name sql_arg_data_type[,..]])

RETURNS data_type

[VOLATILE | IMMUTABLE]

AS sql_function_definition

CREATE [OR REPLACE] FUNCTION

function_name

([sql_arg_name sql_arg_data_type[,..]])

RETURNS data_type

AS sql_function_definition


Nota:la volatilità della funzione non è un parametro configurabile in BigQuery. Tutta la volatilità delle UDF BigQuery è equivalente alla volatilità IMMUTABLE di Snowflake (ovvero non esegue ricerche nel database o utilizza in altro modo informazioni non direttamente presenti nell'elenco degli argomenti).

CREATE [OR REPLACE] FUNCTION

function_name

([sql_arg_name sql_arg_data_type[,..]])

RETURNS data_type

AS [' | $$]

sql_function_definition

[' | $$]

CREATE [OR REPLACE] FUNCTION

function_name

([sql_arg_name sql_arg_data_type[,..]])

RETURNS data_type

AS sql_function_definition


Nota: l'utilizzo di virgolette singole o di una sequenza di caratteri come le virgolette del dollaro ($$) is not required or supported in BigQuery. BigQuery implicitly interprets the SQL expression.

CREATE [OR REPLACE] FUNCTION

function_name

([sql_arg_name sql_arg_data_type[,..]])

RETURNS data_type

[COMMENT = '<string_literal>']

AS sql_function_definition

CREATE [OR REPLACE] FUNCTION

function_name

([sql_arg_name sql_arg_data_type[,..]])

RETURNS data_type

AS sql_function_definition


Note:Adding comments or descriptions in UDFs is currently not supported in BigQuery.

CREATE [OR REPLACE] FUNCTION function_name

(x integer, y integer)

RETURNS integer

AS $$

SELECT x + y

$$


Note: Snowflake does not support ANY TYPE for SQL UDFs. However, it supports using VARIANT data types.

CREATE [OR REPLACE] FUNCTION function_name

(x ANY TYPE, y ANY TYPE)

AS

SELECT x + y



Note: BigQuery supports using ANY TYPE as argument type. The function will accept an input of any type for this argument. For more information, see templated parameter in BigQuery.

BigQuery also supports the CREATE FUNCTION IF NOT EXISTSstatement which treats the query as successful and takes no action if a function with the same name already exists.

BigQuery's CREATE FUNCTIONstatement also supports creating TEMPORARY or TEMP functions, which do not have a Snowflake equivalent. See calling UDFs for details on executing a BigQuery persistent UDF.

DROP FUNCTION syntax

The following table addresses differences in DROP FUNCTION syntax between Snowflake and BigQuery.

Snowflake BigQuery

DROP FUNCTION [IF EXISTS]

function_name

([arg_data_type, ... ])

DROP FUNCTION [IF EXISTS] dataset_name.function_name


Note: BigQuery does not require using the function's signature (argument data type) for deleting the function.

BigQuery requires that you specify the project_name if the function is not located in the current project.

Additional function commands

This section covers additional UDF commands supported by Snowflake that are not directly available in BigQuery.

ALTER FUNCTION syntax

Snowflake supports the following operations using ALTER FUNCTION syntax.

  • Renaming a UDF
  • Converting to (or reverting from) a secure UDF
  • Adding, overwriting, removing a comment for a UDF

As configuring function security and adding function comments is not available in BigQuery, ALTER FUNCTION syntax is currently not supported. However, the CREATE FUNCTION statement can be used to create a UDF with the same function definition but a different name.

DESCRIBE FUNCTION syntax

Snowflake supports describing a UDF using DESC[RIBE] FUNCTION syntax. This is currently not supported in BigQuery. However, querying UDF metadata via INFORMATION SCHEMA will be available soon as part of the product roadmap.

SHOW USER FUNCTIONS syntax

In Snowflake, SHOW USER FUNCTIONS syntax can be used to list all UDFs for which users have access privileges. This is currently not supported in BigQuery. However, querying UDF metadata via INFORMATION SCHEMA will be available soon as part of the product roadmap.

Stored procedures

Snowflake stored procedures are written in JavaScript, which can execute SQL statements by calling a JavaScript API. In BigQuery, stored procedures are defined using a block of SQL statements.

CREATE PROCEDURE syntax

In Snowflake, a stored procedure is executed with a CALL command while in BigQuery, stored procedures are executed like any other BigQuery function.

The following table addresses differences in stored procedure creation syntax between Snowflake and BigQuery.

Snowflake BigQuery

CREATE [OR REPLACE] PROCEDURE

procedure_name

([arg_name arg_data_type[,..]])

RETURNS data_type

AS procedure_definition;


Note: Snowflake requires that stored procedures return a single value. Hence, return data type is a required option.
CREATE [OR REPLACE] PROCEDURE

procedure_name

([arg_mode arg_name arg_data_type[,..]])

BEGIN

procedure_definition

END;


arg_mode: IN | OUT | INOUT


Note: BigQuery doesn't support a return type for stored procedures. Also, it requires specifying argument mode for each argument passed.

CREATE [OR REPLACE] PROCEDURE

procedure_name

([arg_name arg_data_type[,..]])

RETURNS data_type

AS

$$

javascript_code

$$;

CREATE [OR REPLACE] PROCEDURE

procedure_name

([arg_name arg_data_type[,..]])

BEGIN

statement_list

END;

CREATE [OR REPLACE] PROCEDURE

procedure_name

([arg_name arg_data_type[,..]])

RETURNS data_type

[{CALLED ON NULL INPUT | {RETURNS NULL ON NULL INPUT | STRICT}}]

AS procedure_definition;

CREATE [OR REPLACE] PROCEDURE

procedure_name

([arg_name arg_data_type[,..]])

BEGIN

procedure_definition

END;


Nota: il comportamento della procedura per gli input nulli viene gestito implicitamente in BigQuery e non deve essere specificato come opzione separata.
CREATE [OR REPLACE] PROCEDURE

procedure_name

([arg_name arg_data_type[,..]])

RETURNS data_type

[VOLATILE | IMMUTABLE]

AS procedure_definition;

CREATE [OR REPLACE] PROCEDURE

procedure_name

([arg_name arg_data_type[,..]])

BEGIN

procedure_definition

END;


Nota:la volatilità della procedura non è un parametro configurabile in BigQuery. Equivale alla volatilità IMMUTABLE di Snowflake.
CREATE [OR REPLACE] PROCEDURE

procedure_name

([arg_name arg_data_type[,..]])

RETURNS data_type

[COMMENT = '<string_literal>']

AS procedure_definition;

CREATE [OR REPLACE] PROCEDURE

procedure_name

([arg_name arg_data_type[,..]])

BEGIN

procedure_definition

END;


Nota:l'aggiunta di commenti o descrizioni nelle definizioni delle procedure non è attualmente supportata in BigQuery.
CREATE [OR REPLACE] PROCEDURE

procedure_name

([arg_name arg_data_type[,..]])

RETURNS data_type

[EXECUTE AS { CALLER | OWNER }]

AS procedure_definition;


Nota: Snowflake supporta la specifica del chiamante o del proprietario della procedura per l'esecuzione

CREATE [OR REPLACE] PROCEDURE

procedure_name

([arg_name arg_data_type[,..]])

BEGIN

procedure_definition

END;


Nota: le stored procedure BigQuery vengono sempre eseguite come chiamante

BigQuery supporta anche l'istruzione CREATE PROCEDURE IF NOT EXISTS, che considera la query riuscita e non esegue alcuna azione se esiste già una funzione con lo stesso nome.

Sintassi di DROP PROCEDURE

La seguente tabella illustra le differenze nella sintassi DROP FUNCTION tra Snowflake e BigQuery.

Snowflake BigQuery

DROP PROCEDURE [IF EXISTS]

procedure_name

([arg_data_type, ... ])

DROP PROCEDURE [IF EXISTS] dataset_name.procedure_name


Nota: BigQuery non richiede l'utilizzo della firma della procedura (tipo di dati dell'argomento) per l'eliminazione della procedura.

BigQuery richiede di specificare project_name se la procedura non si trova nel progetto corrente.

Comandi aggiuntivi per le procedure

Snowflake fornisce comandi aggiuntivi come ALTER PROCEDURE, DESC[RIBE] PROCEDURE e SHOW PROCEDURES per gestire le stored procedure. Al momento non sono supportati in BigQuery.

Istruzioni SQL per metadati e transazioni

Snowflake BigQuery

BEGIN [ { WORK | TRANSACTION } ] [ NAME <name> ]; START_TRANSACTION [ name <name> ];

BigQuery utilizza sempre l'isolamento dello snapshot. Per maggiori dettagli, consulta la sezione Garanzie di coerenza in questo documento.

COMMIT;

Non utilizzato in BigQuery.

ROLLBACK;

Non utilizzato in BigQuery

SHOW LOCKS [ IN ACCOUNT ]; SHOW TRANSACTIONS [ IN ACCOUNT ]; Note: If the user has the ACCOUNTADMIN role, the user can see locks/transactions for all users in the account.

Non utilizzato in BigQuery.

Istruzioni SQL su più righe e con più istruzioni

Sia Snowflake che BigQuery supportano le transazioni (sessioni) e quindi le istruzioni separate da punti e virgola che vengono eseguite in modo coerente insieme. Per maggiori informazioni, consulta la sezione Transazioni con più estratti conto.

Colonne di metadati per i file di staging

Snowflake genera automaticamente i metadati per i file nelle fasi interne ed esterne. Questi metadati possono essere interrogati e caricati in una tabella insieme alle normali colonne di dati. È possibile utilizzare le seguenti colonne di metadati:

Garanzie di coerenza e isolamento delle transazioni

Sia Snowflake che BigQuery sono atomici, ovvero conformi ad ACID a livello di mutazione in molte righe.

Transazioni

A ogni transazione Snowflake viene assegnata un'ora di inizio univoca (inclusi i millisecondi) impostata come ID transazione. Snowflake supporta solo il READ COMMITTED livello di isolamento. Tuttavia, un'istruzione può vedere le modifiche apportate da un'altra istruzione se entrambe si trovano nella stessa transazione, anche se queste modifiche non sono ancora state eseguite. Le transazioni Snowflake acquisiscono blocchi sulle risorse (tabelle) quando la risorsa viene modificata. Gli utenti possono regolare il tempo massimo di attesa di un'istruzione bloccata prima che scada il relativo timeout. Le istruzioni DML vengono eseguite automaticamente se il parametro AUTOCOMMIT è attivo.

BigQuery supporta anche le transazioni. BigQuery contribuisce a garantire il controllo della concorrenza ottimistico (il primo a eseguire il commit vince) con l'isolamento dello snapshot, in cui una query legge gli ultimi dati di cui è stato eseguito il commit prima dell'inizio della query. Questo approccio garantisce lo stesso livello di coerenza per riga, per mutazione e tra le righe all'interno della stessa istruzione DML, evitando al contempo i deadlock. In caso di più aggiornamenti DML sulla stessa tabella, BigQuery passa al controllo della concorrenza pessimistico. I job di caricamento possono essere eseguiti in modo completamente indipendente e aggiungere dati alle tabelle. Tuttavia, BigQuery non fornisce ancora un limite di transazione esplicito o una sessione.

Esegui il rollback

Se la sessione di una transazione Snowflake viene terminata in modo imprevisto prima che la transazione venga eseguita o annullata, la transazione viene lasciata in uno stato separato. L'utente deve eseguire SYSTEM$ABORT_TRANSACTION per interrompere la transazione separata oppure Snowflake eseguirà il rollback della transazione separata dopo quattro ore di inattività. Se si verifica un deadlock, Snowflake lo rileva e seleziona l'istruzione più recente da eseguire il rollback. Se l'istruzione DML in una transazione aperta in modo esplicito non va a buon fine, le modifiche vengono annullate, ma la transazione rimane aperta finché non viene eseguito il commit o il rollback. Le istruzioni DDL in Snowflake non possono essere ripristinate perché vengono eseguite automaticamente.

BigQuery supporta l'istruzione ROLLBACK TRANSACTION. Non esiste un'istruzione ABORT in BigQuery.

Limiti per i database

Controlla sempre la documentazione pubblica di BigQuery per quote e limiti più recenti. Molte quote per gli utenti con volumi elevati possono essere aumentate contattando il team di assistenza Cloud.

Per impostazione predefinita, tutti gli account Snowflake hanno limiti temporanei. I limiti temporanei vengono impostati durante la creazione dell'account e possono variare. Molti limiti temporanei di Snowflake possono essere aumentati tramite il team dell'account Snowflake o un ticket di assistenza.

La tabella seguente mostra un confronto tra i limiti dei database Snowflake e BigQuery.

Limite Snowflake BigQuery
Dimensioni del testo della query 1 MB 1 MB
Numero massimo di query simultanee XS Warehouse - 8
S Warehouse - 16
M Warehouse - 32
L Warehouse - 64
XL Warehouse - 128
100