Quote e limiti
Questo documento elenca le quote e i limiti di sistema che si applicano a BigQuery.
- Le quote specificano la quantità di una risorsa condivisa e numerabile che puoi utilizzare. Le quote sono definite da servizi come BigQuery. Trusted Cloud by S3NS
- I limiti di sistema sono valori fissi che non possono essere modificati.
Trusted Cloud by S3NS utilizza le quote per garantire l'equità e ridurre i picchi di utilizzo e disponibilità delle risorse. Una quota limita la quantità di una Trusted Cloud risorsa che Trusted Cloud il progetto può utilizzare. Le quote si applicano a una serie di tipi di risorse, inclusi hardware, software e componenti di rete. Ad esempio, le quote possono limitare il numero di chiamate API a un servizio, il numero di bilanciatori del carico utilizzati contemporaneamente dal tuo progetto o il numero di progetti che puoi creare. Le quote proteggono la community degli utentiTrusted Cloud impedendo il sovraccarico dei servizi. Le quote ti aiutano inoltre a gestire le tue Trusted Cloud risorse.
Il sistema delle quote di Cloud esegue le seguenti operazioni:
- Monitora il tuo consumo di Trusted Cloud prodotti e servizi
- Limita il consumo di queste risorse
- Fornisce un modo per richiedere modifiche al valore della quota e automatizzare gli aggiustamenti della quota
Nella maggior parte dei casi, quando provi a utilizzare una risorsa per un volume maggiore di quello consentito dalla quota, il sistema blocca l'accesso alla risorsa e l'attività che stai tentando di eseguire non va a buon fine.
In genere, le quote si applicano a livello di Trusted Cloud progetto. L'utilizzo di una risorsa in un progetto non influisce sulla quota disponibile in un altro progetto. All'interno di un Trusted Cloud progetto, le quote vengono condivise tra tutte le applicazioni e gli indirizzi IP.
Esistono anche limiti di sistema per le risorse BigQuery. I limiti di sistema non possono essere modificati.
Per impostazione predefinita, le quote e i limiti di BigQuery vengono applicati in base al singolo progetto. Le quote e i limiti che si applicano su una base diversa sono indicati come tali; ad esempio, il numero massimo di colonne per tabella o il numero massimo di richieste API simultanee per utente. I criteri specifici variano a seconda della disponibilità delle risorse, del profilo utente, della cronologia di Service Usage e di altri fattori e sono soggetti a modifiche senza preavviso.
Reintegro della quota
Le quote giornaliere vengono ripristinate a intervalli regolari durante il giorno, riflettendo il loro intento di guidare i comportamenti di limitazione della frequenza. Viene inoltre eseguito un aggiornamento intermittente per evitare lunghe interruzioni quando la quota si esaurisce. Altre quote vengono in genere rese disponibili entro pochi minuti, anziché essere ripristinate globalmente una volta al giorno.
Richiedi un aumento della quota
Per modificare la maggior parte delle quote, utilizza la Trusted Cloud console. Per ulteriori informazioni, consulta Richiedi un aggiustamento delle quote.
Per una guida passo passo alla procedura di richiesta di aumento della quota nella console Trusted Cloud , fai clic su Procedura guidata:
Limita l'utilizzo delle quote
Per informazioni su come limitare l'utilizzo di una risorsa particolare creando un override della quota, consulta Crea override della quota.
Autorizzazioni obbligatorie
Per visualizzare e aggiornare le quote BigQuery nella consoleTrusted Cloud , devi disporre degli stessi permessi di qualsiasi quota Trusted Cloud by S3NS. Per saperne di più, consulta le autorizzazioni per le quoteTrusted Cloud .
Risoluzione dei problemi
Per informazioni sulla risoluzione degli errori relativi a quote e limiti, consulta Risoluzione degli errori di quota di BigQuery.
Job
Le quote e i limiti si applicano ai job eseguiti da BigQuery per tuo conto, indipendentemente dal fatto che vengano eseguiti utilizzando la console Trusted Cloud , lo strumento a riga di comando bq o in modo programmatico utilizzando l'API REST o le librerie client.
Job di query
Le seguenti quote si applicano ai job di query creati automaticamente eseguendo query interattive, query pianificate e job inviati utilizzando i metodi API jobs.query
e jobs.insert
di tipo query:
Quota | Predefinito | Note |
---|---|---|
Utilizzo delle query al giorno | Illimitato A partire dal 1° settembre 2025, il limite predefinito passerà da illimitato a 200 tebibyte (TiB) |
Questa quota si applica solo
al modello di prezzo per query on demand. Per impostazione predefinita, non esiste alcun limite al numero di byte che possono essere elaborati dalle query in un progetto. Consulta Creare quote di query personalizzate per scoprire di più sui controlli dei costi. Visualizza la quota nella Trusted Cloud console |
Utilizzo delle query al giorno per utente | Illimitato | Questa quota si applica solo
al modello di prezzo per query on demand. Per impostazione predefinita, non esiste un limite al numero di byte che le query di un utente possono elaborare ogni giorno. Consulta Creare quote di query personalizzate per scoprire di più sui controlli dei costi. Visualizza la quota nella Trusted Cloud console |
Byte al giorno per le query federate Cloud SQL tra regioni | 1 TB | Se la
località di elaborazione della query BigQuery e la
località dell'istanza Cloud SQL sono diverse, la query è una
query tra regioni
diverse. Il tuo progetto può eseguire fino a 1 TB di query tra regioni
al giorno. Consulta
Query federate
di Cloud SQL. Visualizza la quota nella Trusted Cloud console |
Byte trasferiti cross-cloud al giorno | 1 TB |
Puoi trasferire fino a 1 TB di dati al giorno da un bucket Amazon S3 o da Azure Blob Storage. Per ulteriori informazioni, vedi
Trasferimento cross-cloud da Amazon S3 e Azure.
Visualizza la quota nella Trusted Cloud console |
I seguenti limiti si applicano ai job di query creati automaticamente eseguendo query interattive, query pianificate e job inviati utilizzando i metodi API jobs.query
e jobs.insert
di tipo query:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di query interattive in coda | 1000 query | Il tuo progetto può mettere in coda fino a 1000 query interattive. Le query interattive aggiuntive che superano questo limite restituiscono un errore di quota. |
Numero massimo di query batch in coda | 20.000 query | Il progetto può mettere in coda fino a 20.000 query batch. Le query batch aggiuntive che superano questo limite restituiscono un errore di quota. |
Numero massimo di query interattive in parallelo rispetto alle origini dati esterne di Bigtable | 16 query | Il tuo progetto può eseguire fino a 16 query simultanee su un'origine dati esterna di Bigtable. |
Numero massimo di query simultanee che contengono funzioni remote | 10 query | Puoi eseguire fino a 10 query simultanee con funzioni remote per progetto. |
Numero massimo di query contemporanee con più istruzioni | 1000 query con più istruzioni | Il tuo progetto può eseguire fino a 1000 query con più istruzioni contemporaneamente. Per altre quote e limiti relativi alle query multi-istruzione, consulta Query multi-istruzione. |
Numero massimo di query SQL precedente in parallelo che contengono funzioni definite dall'utente | 6 query | Il tuo progetto può eseguire fino a sei query SQL precedente in parallelo con funzioni definite dall'utente (UDF). Questo limite include sia query interattive che batch. Anche le query interattive che contengono funzioni definite dall'utente incidono sulla limitazione di frequenza per le query interattive in parallelo. Questo limite non si applica alle query GoogleSQL. |
Dimensione massima giornaliera delle query | Illimitato | Per impostazione predefinita, non esiste un limite giornaliero di dimensioni delle query. Tuttavia, puoi impostare limiti alla quantità di dati su cui gli utenti possono eseguire query creando quote personalizzate per controllare l'utilizzo delle query al giorno o l'utilizzo delle query al giorno per utente. |
Limite di aggiornamento giornaliero della tabella di destinazione | Consulta Numero massimo di operazioni per tabella al giorno. |
Gli aggiornamenti alle tabelle di destinazione in un job di query vengono conteggiati ai fini del limite relativo al numero massimo di operazioni per tabella al giorno per le tabelle di destinazione. Gli aggiornamenti della tabella di destinazione includono operazioni di accodamento e sovrascrittura eseguite tramite query da Cloud Console, usando lo strumento a riga di comando bq oppure chiamando i metodi API jobs.insert di tipo query e jobs.query . Trusted Cloud
|
Limite di tempo di esecuzione di query/query con più istruzioni | 6 ore |
L'esecuzione di una query o di una query con più istruzioni può continuare per un massimo di 6 ore prima di essere interrotta. Tuttavia, a volte vengono eseguiti nuovi tentativi di esecuzione delle query. Una query può essere tentata fino a tre volte e l'esecuzione di ogni tentativo può durare fino a 6 ore. Di conseguenza, è possibile che una query abbia un tempo di esecuzione totale superiore a 6 ore. Il timeout del job |
Numero massimo di risorse a cui viene fatto riferimento per query | 1000 risorse |
Una query può fare riferimento a un massimo di 1000 tra tabelle univoche, viste univoche,
funzioni definite dall'utente (UDF) univoche e funzioni di tabella univoche dopo l'espansione completa. Questo limite include quanto segue:
|
Lunghezza massima dei caratteri della query SQL | 1024 k caratteri |
Una query SQL può contenere fino a 1024 k caratteri. Questo limite include
i commenti e i caratteri spazio vuoto. Se la query è più lunga, ricevi
il seguente errore: The query is too large. Per rispettare questo
limite, valuta la possibilità di sostituire array o elenchi di grandi dimensioni con parametri di ricerca e di dividere
una query lunga in più query nella sessione.
|
Dimensione massima delle query SQL precedente non risolte | 256 kB |
Una query SQL precedente non risolta può avere una lunghezza massima di 256 kB. Se
la query è più lunga, ricevi il seguente errore: The query
is too large.
Per rispettare questo limite, valuta la possibilità di sostituire array o elenchi di grandi dimensioni con
parametri di ricerca.
|
Lunghezza massima delle query GoogleSQL non risolte | 1 MB |
Una query GoogleSQL non risolta può avere una lunghezza massima di 1 MB. Se
la query è più lunga, ricevi il seguente errore: The query is too
large.
Per rispettare questo limite, valuta la possibilità di sostituire array o elenchi di grandi dimensioni con parametri
della query.
|
Lunghezza massima delle query legacy e GoogleSQL risolte | 12 MB | Il limite di dimensioni della query risolta include tutte le viste e le tabelle con caratteri jolly a cui fa riferimento la query. |
Numero massimo di parametri di ricerca GoogleSQL | 10.000 parametri | Una query GoogleSQL può avere fino a 10.000 parametri. |
Dimensione massima della richiesta | 10 MB | La dimensione della richiesta può essere fino a 10 MB, incluse proprietà aggiuntive come parametri di ricerca. |
Dimensioni massime della risposta | 10 GB compressi | Le dimensioni variano in base ai rapporti di compressione dei dati. La dimensione effettiva della risposta potrebbe essere sensibilmente maggiore di 10 GB. La dimensione massima della risposta è illimitata quando si scrivono risultati di query di grandi dimensioni su una tabella di destinazione. |
Dimensione massima riga | 100 MB | La dimensione massima della riga è approssimativa, poiché il limite si basa sulla rappresentazione interna dei dati di riga. La dimensione massima della riga viene applicata durante alcune fasi dell'esecuzione del job di query. |
Numero massimo di colonne in una tabella, un risultato di query o una definizione di vista | 10.000 colonne | Una tabella, un risultato di query o una definizione di vista possono avere fino a 10.000 colonne. Sono incluse le colonne nidificate e ripetute. Le colonne eliminate possono continuare a essere conteggiate nel numero totale di colonne. Se hai eliminato colonne, potresti ricevere errori di quota fino al ripristino del totale. |
Numero massimo di slot contemporanei per i prezzi on demand |
2000 slot per progetto 20.000 slot per organizzazione |
Con i prezzi on demand, il tuo progetto può avere fino a 2000 slot contemporanei. Esiste anche un limite di 20.000 slot simultanei a livello di organizzazione. BigQuery tenta di allocare gli slot in modo equo tra i progetti all'interno di un'organizzazione se la domanda totale è superiore a 20.000 slot. Gli slot di BigQuery vengono condivisi fra tutte le query in un singolo progetto. BigQuery potrebbe superare questo limite per accelerare le query. La capacità è soggetta a disponibilità. Per verificare quanti slot stai utilizzando, consulta la documentazione sul monitoraggio di BigQuery tramite Cloud Monitoring. |
Utilizzo massimo della CPU per i dati scansionati per i prezzi on demand | 256 secondi CPU per MiB scansionato |
Con i prezzi on demand, la query può utilizzare fino a circa 256 secondi di CPU
per MiB di dati analizzati. Se la query richiede troppa CPU per la quantità di dati
in fase di elaborazione, la query non riesce e viene visualizzato un errore
billingTierLimitExceeded .
Per ulteriori informazioni,
vedi
billingTierLimitExceeded.
|
Mutazioni della tabella delle transazioni con più istruzioni | 100 tabelle | Una transazione può modificare i dati in un massimo di 100 tabelle. |
Modifiche alla partizione delle transazioni con più istruzioni | 100.000 modifiche alle partizioni | Una transazione può eseguire al massimo 100.000 modifiche di partizioni. |
Dimensione massima dei risultati delle query BigQuery Omni | 20 GiB non compressi | La dimensione massima del risultato è 20 GiB di byte logici quando si esegue una query sui dati di Azure o AWS. Se il risultato della query è superiore a 20 GiB, valuta la possibilità di esportare i risultati in Amazon S3 o Blob Storage. Per saperne di più, consulta la sezione Limitazioni di BigQuery Omni. |
Dimensioni totali dei risultati delle query BigQuery Omni al giorno | 1 TB | Le dimensioni totali dei risultati delle query per un progetto sono pari a 1 TB al giorno.
Per saperne di più, consulta la sezione
Limitazioni di BigQuery Omni. |
Dimensione massima delle righe di BigQuery Omni | 10 MiB | La dimensione massima della riga è 10 MiB quando si esegue una query sui dati di Azure o AWS. Per saperne di più, consulta la sezione Limitazioni di BigQuery Omni. |
Sebbene le query programmate utilizzino funzionalità di BigQuery Data Transfer Service, le query programmate non sono trasferimenti e non sono soggette ai limiti dei job di caricamento.
Job di esportazione
I seguenti limiti si applicano ai job che
esportano dati
da BigQuery utilizzando lo strumento a riga di comando bq, la console Trusted Cloud o il metodo API jobs.insert
di tipo export.
Limite | Predefinito | Note |
---|---|---|
Numero massimo di byte esportati al giorno | 50 TiB |
Puoi esportare fino a 50 TiB(tebibyte) di dati al giorno da un progetto senza costi utilizzando il pool di slot condiviso. Puoi configurare un criterio di avviso di Cloud Monitoring
che fornisca una notifica del numero di byte esportati.
Per esportare più di 50 TiB(tebibyte) di dati al giorno, esegui una delle
seguenti operazioni:
|
Numero massimo di job di esportazione al giorno | 100.000 esportazioni |
Puoi eseguire fino a 100.000 esportazioni al giorno in un progetto.
Per eseguire più di 100.000 esportazioni al giorno, effettua una delle seguenti operazioni:
|
Dimensione massima della tabella esportata in un singolo file | 1 GB | Puoi esportare fino a 1 GB di dati della tabella in un unico file. Per esportare più di 1 GB di dati, utilizza un carattere jolly per esportare i dati in più file. Quando esporti i dati in più file, le dimensioni dei file variano. In alcuni casi, la dimensione dei file di output è superiore a 1 GB. |
URI con caratteri jolly per esportazione | 500 URI | Un'esportazione può contenere fino a 500 URI con caratteri jolly. |
Per ulteriori informazioni sulla visualizzazione dell'utilizzo attuale dei job di esportazione, consulta Visualizzare l'utilizzo attuale della quota.
Job di caricamento
I seguenti limiti si applicano quando
carichi dati
in BigQuery utilizzando la
consoleTrusted Cloud , lo strumento a riga di comando bq o il metodo API
jobs.insert
di tipo load.
Limite | Predefinito | Note |
---|---|---|
Job di caricamento per tabella al giorno | 1500 job | I job di caricamento, inclusi quelli non riusciti, vengono conteggiati ai fini del limite del numero di operazioni per tabella al giorno per la tabella di destinazione. Per informazioni sui limiti al numero di operazioni per tabella al giorno per le tabelle standard e partizionate, consulta Tabelle. |
Job di caricamento al giorno | 100.000 job | Il tuo progetto viene reintegrato con una quota massima di 100.000 job di caricamento ogni 24 ore. I job di caricamento non riusciti vengono conteggiati ai fini di questo limite. In alcuni casi, è possibile eseguire più di 100.000 job di caricamento in 24 ore se la quota del giorno precedente non è stata utilizzata completamente. |
Numero massimo di colonne per tabella | 10.000 colonne | Una tabella può avere fino a 10.000 colonne. Sono incluse le colonne nidificate e ripetute. |
Dimensione massima per job di caricamento | 15 TB | La dimensione totale di tutti i file di input CSV, JSON, Avro, Parquet e ORC può essere fino a 15 TB. Questo limite non si applica ai job con una prenotazione. |
Numero massimo di URI di origine nella configurazione del job | 10.000 URI | Una configurazione del job può avere fino a 10.000 URI di origine. |
Numero massimo di file per job di caricamento | 10.000.000 di file | Un job di caricamento può contenere fino a 10 milioni di file totali, inclusi tutti i file corrispondenti a tutti gli URI con caratteri jolly. |
Numero massimo di file nel bucket Cloud Storage di origine | Circa 60.000.000 di file | Un job di caricamento può leggere da un bucket Cloud Storage contenente fino a circa 60.000.000 di file. |
Limite di tempo di esecuzione del job di caricamento | 6 ore | Un job di caricamento non va a buon fine se viene eseguito per più di sei ore. |
Avro: dimensione massima per i blocchi di dati dei file | 16 MB | Il limite di dimensione per i blocchi di dati dei file Avro è 16 MB. |
CSV: dimensioni massime cella | 100 MB | Le celle CSV possono avere una dimensione massima di 100 MB. |
CSV: dimensione massima della riga | 100 MB | Le righe CSV possono avere una dimensione massima di 100 MB. |
CSV: dimensione massima del file - compresso | 4 GB | Il limite di dimensione per un file CSV compresso è di 4 GB. |
CSV: dimensione massima del file non compresso | 5 TB | Il limite di dimensioni per un file CSV non compresso è di 5 TB. |
JSON delimitato da nuova riga (ndJSON): dimensione massima della riga | 100 MB | Le righe ndJSON possono avere una dimensione massima di 100 MB. |
ndJSON: dimensione massima del file - compresso | 4 GB | Il limite di dimensioni per un file ndJSON compresso è 4 GB. |
ndJSON: dimensione massima del file non compresso | 5 TB | Il limite di dimensione per un file ndJSON non compresso è 5 TB. |
Se superi regolarmente i limiti dei job di caricamento a causa di aggiornamenti frequenti, valuta la possibilità di trasmettere in streaming i dati in BigQuery.
Per informazioni sulla visualizzazione dell'utilizzo attuale dei job di caricamento, consulta Visualizzare l'utilizzo attuale delle quote.
Considerazioni relative alla quota dei job di caricamento di BigQuery Data Transfer Service
I job di caricamento creati dai trasferimenti di BigQuery Data Transfer Service sono inclusi nelle quote di BigQuery sui job di caricamento. È importante considerare quanti trasferimenti si abilitano in ciascun progetto per impedire che trasferimenti e altri job di caricamento restituiscano errori di tipo quotaExceeded
.
Puoi utilizzare la seguente equazione per stimare il numero di job di caricamento richiesti dai tuoi trasferimenti:
Number of daily jobs = Number of transfers x Number of tables x
Schedule frequency x Refresh window
Dove:
Number of transfers
è il numero di configurazioni di trasferimento che abiliti nel tuo progetto.Number of tables
è il numero di tabelle create da ogni tipo di trasferimento specifico. Il numero di tabelle varia in base al tipo di trasferimento:- I trasferimenti di Campaign Manager creano circa 25 tabelle.
- I trasferimenti di Google Ads creano circa 60 tabelle.
- I trasferimenti di Google Ad Manager creano circa 40 tabelle.
- I trasferimenti di Google Play creano circa 25 tabelle.
- I trasferimenti di Search Ads 360 creano circa 50 tabelle.
- I trasferimenti di YouTube creano circa 50 tabelle.
Schedule frequency
indica la frequenza di esecuzione del trasferimento. Per ogni tipo di trasferimento, vengono fornite le programmazioni di esecuzione:Refresh window
è il numero di giorni da includere nel trasferimento dei dati. Se immetti 1, il backfill giornaliero non viene eseguito.
Job di copia
I seguenti limiti si applicano ai job BigQuery per la copia di tabelle, inclusi i job che creano una copia, un clone o uno snapshot di una tabella standard, un clone di tabella o uno snapshot di tabella.
I limiti si applicano ai job creati utilizzando la console Trusted Cloud , lo strumento a riga di comando bq o il metodo jobs.insert
che specifica il campo copy
nella configurazione del job.
I job di copia vengono conteggiati ai fini di questi limiti, indipendentemente dal fatto che vengano completati correttamente o meno.
Limite | Predefinito | Note |
---|---|---|
Job di copia per tabella di destinazione al giorno | Consulta Operazioni per tabella al giorno. | |
Job di copia al giorno | 100.000 job | Il tuo progetto può eseguire fino a 100.000 operazioni di copia al giorno. |
Job di copia tra regioni per tabella di destinazione al giorno | 100 job | Il tuo progetto può eseguire fino a 100 job di copia tra regioni per una tabella di destinazione al giorno. |
Job di copia tra regioni al giorno | 2000 job | Il tuo progetto può eseguire fino a 2000 job di copia tra regioni al giorno. |
Numero di tabelle di origine da copiare | 1200 tabelle di origine | Puoi copiare fino a 1200 tabelle di origine per ogni job di copia. |
Per informazioni sulla visualizzazione dell'utilizzo attuale dei job di copia, consulta Job di copia - Visualizzare l'utilizzo attuale della quota.
I seguenti limiti si applicano alla copia dei set di dati:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di tabelle nel set di dati di origine | 25.000 tabelle | Un set di dati di origine può contenere fino a 25.000 tabelle. |
Numero massimo di tabelle che possono essere copiate per esecuzione in un set di dati di destinazione nella stessa regione | 20.000 tabelle | Il tuo progetto può copiare un massimo di 20.000 tabelle per esecuzione in un set di dati di destinazione all'interno della stessa regione. Se un set di dati di origine contiene più di 20.000 tabelle, BigQuery Data Transfer Service pianifica esecuzioni sequenziali, ognuna delle quali copia fino a 20.000 tabelle, finché non vengono copiate tutte le tabelle. Queste corse sono separate da un intervallo predefinito di 24 ore, che gli utenti possono personalizzare fino a un minimo di 12 ore. |
Numero massimo di tabelle che possono essere copiate per esecuzione in un set di dati di destinazione in una regione diversa | 1000 tabelle | Il tuo progetto può copiare un massimo di 1000 tabelle per esecuzione in un set di dati di destinazione in una regione diversa. Se un set di dati di origine contiene più di 1000 tabelle, BigQuery Data Transfer Service pianifica esecuzioni sequenziali, ognuna delle quali copia fino a 1000 tabelle, finché non vengono copiate tutte le tabelle. Queste esecuzioni sono separate da un intervallo predefinito di 24 ore, che gli utenti possono personalizzare fino a un minimo di 12 ore. |
Prenotazioni
Le seguenti quote si applicano alle prenotazioni:
Quota | Predefinito | Note |
---|---|---|
Numero totale di slot per la regione UE | 5000 slot |
Il numero massimo di slot BigQuery che puoi acquistare
nella multiregione UE utilizzando la console Trusted Cloud .
Visualizza le quote nella console Trusted Cloud |
Numero totale di slot per la regione degli Stati Uniti | 10.000 slot |
Il numero massimo di slot BigQuery che puoi acquistare
nella multiregione Stati Uniti utilizzando la console Trusted Cloud .
Visualizza le quote nella console Trusted Cloud |
Numero totale di slot per la regione us-east1
|
4000 slot |
Il numero massimo di slot BigQuery che puoi acquistare nella regione elencata utilizzando la console Trusted Cloud .
Visualizza le quote nella console Trusted Cloud |
Numero totale di slot per le seguenti regioni:
|
2000 slot |
Il numero massimo di slot BigQuery che puoi acquistare in ciascuna delle regioni elencate utilizzando la console Trusted Cloud .
Visualizza le quote nella console Trusted Cloud |
Numero totale di slot per le seguenti regioni:
|
1000 slot |
Il numero massimo di slot BigQuery che puoi acquistare in ciascuna delle regioni elencate utilizzando la console Trusted Cloud .
Visualizza le quote nella console Trusted Cloud |
Numero totale di slot per le regioni BigQuery Omni | 100 slot |
Il numero massimo di slot BigQuery che puoi acquistare
nelle regioni BigQuery Omni
utilizzando la console Trusted Cloud .
Visualizza le quote nella console Trusted Cloud |
Numero totale di slot per tutte le altre regioni | 500 slot |
Il numero massimo di slot BigQuery che puoi acquistare in ogni regione utilizzando la console Trusted Cloud .
Visualizza le quote nella console Trusted Cloud |
I seguenti limiti si applicano alle prenotazioni:
Limite | Valore | Note |
---|---|---|
Numero di progetti di amministrazione per le prenotazioni di slot | 10 progetti per organizzazione | Il numero massimo di progetti all'interno di un'organizzazione che possono contenere una prenotazione o un impegno attivo per gli slot per una determinata località/regione. |
Numero massimo di prenotazioni della versione standard | 10 prenotazioni per progetto | Il numero massimo di prenotazioni Standard Edition per progetto di amministrazione all'interno di un'organizzazione per una determinata località / regione. |
Numero massimo di prenotazioni della versione Enterprise o Enterprise Plus | 200 prenotazioni per progetto | Il numero massimo di prenotazioni delle versioni Enterprise o Enterprise Plus per progetto di amministrazione all'interno di un'organizzazione per una determinata località / regione. |
Numero massimo di slot in una prenotazione associata a un'assegnazione di prenotazione con un tipo di job CONTINUOUS .
|
500 slot |
Quando vuoi creare un'assegnazione di prenotazione con un tipo di lavoro CONTINUOUS , la prenotazione associata non può avere più di 500 slot.
|
Set di dati
I seguenti limiti si applicano ai set di dati BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di set di dati | Illimitato | Non esiste un limite al numero di set di dati che un progetto può avere. |
Numero di tabelle per set di dati | Illimitato | Quando utilizzi una chiamata API, le prestazioni della creazione di elenchi rallentano man mano che ti avvicini a 50.000 tabelle in un set di dati. La console Trusted Cloud può visualizzare fino a 50.000 tabelle per ogni set di dati. |
Numero di risorse autorizzate nell'elenco di controllo dell'accesso di un set di dati | 2500 risorse | L'elenco di controllo dell'accesso di un set di dati può contenere fino a 2500 risorse autorizzate totali, tra cui viste autorizzate, set di dati autorizzati e funzioni autorizzate. Se superi questo limite a causa di un numero elevato di visualizzazioni autorizzate, valuta la possibilità di raggruppare le visualizzazioni in set di dati autorizzati. |
Numero di operazioni di aggiornamento del set di dati per set di dati ogni 10 secondi | 5 operazioni |
Il tuo progetto può eseguire fino a cinque operazioni di aggiornamento del set di dati ogni 10 secondi.
Il limite di aggiornamento dei set di dati include tutte le operazioni di aggiornamento dei metadati
eseguite da quanto segue:
|
Lunghezza massima della descrizione di un set di dati | 16.384 caratteri | Quando aggiungi una descrizione a un set di dati, il testo può contenere al massimo 16.384 caratteri. |
Tabelle
Tutte le tabelle
I seguenti limiti si applicano a tutte le tabelle BigQuery.
Limite | Predefinito | Note |
---|---|---|
Lunghezza massima del nome di una colonna | 300 caratteri | Il nome della colonna può contenere al massimo 300 caratteri. |
Lunghezza massima della descrizione di una colonna | 1024 caratteri | Quando aggiungi una descrizione a una colonna, il testo può contenere al massimo 1024 caratteri. |
Profondità massima dei record nidificati | 15 livelli |
Le colonne di tipo RECORD possono contenere tipi RECORD nidificati, chiamati anche record secondari. Il limite massimo di profondità di annidamento è di 15 livelli.
Questo limite è indipendente dal fatto che i record siano scalari o
basati su array (ripetuti).
|
Lunghezza massima della descrizione di una tabella | 16.384 caratteri | Quando aggiungi una descrizione a una tabella, il testo può contenere al massimo 16.384 caratteri. |
Tabelle standard
I seguenti limiti si applicano alle tabelle standard (integrate) di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Modifiche alle tabelle al giorno | 1500 modifiche | Il tuo progetto può apportare fino a 1500 modifiche alla tabella al giorno per tabella, indipendentemente dal fatto che la modifica aggiorni i metadati della tabella, aggiunga o aggiorni i dati o tronchi la tabella. Questo limite non può essere modificato e include il totale combinato di tutti i job di caricamento, job di copia e job di query che aggiungono dati a una tabella di destinazione o la sovrascrivono. Le istruzioni DML non vengono conteggiate per il numero di modifiche della tabella al giorno. Lo streaming dei dati non viene conteggiato nel numero di modifiche della tabella al giorno. |
Frequenza massima delle operazioni di aggiornamento dei metadati delle tabelle per tabella | 5 operazioni ogni 10 secondi |
Il tuo progetto può eseguire fino a cinque operazioni di aggiornamento dei metadati delle tabelle ogni 10 secondi
per tabella. Questo limite si applica a tutte le operazioni di aggiornamento dei metadati delle tabelle,
eseguite da:
DELETE , INSERT , MERGE , TRUNCATE TABLE o UPDATE per scrivere dati in una tabella. Tieni presente che, sebbene le istruzioni DML vengano conteggiate per questo limite, non sono soggette al limite se viene raggiunto. Le operazioni DML hanno limiti di frequenza dedicati.
Se superi questo limite, riceverai un messaggio di errore come
Per identificare le operazioni che vengono conteggiate ai fini di questo limite, puoi controllare i log. Per indicazioni su come diagnosticare e risolvere questo errore, consulta Risolvere gli errori di quota. |
Numero massimo di colonne per tabella | 10.000 colonne | Ogni tabella, risultato di query o definizione di vista può avere fino a 10.000 colonne. Sono incluse le colonne nidificate e ripetute. |
Tabelle esterne
I seguenti limiti si applicano alle tabelle BigQuery con dati archiviati in Cloud Storage in formato Parquet, ORC, Avro, CSV o JSON:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di URI di origine per tabella esterna | 10.000 URI | Ogni tabella esterna può contenere fino a 10.000 URI di origine. |
Numero massimo di file per tabella esterna | 10.000.000 di file | Una tabella esterna può contenere fino a 10 milioni di file, inclusi tutti i file corrispondenti a tutti gli URI con caratteri jolly. |
Dimensione massima dei dati archiviati in Cloud Storage per tabella esterna | 600 TB | Una tabella esterna può avere fino a 600 terabyte in tutti i file di input. Questo limite si applica alle dimensioni dei file archiviati in Cloud Storage; queste dimensioni non coincidono con quelle utilizzate nella formula per la determinazione dei prezzi delle query. Per le tabelle partizionate esternamente, il limite viene applicato dopo l'eliminazione delle partizioni. |
Numero massimo di file nel bucket Cloud Storage di origine | Circa 60.000.000 di file | Una tabella esterna può fare riferimento a un bucket Cloud Storage contenente fino a circa 60.000.000 di file. Per le tabelle partizionate esternamente, questo limite viene applicato prima dell'eliminazione delle partizioni. |
Tabelle partizionate
I seguenti limiti si applicano alle tabelle partizionate di BigQuery.
I limiti di partizione si applicano al totale combinato di tutti i job di caricamento, job di copia e job di query che aggiungono dati a una partizione di destinazione o la sovrascrivono.
Un singolo job può interessare più partizioni. Ad esempio, i job di query e i job di caricamento possono scrivere su più partizioni.
BigQuery utilizza il numero di partizioni interessate da un job per calcolare la quantità di limite consumata dal job. Gli inserimenti di flussi di dati non influiscono su questo limite.
Per informazioni sulle strategie per rimanere entro i limiti per le tabelle partizionate, consulta Risoluzione degli errori di quota.
Limite | Predefinito | Note |
---|---|---|
Numero di partizioni per tabella partizionata | 10.000 partizioni | Ogni tabella partizionata può avere fino a 10.000 partizioni. Se superi questo limite, valuta la possibilità di utilizzare il clustering in aggiunta o in alternativa al partizionamento. |
Numero di partizioni modificate da un singolo job | 4000 partizioni | Ogni operazione di job (query o caricamento) può interessare fino a 4000 partizioni. BigQuery rifiuta qualsiasi query o job di caricamento che tenti di modificare più di 4000 partizioni. |
Numero di modifiche delle partizioni durante l'importazione per tabella partizionata al giorno | 11.000 modifiche |
Il tuo progetto può apportare fino a 11.000 modifiche alle partizioni al giorno. Una modifica della partizione si verifica quando aggiungi, aggiorni, elimini o tronchi i dati in una tabella partizionata. Una modifica della partizione viene conteggiata per ogni tipo di modifica dei dati che apporti. Ad esempio, l'eliminazione di una riga conta come una modifica della partizione, così come l'eliminazione di un'intera partizione conta come una modifica. Se elimini una riga da una partizione e poi la inserisci in un'altra partizione, questa operazione viene conteggiata come due modifiche alla partizione. Le modifiche che utilizzano istruzioni DML o l'API streaming non vengono conteggiate ai fini del numero di modifiche delle partizioni al giorno. |
Numero di modifiche delle partizioni per tabella partizionata per colonne al giorno | 30.000 modifiche | Il tuo progetto può apportare fino a 30.000 modifiche alle partizioni al giorno per una tabella partizionata per colonne. Le istruzioni DML non vengono conteggiate per il numero di modifiche delle partizioni al giorno. I dati di streaming non vengono conteggiati per il numero di modifiche delle partizioni al giorno. |
Frequenza massima delle operazioni di aggiornamento dei metadati delle tabelle per tabella partizionata | 50 modifiche ogni 10 secondi |
Il tuo progetto può apportare fino a 50 modifiche per tabella partizionata ogni 10 secondi. Questo limite si applica a tutte le operazioni di aggiornamento dei metadati delle tabelle partizionate eseguite da:
DELETE , INSERT , MERGE , TRUNCATE TABLE o UPDATE per scrivere dati in una tabella.
Se superi questo limite, riceverai un messaggio di errore come
Per identificare le operazioni che vengono conteggiate ai fini di questo limite, puoi controllare i log. |
Numero di intervalli possibili per il partizionamento degli intervalli | 10.000 intervalli | Una tabella partizionata per intervallo può avere fino a 10.000 intervalli possibili. Questo limite si applica alla specifica della partizione quando crei la tabella. Dopo aver creato la tabella, il limite si applica anche al numero effettivo di partizioni. |
Cloni di tabelle
I seguenti limiti si applicano ai cloni di tabelle BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di cloni e snapshot in una catena | 3 cloni o snapshot della tabella | La combinazione di cloni e snapshot è limitata a una profondità di 3. Quando cloni o acquisisci uno snapshot di una tabella di base, puoi clonare o acquisire lo snapshot del risultato solo altre due volte. Se tenti di clonare o acquisire lo snapshot del risultato una terza volta, si verifica un errore. Ad esempio, puoi creare il clone A della tabella di base, creare lo snapshot B del clone A e creare il clone C dello snapshot B. Per creare ulteriori duplicati del clone di terzo livello o dello snapshot, utilizza un'operazione di copia. |
Numero massimo di cloni e snapshot per una tabella di base | 1000 cloni o snapshot di tabelle | Puoi avere al massimo 1000 cloni e snapshot esistenti combinati di una determinata tabella di base. Ad esempio, se hai 600 snapshot e 400 cloni, raggiungi il limite. |
Snapshot delle tabelle
I seguenti limiti si applicano agli snapshot delle tabelle BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di job di snapshot delle tabelle simultanei | 100 job | Il tuo progetto può eseguire fino a 100 job di snapshot delle tabelle simultanei. |
Numero massimo di job di snapshot della tabella al giorno | 50.000 job | Il tuo progetto può eseguire fino a 50.000 job di snapshot delle tabelle al giorno. |
Numero massimo di job di snapshot della tabella per tabella al giorno | 50 job | Il tuo progetto può eseguire fino a 50 job di snapshot di tabelle per tabella al giorno. |
Numero massimo di aggiornamenti dei metadati per snapshot della tabella ogni 10 secondi. | 5 aggiornamenti | Il tuo progetto può aggiornare i metadati di uno snapshot della tabella fino a cinque volte ogni 10 secondi. |
Numero massimo di cloni e snapshot in una catena | 3 cloni o snapshot della tabella | La combinazione di cloni e snapshot è limitata a una profondità di 3. Quando cloni o acquisisci uno snapshot di una tabella di base, puoi clonare o acquisire lo snapshot del risultato solo altre due volte. Se tenti di clonare o acquisire lo snapshot del risultato una terza volta, si verifica un errore. Ad esempio, puoi creare il clone A della tabella di base, creare lo snapshot B del clone A e creare il clone C dello snapshot B. Per creare ulteriori duplicati del clone di terzo livello o dello snapshot, utilizza un'operazione di copia. |
Numero massimo di cloni e snapshot per una tabella di base | 1000 cloni o snapshot di tabelle | Puoi avere al massimo 1000 cloni e snapshot esistenti combinati di una determinata tabella di base. Ad esempio, se hai 600 snapshot e 400 cloni, raggiungi il limite. |
Visualizzazioni
A viste e viste materializzate si applicano le quote e i limiti seguenti.
Viste logiche
I seguenti limiti si applicano alle viste standard di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di livelli di visualizzazioni nidificate | 16 livelli |
BigQuery supporta fino a 16 livelli di viste nidificate.
È possibile creare viste fino a questo limite, ma le query sono limitate a
15 livelli. Se il limite viene superato, BigQuery restituisce un errore INVALID_INPUT .
|
Lunghezza massima di una query GoogleSQL utilizzata per definire una vista | 256 K caratteri | Una singola query GoogleSQL che definisce una vista può contenere fino a 256.000 caratteri. Questo limite si applica a una singola query e non include la lunghezza delle viste a cui fa riferimento la query. |
Numero massimo di viste autorizzate per set di dati | Consulta la sezione Set di dati. | |
Lunghezza massima della descrizione di una visualizzazione | 16.384 caratteri | Quando aggiungi una descrizione a una vista, il testo può contenere al massimo 16.384 caratteri. |
Viste materializzate
I seguenti limiti si applicano alle viste materializzate di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Riferimenti alla tabella di base (stesso set di dati) | 20 viste materializzate | È possibile fare riferimento a ogni tabella di base in un massimo di 20 viste materializzate dello stesso set di dati. |
Riferimenti alla tabella di base (stesso progetto) | 100 viste materializzate | È possibile fare riferimento a ogni tabella di base da un massimo di 100 viste materializzate dello stesso progetto. |
Riferimenti tabella di base (intera organizzazione) | 500 viste materializzate | A ogni tabella di base possono fare riferimento fino a 500 viste materializzate dell'intera organizzazione. |
Numero massimo di viste autorizzate per set di dati | Consulta la sezione Set di dati. | |
Lunghezza massima della descrizione di una vista materializzata | 16.384 caratteri | Quando aggiungi una descrizione a una vista materializzata, il testo può contenere al massimo 16.384 caratteri. |
Limite di tempo di esecuzione del job di aggiornamento della vista materializzata | 12 ore | Un job di aggiornamento della vista materializzata può essere eseguito per un massimo di 12 ore prima di non riuscire. |
Indici di ricerca
I seguenti limiti si applicano agli indici di ricerca di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero di istruzioni DDL CREATE INDEX per progetto per regione al giorno
|
500 operazioni |
Il tuo progetto può eseguire fino a 500 operazioni DDL CREATE INDEX
al giorno all'interno di una regione.
|
Numero di istruzioni DDL dell'indice di ricerca per tabella al giorno | 20 operazioni |
Il tuo progetto può emettere fino a 20 operazioni DDL CREATE INDEX o
DROP INDEX al giorno per tabella.
|
Dimensione totale massima dei dati delle tabelle per organizzazione consentita per la creazione dell'indice di ricerca che non viene eseguita in una prenotazione | 100 TB in più regioni; 20 TB in tutte le altre regioni |
Puoi creare un indice di ricerca per una tabella se la dimensione complessiva delle tabelle con indici nella tua organizzazione è inferiore al limite della tua regione: 100 TB per le aree geografiche multiple US e EU e 20 TB per tutte le altre regioni. Se i tuoi job di gestione degli indici vengono eseguiti
nella
tua prenotazione, questo limite non viene applicato.
|
Numero di colonne indicizzate con granularità a livello di colonna per tabella | 63 colonne per tabella |
Una tabella può avere fino a 63 colonne con index_granularity impostato su
COLUMN . Le colonne indicizzate con granularità COLUMN dall'impostazione dell'opzione
default_index_column_granularity vengono conteggiate ai fini di questo limite.
Non esiste un limite al numero di colonne indicizzate con
granularità GLOBAL . Per saperne di più, consulta
Indice con granularità
a livello di colonna.
|
Indici vettoriali
I seguenti limiti si applicano agli indici vettoriali di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero minimo di righe della tabella di base | 5000 righe | Una tabella deve avere almeno 5000 righe per creare un indice vettoriale. |
Numero massimo di righe della tabella di base per il tipo di indice IVF |
10.000.000.000 di righe |
Una tabella può contenere al massimo 10.000.000.000 di righe per creare un indice vettoriale IVF
|
Numero massimo di righe della tabella di base per il tipo di indice TREE_AH
|
200.000.000 righe |
Una tabella può contenere al massimo 200.000.000 di righe per creare un
indice vettoriale TREE_AH
|
Numero massimo di righe della tabella di base per il tipo di indice partizionato
TREE_AH |
10.000.000.000 di righe in totale 200.000.000 di righe per ogni partizione |
Una tabella può avere al massimo 10.000.000.000 di righe e ogni partizione può
avere al massimo 200.000.000 di righe per creare un indice vettoriale partizionato.TREE_AH
|
Dimensione massima dell'array nella colonna indicizzata | 1600 elementi | La colonna da indicizzare può contenere al massimo 1600 elementi nell'array. |
Dimensione minima della tabella per il popolamento dell'indice vettoriale | 10 MB | Se crei un indice vettoriale su una tabella di dimensioni inferiori a 10 MB, l'indice non viene compilato. Allo stesso modo, se elimini dati da una tabella con indice vettoriale in modo che le dimensioni della tabella siano inferiori a 10 MB, l'indice vettoriale viene disattivato temporaneamente. Ciò si verifica indipendentemente dal fatto che utilizzi la tua prenotazione per i job di gestione degli indici. Una volta che le dimensioni di una tabella con indice vettoriale superano nuovamente i 10 MB, l'indice viene compilato automaticamente. |
Numero di istruzioni DDL CREATE VECTOR INDEX per progetto
per regione al giorno
|
500 operazioni |
Per ogni progetto, puoi emettere fino a 500
operazioni CREATE VECTOR INDEX al giorno per ogni regione.
|
Numero di istruzioni DDL dell'indice vettoriale per tabella al giorno | 10 operazioni |
Puoi eseguire fino a 10 operazioni CREATE VECTOR INDEX o
DROP VECTOR INDEX per tabella al giorno.
|
Dimensione totale massima dei dati della tabella per organizzazione consentita per la creazione di indici vettoriali che non vengono eseguiti in una prenotazione | 6 TB | Puoi creare un indice vettoriale per una tabella se la dimensione totale delle tabelle con indici nella tua organizzazione è inferiore a 6 TB. Se i tuoi job di gestione degli indici vengono eseguiti nella tua prenotazione, questo limite non viene applicato. |
Routine
A routine si applicano le quote e i limiti seguenti.
Funzioni definite dall'utente
I seguenti limiti si applicano alle funzioni definite dall'utente temporanee e permanenti nelle query GoogleSQL.
Limite | Predefinito | Note |
---|---|---|
Output massimo per riga | 5 MB | La quantità massima di dati che la funzione definita dall'utente JavaScript può restituire durante l'elaborazione di una singola riga è di circa 5 MB. |
Numero massimo di query SQL precedente simultanee con UDF JavaScript | 6 query | Il tuo progetto può avere fino a sei query SQL precedente in parallelo che contengono funzioni definite dall'utente in JavaScript. Questo limite include sia query interattive che batch. Questo limite non si applica alle query GoogleSQL. |
Numero massimo di risorse JavaScript delle funzioni definite dall'utente per query | 50 risorse | Un job di query può avere fino a 50 risorse UDF JavaScript, come blob di codice inline o file esterni. |
Dimensione massima del blob di codice inline | 32 kB | Un blob di codice inline in una funzione definita dall'utente può avere una dimensione massima di 32 kB. |
Dimensione massima di ogni risorsa di codice esterno | 1 MB | La dimensione massima di ciascuna risorsa di codice JavaScript è di 1 MB. |
Si applicano i seguenti limiti alle funzioni definite dall'utente permanenti:
Limite | Predefinito | Note |
---|---|---|
Lunghezza massima del nome di una UDF | 256 caratteri | Il nome di una UDF può contenere fino a 256 caratteri. |
Numero massimo di argomenti | 256 argomenti | Una UDF può avere fino a 256 argomenti. |
Lunghezza massima del nome di un argomento | 128 caratteri | Il nome di un argomento UDF può contenere fino a 128 caratteri. |
Profondità massima di una catena di riferimento UDF | 16 riferimenti | Una catena di riferimenti UDF può contenere fino a 16 riferimenti. |
Profondità massima di un argomento o output di tipo STRUCT
|
15 livelli |
Un argomento o output UDF di tipo STRUCT può avere fino a
15 livelli di profondità.
|
Numero massimo di campi negli argomenti o nell'output di tipo STRUCT per UDF
|
1024 campi |
Una UDF può avere fino a 1024 campi negli argomenti
e nell'output di tipo STRUCT .
|
Numero massimo di librerie JavaScript in un'istruzione CREATE FUNCTION
|
50 librerie |
Un'istruzione CREATE FUNCTION può avere fino a 50 librerie JavaScript.
|
Lunghezza massima dei percorsi della libreria JavaScript inclusi | 5000 caratteri | Il percorso di una libreria JavaScript inclusa in una UDF può contenere fino a 5000 caratteri. |
Frequenza di aggiornamento massima per UDF ogni 10 secondi | 5 aggiornamenti | Il tuo progetto può aggiornare una funzione definita dall'utente fino a cinque volte ogni 10 secondi. |
Numero massimo di UDF autorizzate per set di dati | Consulta la sezione Set di dati. |
Funzioni remote
I seguenti limiti si applicano alle funzioni remote in BigQuery.
Limite | Predefinito | Note |
---|---|---|
Numero massimo di query simultanee che contengono funzioni remote | 10 query | Puoi eseguire fino a 10 query simultanee con funzioni remote per progetto. |
Dimensione massima dell'input | 5 MB | La dimensione totale massima di tutti gli argomenti di input di una singola riga è 5 MB. |
Limite di dimensione della risposta HTTP (funzioni Cloud Run di 1ª generazione.) | 10 MB | Il corpo della risposta HTTP della funzione Cloud Run di 1ª generazione può raggiungere i 10 MB. Il superamento di questo valore causa errori di query. |
Limite di dimensioni della risposta HTTP (Cloud Run Functions 2ª generazione o Cloud Run) | 15 MB | Il corpo della risposta HTTP della funzione Cloud Run (2ª generazione) o Cloud Run è fino a 15 MB. Il superamento di questo valore provoca errori della query. |
Limite di tempo massimo per la chiamata HTTP (funzioni Cloud Run di 1ª generazione.) | 9 minuti | Puoi impostare un limite di tempo personalizzato per la tua funzione Cloud Run di prima generazione per una singola chiamata HTTP, ma il limite di tempo massimo è di 9 minuti. Il superamento del limite di tempo impostato per la funzione Cloud Run di 1ª generazione può causare errori di chiamata HTTP ed errori di query. |
Limite di tempo per la chiamata HTTP (funzioni Cloud Run di 2ª generazione. o Cloud Run) | 20 minuti | Il limite di tempo per una singola chiamata HTTP alla tua funzione Cloud Run di 2ª generazione o Cloud Run. Il superamento di questo valore può causare errori di chiamata HTTP ed errori di query. |
Numero massimo di tentativi di ripetizione dell'invocazione HTTP | 20 | Il numero massimo di tentativi per una singola chiamata HTTP alla tua funzione Cloud Run di 1ª generazione., 2ª generazione. o Cloud Run. Il superamento di questo valore può causare errori di chiamata HTTP ed errori di query. |
Funzioni tabella
I seguenti limiti si applicano alle funzioni di tabella di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Lunghezza massima del nome di una funzione di tabella | 256 caratteri | Il nome di una funzione di tabella può contenere fino a 256 caratteri. |
Lunghezza massima del nome di un argomento | 128 caratteri | Il nome di un argomento di una funzione di tabella può contenere fino a 128 caratteri. |
Numero massimo di argomenti | 256 argomenti | Una funzione di tabella può avere fino a 256 argomenti. |
Profondità massima della catena di riferimento di una funzione di tabella | 16 riferimenti | Una catena di riferimenti di funzioni di tabella può contenere fino a 16 riferimenti. |
Profondità massima di un argomento o output di tipo STRUCT
|
15 livelli |
Un argomento STRUCT per una funzione di tabella può avere fino a 15
livelli. Analogamente, un record STRUCT nell'output di una funzione
di tabella può avere fino a 15 livelli di profondità.
|
Numero massimo di campi nella tabella di argomenti o restituzione di tipo
STRUCT per funzione di tabella
|
1024 campi |
Un argomento STRUCT per
una funzione di tabella può avere fino a 1024 campi.
Analogamente, un record STRUCT
nell'output di una funzione di tabella può avere fino a 1024 campi.
|
Numero massimo di colonne nella tabella restituita | 1024 colonne | Una tabella restituita da una funzione può avere fino a 1024 colonne. |
Lunghezza massima dei nomi delle colonne della tabella restituita | 128 caratteri | I nomi delle colonne nelle tabelle restituite possono contenere fino a 128 caratteri. |
Numero massimo di aggiornamenti per funzione di tabella ogni 10 secondi | 5 aggiornamenti | Il tuo progetto può aggiornare una funzione di tabella fino a 5 volte ogni 10 secondi. |
Stored procedure per Apache Spark
I seguenti limiti si applicano alle stored procedure BigQuery per Apache Spark:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di query di stored procedure simultanee | 50 | Puoi eseguire fino a 50 query di procedure memorizzate simultanee per ogni progetto. |
Numero massimo di CPU in uso | 12.000 | Puoi utilizzare fino a 12.000 CPU per ogni progetto. Le query già
elaborate non consumano questo limite.
Puoi utilizzare fino a 2400 CPU per ogni località per ogni progetto, tranne nelle seguenti località:
In queste località, puoi utilizzare fino a 500 CPU per ogni località per ogni progetto. Se esegui query simultanee in una località con più regioni e in una località con una singola regione che si trova nella stessa area geografica, le query potrebbero consumare la stessa quota di CPU simultanee. |
Dimensione totale massima dei dischi permanenti standard in uso | 204,8 TB | Puoi utilizzare fino a 204,8 TB di dischi permanenti standard per ogni località per ogni progetto. Le query già elaborate non consumano questo limite. Se esegui query simultanee in una località multiregionale e in una località a singola regione che si trova nella stessa area geografica, le query potrebbero consumare la stessa quota di Persistent Disk standard. |
Notebook
A notebook in BigQuery si applicano tutte le quote e i limiti di Dataform e di Colab Enterprise. Si applicano anche i seguenti limiti:
Limite | Predefinito | Note |
---|---|---|
Dimensioni massime del notebook | 20 MB |
Le dimensioni di un blocco note sono la somma dei contenuti, dei metadati e dell'overhead di codifica. Puoi visualizzare le dimensioni dei contenuti del notebook espandendo l'intestazione del notebook, facendo clic su Visualizza e poi su Informazioni sul notebook. |
Numero massimo di richieste al secondo a Dataform | 100 | Notebooks vengono creati e gestiti tramite Dataform. Qualsiasi azione che crea o modifica un notebook viene conteggiata ai fini del calcolo di questa quota. Questa quota è condivisa con le query salvate. Ad esempio, se apporti 50 modifiche ai blocchi note e 50 modifiche alle query salvate entro 1 secondo, raggiungi la quota. |
Query salvate
Tutte le quote e i limiti di Dataform si applicano alle query salvate. Si applicano anche i seguenti limiti:
Limite | Predefinito | Note |
---|---|---|
Dimensioni massime della query salvata | 10 MB | |
Numero massimo di richieste al secondo a Dataform | 100 | Le query salvate vengono create e gestite tramite Dataform. Qualsiasi azione che crea o modifica una query salvata viene conteggiata ai fini del calcolo di questa quota. Questa quota è condivisa con i notebook. Ad esempio, se apporti 50 modifiche ai blocchi note e 50 modifiche alle query salvate entro 1 secondo, raggiungi la quota. |
Data Manipulation Language (DML)
I seguenti limiti si applicano alle istruzioni DML (Data Manipulation Language) di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Istruzioni DML al giorno | Illimitato |
Il numero di istruzioni DML che il tuo progetto può eseguire al giorno è illimitato.
Le istruzioni DML non vengono conteggiate per il numero di modifiche alle tabelle al giorno o per il numero di modifiche alle tabelle partizionate al giorno per le tabelle partizionate. Le istruzioni DML presentano le seguenti limitazioni da tenere presenti. |
Istruzioni DML INSERT simultanee per tabella al giorno
|
1500 estratti conto |
Le prime 1500 istruzioni INSERT
vengono eseguite immediatamente dopo l'invio. Una volta raggiunto questo limite,
la concorrenza delle istruzioni INSERT che scrivono in una tabella
è limitata a 10. Ulteriori istruzioni INSERT vengono aggiunte a
una coda PENDING . In qualsiasi momento possono essere accodate fino a 100 istruzioni INSERT per una tabella. Quando un'istruzione
INSERT viene completata, l'istruzione INSERT
successiva viene rimossa dalla coda ed eseguita.
Se devi eseguire istruzioni INSERT DML più frequentemente,
valuta la possibilità di trasmettere in streaming i dati alla tabella utilizzando l'API Storage Write.
|
Istruzioni DML mutanti simultanee per tabella | 2 estratti conto |
BigQuery esegue fino a due istruzioni DML mutanti simultanee (UPDATE , DELETE e
MERGE ) per ogni tabella. Le istruzioni DML mutanti aggiuntive
per una tabella vengono messe in coda.
|
Istruzioni DML mutanti in coda per tabella | 20 estratti conto | Una tabella può contenere fino a 20 istruzioni DML mutanti nella coda in attesa di esecuzione. Se invii ulteriori istruzioni DML mutanti per la tabella, queste istruzioni non vanno a buon fine. |
Tempo massimo in coda per l'istruzione DML | 7 ore | Un'istruzione DML interattiva con priorità può rimanere in coda fino a sette ore. Se l'istruzione non è stata eseguita dopo sette ore, l'operazione non va a buon fine. |
Frequenza massima delle istruzioni DML per ogni tabella | 25 istruzioni ogni 10 secondi |
Il tuo progetto può eseguire fino a 25 istruzioni DML ogni 10 secondi per ogni tabella. Sia le istruzioni DML INSERT sia quelle mutanti contribuiscono a questo limite.
|
Per saperne di più sulle istruzioni DML mutanti, consulta
INSERT
Concorrenza DML e
UPDATE, DELETE, MERGE
Concorrenza DML.
Query con più istruzioni
I seguenti limiti si applicano alle query multi-istruzione in BigQuery.
Limite | Predefinito | Note |
---|---|---|
Numero massimo di query contemporanee con più istruzioni | 1000 query con più istruzioni | Il tuo progetto può eseguire fino a 1000 query con più istruzioni contemporaneamente. |
Limite di tempo cumulativo | 24 ore | Il limite di tempo cumulativo per una query con più istruzioni è di 24 ore. |
Limite di tempo per la dichiarazione | 6 ore | Il limite di tempo per una singola istruzione all'interno di una query con più istruzioni è di 6 ore. |
CTE ricorsive nelle query
I seguenti limiti si applicano alle espressioni di tabella comuni (CTE) ricorsive in BigQuery.
Limite | Predefinito | Note |
---|---|---|
Limite di iterazioni | 500 iterazioni | La CTE ricorsiva può eseguire questo numero di iterazioni. Se questo limite viene superato, viene generato un errore. Per ovviare ai limiti di iterazione, vedi Risolvere i problemi relativi agli errori di limite di iterazione. |
Sicurezza a livello di riga
I seguenti limiti si applicano alle norme di accesso a livello di riga di BigQuery:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di criteri di accesso a livello di riga per tabella | 400 criteri | Una tabella può avere fino a 400 criteri di accesso a livello di riga. |
Numero massimo di criteri di accesso alle righe per query | 6000 norme | Una query può accedere a un massimo di 6000 criteri di accesso a livello di riga. |
Numero massimo di istruzioni DDL CREATE / DROP
per criterio ogni 10 secondi |
5 estratti conto |
Il tuo progetto può creare fino a cinque istruzioni CREATE o DROP
per risorsa policy di accesso a livello di riga ogni 10 secondi.
|
DROP ALL ROW ACCESS POLICIES istruzioni per tabella ogni
10 secondi |
5 estratti conto |
Il tuo progetto può eseguire fino a cinque istruzioni DROP ALL ROW ACCESS POLICIES
per tabella ogni 10 secondi.
|
Norme sui dati
I seguenti limiti si applicano al mascheramento dinamico dei dati a livello di colonna:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di norme relative ai dati per tag di criteri. | 8 policy per tag di criteri | Fino a otto criteri relativi ai dati per tag di criteri. Uno di questi criteri può essere utilizzato per i controlli dell'accesso a livello di colonna. Le espressioni di mascheramento duplicate non sono supportate. |
BigQuery ML
I seguenti limiti si applicano a BigQuery ML.
Job di query
Tutte le quote e i limiti dei job di query si applicano ai job di query GoogleSQL che utilizzano le istruzioni e le funzioni di BigQuery ML.
CREATE MODEL
istruzioni
Ai job
CREATE MODEL
si applicano i seguenti limiti:
Limite | Predefinito | Note |
---|---|---|
CREATE MODEL
query di istruzioni ogni 48 ore per ogni progetto |
20.000 query di istruzioni | Alcuni modelli vengono addestrati utilizzando i servizi Vertex AI, che hanno una propria gestione di risorse e quote. |
Limite di tempo di esecuzione | 24 ore o 48 ore | CREATE MODEL
Il timeout del job è impostato per impostazione predefinita su 24 ore, ad eccezione dei job di serie temporali, AutoML e ottimizzazione degli iperparametri, che scadono dopo 48 ore. |
Funzioni di AI generativa
I seguenti limiti si applicano alle funzioni che utilizzano i modelli linguistici di grandi dimensioni (LLM) di Vertex AI:
Funzione | Modello | Regione | Richieste al minuto | Righe per job | Numero di job in esecuzione simultanea |
---|---|---|---|---|---|
ML.GENERATE_TEXT AI.GENERATE_TABLE AI.GENERATE AI.GENERATE_BOOL AI.GENERATE_DOUBLE AI.GENERATE_INT
|
gemini-2.0-flash-lite-001 |
US e EU multi-regioniSingole regioni come documentato per gemini-2.0-flash-lite-001 in Località degli endpoint del modello Google |
Nessuna quota impostata. Quota determinata da quota condivisa dinamica (DSQ)1 e throughput riservato2 | N/A per il throughput di provisioning 10.500.000 per DSQ, per una chiamata con una media di 500 token di input e 50 token di output |
5 |
gemini-2.0-flash-001 |
US e EU multi-regioniSingole regioni come documentato per gemini-2.0-flash-001 in Località degli endpoint del modello Google |
N/A per Provisioned Throughput 10.200.000 per DSQ, per una chiamata con una media di 500 token di input e 50 token di output |
5 | ||
gemini-2.5-flash |
US e EU multi-regioniSingole regioni come documentato per gemini-2.5-flash in Località degli endpoint del modello Google |
N/A per Provisioned Throughput 9.300.000 per DSQ, per una chiamata con una media di 500 token di input e 50 token di output |
5 | ||
gemini-2.5-pro |
US e EU multi-regioniSingole regioni come documentato per gemini-2.5-pro in Località degli endpoint del modello Google |
N/A per il throughput di provisioning 7.600.000 per DSQ, per una chiamata con una media di 500 token di input e 50 token di output |
5 | ||
ML.GENERATE_TEXT |
Anthropic Claude | Consulta Quote per modello e regione. | Consulta Quote per modello e regione. | Il valore delle richieste al minuto * 60 * 6 | 5 |
Llama | Consulta Disponibilità e quote per la regione del modello Llama | Consulta Disponibilità e quote per la regione del modello Llama | 5 | ||
Mistral AI | Consulta Disponibilità e quote per la regione del modello Mistral AI | Consulta Disponibilità e quote per la regione del modello Mistral AI | 5 | ||
ML.GENERATE_EMBEDDING |
text-embedding text-multilingual-embedding |
Tutte le regioni che supportano i modelli remoti | 15003,4 | 80.000.000 per una chiamata con una media di 50 token in ogni riga di input 14.000.000 per una chiamata con una media di 600 token in ogni riga di input |
5 |
multimodalembedding |
Regioni europee singole supportate | 1203 | 14.000 | 5 | |
Regioni diverse dalle regioni europee singole supportate | 6003 | 25.000 | 5 |
1 Quando utilizzi DSQ, non sono previsti limiti di quota predefiniti per il tuo utilizzo. DSQ fornisce invece l'accesso a un ampio pool condiviso di risorse, che vengono allocate dinamicamente in base alla disponibilità delle risorse in tempo reale e alla domanda del cliente per il modello specifico. Quando più clienti sono attivi, ogni cliente ottiene una velocità effettiva inferiore. Allo stesso modo, quando sono attivi meno clienti, ogni cliente potrebbe ottenere un throughput più elevato.
2 Il throughput riservato è un abbonamento a costo fisso e durata fissa disponibile in diverse durate. Il throughput sottoposto a provisioning consente di riservare il throughput per i modelli di AI generativa supportati su Vertex AI.
3 Per aumentare la quota, richiedi un aggiustamento della quota QPM in Vertex AI. Attendi 30 minuti affinché il valore della quota aumentata venga propagato.
4 Puoi aumentare la quota per i modelli Vertex AI text-embedding
e text-multilingual-embedding
fino a 10.000 RPM senza approvazione manuale. Ciò comporta un aumento del throughput di 500.000.000 di righe per job o più, in base a una chiamata con una media di 50 token in ogni riga di input.
Per saperne di più sulla quota per gli LLM di Vertex AI, consulta Limiti di quota dell'AI generativa su Vertex AI.
Funzioni di servizio Cloud AI
I seguenti limiti si applicano alle funzioni che utilizzano i servizi Cloud AI:
Funzione | Richieste al minuto | Righe per lavoro | Numero di job in esecuzione contemporaneamente |
---|---|---|---|
ML.PROCESS_DOCUMENT con documenti di cinquanta pagine in media |
600 | 100.000 (in base a una media di 50 pagine per ogni documento di input) | 5 |
ML.TRANSCRIBE |
200 | 10.000 (in base a una durata media di 1 minuto per ogni file audio di input) | 5 |
ML.ANNOTATE_IMAGE |
1800 | 648.000 | 5 |
ML.TRANSLATE |
6000 | 2.160.000 | 5 |
ML.UNDERSTAND_TEXT |
600 | 21.600 | 5 |
Per ulteriori informazioni sulla quota per le API del servizio Cloud AI, consulta i seguenti documenti:
- Quote e limiti dell'API Cloud Translation
- Quota e limiti dell'API Vision
- Quota e limiti dell'API Natural Language
- Quota e limiti di Document AI
- Quote e limiti di Speech-to-Text
Definizioni delle quote di funzioni
Il seguente elenco descrive le quote che si applicano alle funzioni di IA generativa e del servizio Cloud AI:
- Le funzioni che chiamano un modello Vertex AI utilizzano una quota di Vertex AI, ovvero query al minuto (QPM). In questo contesto, le query sono chiamate di richiesta dalla funzione all'API del modello Vertex AI. La quota di QPM si applica a un modello di base e a tutte le versioni, gli identificatori e le versioni ottimizzate di quel modello. Per maggiori informazioni sulle quote dei modelli Vertex AI, consulta Limiti di quota dell'AI generativa su Vertex AI.
- Le funzioni che chiamano un servizio Cloud AI utilizzano le quote di richiesta del servizio di destinazione. Per ulteriori dettagli, consulta il riferimento alla quota del servizio Cloud AI specificato.
BigQuery ML utilizza tre quote:
Richieste al minuto. Questa quota è il limite al numero di chiamate di richiesta al minuto che le funzioni possono effettuare all'API del modello Vertex AI o del servizio Cloud AI. Questo limite si applica a ogni progetto.
Le chiamate ai modelli Vertex AI Gemini non hanno limiti di quota predefiniti per l'utilizzo, perché i modelli Gemini utilizzano la quota condivisa dinamica (DSQ). DSQ fornisce l'accesso a un ampio pool condiviso di risorse, che vengono allocate dinamicamente in base alla disponibilità in tempo reale delle risorse e alla domanda dei clienti per il modello specifico.
Righe per lavoro. Questa quota è il limite al numero di righe consentite per ogni job di query.Questa quota rappresenta il numero teorico più alto di righe che il sistema può gestire in un periodo di 6 ore. Il numero effettivo di righe elaborate dipende da molti fattori, tra cui le dimensioni della richiesta di input al modello, le dimensioni delle risposte di output del modello e la disponibilità della quota condivisa dinamica. Gli esempi seguenti mostrano alcuni scenari comuni:
Per l'endpoint
gemini-2.0-flash-lite-001
, il numero di righe elaborabili dalla funzioneML.GENERATE_TEXT
dipende dal conteggio dei token di input e output. Il servizio può elaborare circa 7,6 milioni di righe per le chiamate che hanno un conteggio medio di token di input di 2000 e un conteggio massimo di token di output di 50. Questo numero scende a circa 1 milione di righe se il conteggio medio dei token di input è 10.000 e il conteggio massimo dei token di output è 3000.Allo stesso modo, l'endpoint
gemini-2.0-flash-001
può elaborare 4,4 milioni di righe per le chiamate con un conteggio medio di token di input di 2000 e un conteggio massimo di token di output di 50, ma solo circa 1 milione di righe per le chiamate con 10.000 token di input e 3000 token di output.La funzione
ML.PROCESS_DOCUMENT
può elaborare più righe per job per i documenti brevi rispetto a quelli lunghi.La funzione
ML.TRANSCRIBE
può elaborare più righe per job per i clip audio brevi rispetto a quelli lunghi.
Numero di job in esecuzione contemporaneamente. Questa quota è il limite per progetto del numero di query SQL che possono essere eseguite contemporaneamente per la funzione specificata.
I seguenti esempi mostrano come interpretare le limitazioni della quota in situazioni tipiche:
Ho una quota di 1000 QPM in Vertex AI, quindi una query con 100.000 righe dovrebbe richiedere circa 100 minuti. Perché il job viene eseguito più a lungo?
I tempi di esecuzione dei job possono variare anche per gli stessi dati di input. In Vertex AI, le chiamate di procedura remota (RPC) hanno priorità diverse per evitare l'esaurimento della quota. Quando la quota non è sufficiente, le RPC con priorità inferiori attendono e potrebbero non riuscire se l'elaborazione richiede troppo tempo.
Come devo interpretare la quota di righe per job?
In BigQuery, una query può essere eseguita per un massimo di sei ore. Il numero massimo di righe supportate è una funzione di questa cronologia e della quota QPM di Vertex AI, per garantire che BigQuery possa completare l'elaborazione delle query in sei ore. Poiché in genere una query non può utilizzare l'intera quota, questo è un numero inferiore rispetto alla quota di QPM moltiplicata per 360.
Che cosa succede se eseguo un job di inferenza batch su una tabella con più righe rispetto alla quota di righe per job, ad esempio 10.000.000 di righe?
BigQuery elabora solo il numero di righe specificato dalla quota di righe per job. Ti vengono addebitate solo le chiamate API riuscite per quel numero di righe, anziché per tutte le 10.000.000 di righe della tabella. Per le altre righe, BigQuery risponde alla richiesta con un errore
A retryable error occurred: the maximum size quota per query has reached
, che viene restituito nella colonnastatus
del risultato. Puoi utilizzare questo insieme di script SQL o questo pacchetto Dataform per scorrere le chiamate di inferenza finché tutte le righe non vengono elaborate correttamente.Ho molte più righe da elaborare rispetto alla quota di righe per job. Dividere le righe in più query ed eseguirle contemporaneamente può essere utile?
No, perché queste query consumano la stessa quota di richieste al minuto di BigQuery ML e la stessa quota di QPM di Vertex AI. Se sono presenti più query che rientrano tutte nella quota di righe per job e nella quota di numero di job eseguiti contemporaneamente, l'elaborazione cumulativa esaurisce la quota di richieste al minuto.
BI Engine
I seguenti limiti si applicano a BigQuery BI Engine.
Limite | Predefinito | Note |
---|---|---|
Dimensioni massime della prenotazione per progetto per località (BigQuery BI Engine) | 250 GB | 250 GiB è la dimensione massima predefinita della prenotazione per progetto per località. Puoi richiedere un aumento della capacità massima di prenotazione per i tuoi progetti. Gli aumenti della prenotazione sono disponibili nella maggior parte delle regioni e l'elaborazione potrebbe richiedere da 3 giorni lavorativi a una settimana. |
Numero massimo di righe per query | 7 miliardi | Numero massimo di righe per query. |
BigQuery sharing (in precedenza Analytics Hub)
I seguenti limiti si applicano a BigQuery sharing (in precedenza Analytics Hub):
Limite | Predefinito | Note |
---|---|---|
Numero massimo di scambi di dati per progetto | 500 scambi | Puoi creare fino a 500 scambi di dati in un progetto. |
Numero massimo di schede per scambio di dati | 1000 schede | Puoi creare fino a 1000 schede in un data exchange. |
Numero massimo di set di dati collegati per set di dati condiviso | 1000 set di dati collegati | Tutti gli abbonati alla condivisione di BigQuery, combinati, possono avere un massimo di 1000 set di dati collegati per set di dati condiviso. |
Rilevamento automatico di Dataplex Universal Catalog
I seguenti limiti si applicano al rilevamento automatico di Dataplex Universal Catalog:
Limite | Predefinito | Note |
---|---|---|
Numero massimo di tabelle BigQuery, BigLake o esterne per bucket Cloud Storage supportato da una scansione di rilevamento | 1000 tabelle BigQuery per bucket | Puoi creare fino a 1000 tabelle BigQuery per bucket Cloud Storage. |
Quote e limiti delle API
Queste quote e limiti si applicano alle richieste dell'API BigQuery.
API BigQuery
Le seguenti quote si applicano alle richieste API BigQuery (core):
Quota | Predefinito | Note |
---|---|---|
Richieste al giorno | Illimitato |
Il tuo progetto può effettuare un numero illimitato di richieste API BigQuery al giorno.
Visualizza la quota nella console Trusted Cloud |
Massimo
tabledata.list byte al minuto
|
7,5 GB in più regioni; 3,7 GB in tutte le altre regioni |
Il tuo progetto può restituire un massimo di 7,5 GB di dati delle righe di una tabella al minuto tramite tabledata.list nelle regioni multi-regione us e eu e 3,7 GB di dati delle righe di una tabella al minuto in tutte le altre regioni. Questa quota si applica al progetto che contiene
la tabella letta. Anche altre API, tra cui
jobs.getQueryResults e
il recupero dei risultati da
jobs.query e
jobs.insert , possono consumare questa quota.
Visualizza la quota nella console Trusted Cloud
L'API BigQuery Storage di lettura
può supportare una velocità effettiva notevolmente superiore rispetto a
|
I seguenti limiti si applicano alle richieste dell'API BigQuery (core):
Limite | Predefinito | Note |
---|---|---|
Numero massimo di richieste API al secondo per utente per metodo | 100 richieste | Un utente può effettuare fino a 100 richieste API al secondo a un metodo API. Se un utente effettua più di 100 richieste al secondo a un metodo, potrebbe verificarsi una limitazione. Questo limite non si applica agli inserimenti di flussi di dati. |
Numero massimo di richieste API simultanee per utente | 300 richieste | Se un utente effettua più di 300 richieste simultanee, può verificarsi una limitazione. Questo limite non si applica agli inserimenti di flussi di dati. |
Dimensione massima dell'intestazione della richiesta | 16 KiB |
La richiesta API BigQuery può avere dimensioni massime di 16 KiB, inclusi l'URL della richiesta e tutte le intestazioni. Questo limite non si applica al corpo della richiesta, ad esempio in una richiesta POST .
|
Massimo
jobs.get richieste al secondo
|
1000 richieste |
Il tuo progetto può effettuare fino a 1000
jobs.get
richieste al secondo.
|
Dimensioni massime della risposta
jobs.query
|
20 MB |
Per impostazione predefinita, non esiste un numero massimo di righe di dati restituite da jobs.query per pagina dei risultati. Tuttavia,
non puoi superare la dimensione massima di risposta pari a 20 MB. Puoi modificare il
numero di righe da restituire utilizzando il parametro maxResults .
|
Dimensione massima della riga
jobs.getQueryResults
|
20 MB | La dimensione massima della riga è approssimativa perché il limite si basa sulla rappresentazione interna dei dati di riga. Il limite viene applicato durante la transcodifica. |
Massimo
projects.list richieste al secondo
|
10 richieste |
Il tuo progetto può effettuare fino a due
richieste projects.list al secondo.
|
Numero massimo di richieste
tabledata.list al secondo
|
1000 richieste |
Il tuo progetto può effettuare fino a 1000 richieste tabledata.list
al secondo.
|
Numero massimo di righe per risposta
tabledata.list
|
100.000 righe |
Una chiamata tabledata.list può restituire fino a 100.000 righe di tabella.
Per ulteriori informazioni, vedi
Paginazione dei risultati
utilizzando l'API.
|
Dimensione massima della riga
tabledata.list
|
100 MB | La dimensione massima della riga è approssimativa perché il limite si basa sulla rappresentazione interna dei dati di riga. Il limite viene applicato durante la transcodifica. |
Massimo
tables.insert richieste al secondo
|
10 richieste |
Un utente può effettuare fino a 10 richieste tables.insert al secondo.
Il metodo tables.insert crea una nuova tabella vuota in un set di dati.
|
API BigQuery Connection
Le seguenti quote si applicano alle richieste dell'API BigQuery Connection:
Quota | Predefinito | Note |
---|---|---|
Richieste di lettura al minuto | 1000 richieste al minuto |
Il tuo progetto può effettuare fino a 1000 richieste al minuto ai metodi dell'API BigQuery Connection che leggono i dati di connessione.
Visualizza la quota nella console Trusted Cloud |
Richieste di scrittura al minuto | 100 richieste al minuto |
Il tuo progetto può effettuare fino a 100 richieste al minuto ai metodi dell'API BigQuery Connection
che creano o aggiornano le connessioni.
Visualizza la quota nella console Trusted Cloud |
Connessioni BigQuery Omni create al minuto | 10 connessioni create al minuto | Il tuo progetto può creare fino a 10 connessioni BigQuery Omni totali su AWS e Azure al minuto. |
Utilizzi della connessione BigQuery Omni | 500 utilizzi della connessione al minuto | Il tuo progetto può utilizzare una connessione BigQuery Omni fino a 500 volte al minuto. Ciò vale per le operazioni che utilizzano la connessione per accedere al tuo account AWS, ad esempio l'esecuzione di query su una tabella. |
API BigQuery Migration
I seguenti limiti si applicano all'API BigQuery Migration:
Limite | Predefinito | Note |
---|---|---|
Dimensione del singolo file per la traduzione SQL batch | 10 MB |
Ogni file di origine e di metadati può avere dimensioni massime di 10 MB.
Questo limite non si applica al file ZIP dei metadati prodotto dallo
strumento di estrazione da riga di comando dwh-migration-dumper .
|
Dimensione totale dei file di origine per la traduzione SQL batch | 1 GB | La dimensione totale di tutti i file di input caricati in Cloud Storage può essere fino a 1 GB. Sono inclusi tutti i file di origine e tutti i file di metadati se scegli di includerli. |
Dimensioni della stringa di input per la traduzione SQL interattiva | 1 MB | La stringa che inserisci per la traduzione interattiva di SQL non deve superare 1 MB. Quando esegui traduzioni interattive utilizzando l'API Translation, questo limite si applica alle dimensioni totali di tutti gli input di stringa. |
Dimensione massima del file di configurazione per la traduzione SQL interattiva | 50 MB |
I singoli file di metadati (compressi) e i file di configurazione YAML in
Cloud Storage non devono superare i 50 MB. Se le dimensioni del file superano i 50 MB,
il traduttore interattivo ignora il file di configurazione durante
la traduzione e genera un messaggio di errore. Un metodo per ridurre le dimensioni del file di metadati consiste nell'utilizzare i flag —database o –schema per filtrare i database quando generi i metadati.
|
Numero massimo di suggerimenti di Gemini all'ora | 1000 (possono accumularsi fino a 10.000 se non vengono utilizzati) | Se necessario, puoi richiedere un aumento della quota contattando l'assistenza clienti Google Cloud. |
Le seguenti quote si applicano all'API BigQuery Migration. Nella maggior parte dei casi, vengono applicati i seguenti valori predefiniti. I valori predefiniti per il tuo progetto potrebbero essere diversi:
Quota | Predefinito | Note |
---|---|---|
Richieste di elenco del servizio EDWMigration al minuto Richieste di elenco del servizio EDWMigration al minuto per utente |
12.000 richieste 2500 richieste |
Il tuo progetto può effettuare fino a 12.000 richieste di elenco dell'API Migration al minuto. Ogni utente può effettuare fino a 2500 richieste di elenco API Migration al minuto. Visualizza le quote nella console Trusted Cloud |
Richieste Get del servizio EDWMigration al minuto Richieste Get del servizio EDWMigration al minuto per utente |
25.000 richieste 2500 richieste |
Il tuo progetto può effettuare fino a 25.000 richieste Get dell'API Migration al minuto. Ogni utente può effettuare fino a 2500 richieste Get dell'API Migration al minuto. Visualizza le quote nella console Trusted Cloud |
EDWMigration Service Other Requests per minute EDWMigration Service Other Requests al minuto per utente |
25 richieste 5 richieste |
Il tuo progetto può effettuare fino a 25 altre richieste API Migration al minuto. Ogni utente può effettuare fino a 5 altre richieste API Migration al minuto. Visualizza le quote nella console Trusted Cloud |
Richieste di traduzione SQL interattiva al minuto Richieste di traduzione SQL interattiva al minuto per utente |
200 richieste 50 richieste |
Il tuo progetto può effettuare fino a 200 richieste al minuto al servizio di traduzione SQL. Ogni utente può effettuare fino a 50 altre richieste al minuto per il servizio di traduzione SQL. Visualizza le quote nella console Trusted Cloud |
API BigQuery Reservation
Le seguenti quote si applicano alle richieste dell'API BigQuery Reservation:
Quota | Predefinito | Note |
---|---|---|
Richieste al minuto per regione | 100 richieste |
Il tuo progetto può effettuare un totale di massimo 100 chiamate ai metodi dell'API BigQuery Reservation al minuto per regione.
Visualizza le quote nella console Trusted Cloud |
Numero di chiamate SearchAllAssignments al minuto per regione
|
100 richieste |
Il tuo progetto può effettuare fino a 100 chiamate al
metodo
SearchAllAssignments al minuto per regione.
Visualizza le quote nella console Trusted Cloud |
Richieste di SearchAllAssignments al minuto per
regione per utente
|
10 richieste |
Ogni utente può effettuare fino a 10 chiamate al metodo
SearchAllAssignments al minuto per regione.
Visualizza le quote nella console Trusted Cloud (Nei risultati di ricerca della console Trusted Cloud , cerca per utente.) |
API BigQuery Data Policy
I seguenti limiti si applicano all'API Norme sui dati (anteprima):
Limite | Predefinito | Note |
---|---|---|
Numero massimo di chiamate
dataPolicies.list .
|
400 richieste al minuto per progetto 600 richieste al minuto per organizzazione |
|
Numero massimo di chiamate dataPolicies.testIamPermissions .
|
400 richieste al minuto per progetto 600 richieste al minuto per organizzazione |
|
Numero massimo di richieste di lettura. |
1200 richieste al minuto per progetto 1800 richieste al minuto per organizzazione |
Sono incluse le chiamate a
dataPolicies.get
e
dataPolicies.getIamPolicy .
|
Numero massimo di richieste di scrittura. |
600 richieste al minuto per progetto 900 richieste al minuto per organizzazione |
Sono incluse le chiamate a: |
API IAM
Le seguenti quote si applicano quando utilizzi le funzionalità di
Identity and Access Management
in BigQuery per recuperare e impostare i criteri IAM e per testare le autorizzazioni IAM.
Le istruzioni DCL (Data Control Language)
vengono conteggiate ai fini della quota SetIAMPolicy
.
Quota | Predefinito | Note |
---|---|---|
IamPolicy richieste al minuto per utente |
1500 richieste al minuto per utente | Ogni utente può effettuare fino a 1500 richieste al minuto per progetto. Visualizza la quota nella Trusted Cloud console |
IamPolicy richieste al minuto per progetto |
3000 richieste al minuto per progetto | Il tuo progetto può effettuare fino a 3000 richieste al minuto. Visualizza la quota nella Trusted Cloud console |
Singola regione
SetIAMPolicy richieste al minuto per progetto |
1000 richieste al minuto per progetto | Il tuo progetto a una sola regione può effettuare fino a 1000 richieste al minuto. Visualizza la quota nella Trusted Cloud console |
Più regioni
SetIAMPolicy richieste al minuto per progetto |
2000 richieste al minuto per progetto | Il tuo progetto multiregionale può effettuare fino a 2000 richieste al minuto. Visualizza la quota nella Trusted Cloud console |
Omni-region
SetIAMPolicy richieste al minuto per progetto |
200 richieste al minuto per progetto | Il tuo progetto multiregionale può effettuare fino a 200 richieste al minuto. Visualizza la quota nella Trusted Cloud console |
API Storage Read
Le seguenti quote si applicano alle richieste dell'API BigQuery Storage Read:
Quota | Predefinito | Note |
---|---|---|
Richieste del data plane di lettura al minuto per utente | 25.000 richieste |
Ogni utente può effettuare fino a 25.000 chiamate ReadRows al minuto
per progetto.
Visualizza la quota nella console Trusted Cloud |
Richieste di lettura del control plane al minuto per utente | 5000 richieste |
Ogni utente può effettuare fino a 5000 chiamate di operazioni
di metadati dell'API Storage Read al minuto per progetto. Le chiamate ai metadati includono i metodi
CreateReadSession e SplitReadStream .
Visualizza la quota nella console Trusted Cloud |
I seguenti limiti si applicano alle richieste dell'API BigQuery Storage di lettura:
Limite | Predefinito | Note |
---|---|---|
Lunghezza massima riga/filtro | 1 MB |
Quando utilizzi la chiamata CreateReadSession dell'API Storage Read, la lunghezza massima di ogni riga o filtro è di 1 MB.
|
Dimensione massima dei dati serializzati | 128 MB |
Quando utilizzi la chiamata all'API Storage Read ReadRows , la rappresentazione serializzata dei dati in un singolo messaggio ReadRowsResponse non può superare i 128 MB.
|
Numero massimo di connessioni simultanee | 2000 in modalità multiregionale; 400 in modalità a regione singola |
Puoi aprire un massimo di 2000 connessioni ReadRows
simultanee per progetto nelle aree geografiche multiple us e eu e 400 connessioni ReadRows simultanee in
altre regioni. In alcuni casi, potresti essere limitato a un numero inferiore di connessioni simultanee rispetto a questo limite.
|
Utilizzo massimo della memoria per stream | 1,5 GB | La memoria massima per flusso è approssimativa perché il limite si basa sulla rappresentazione interna dei dati di riga. I flussi che utilizzano più di 1,5 GB di memoria per una singola riga potrebbero non riuscire. Per saperne di più, vedi Risolvere i problemi relativi al superamento delle risorse. |
API Storage Write
Le seguenti quote si applicano alle richieste dell'API Storage Write. Le seguenti quote possono essere applicate a livello di cartella. Queste quote vengono quindi aggregate e condivise tra tutti i progetti secondari. Per attivare questa configurazione, contatta l'assistenza clienti Google Cloud.
Se prevedi di richiedere un aggiustamento della quota, includi il messaggio di errore relativo alla quota nella richiesta per accelerare l'elaborazione.
Quota | Predefinito | Note |
---|---|---|
Connessioni simultanee | 1000 in una regione; 10.000 in una multiregione |
La quota di connessioni simultanee si basa sul progetto client che avvia la richiesta dell'API Storage Write, non sul progetto contenente la risorsa del set di dati BigQuery. Il progetto di avvio è il progetto associato alla chiave API o al service account. Il tuo progetto può operare su 1000 connessioni simultanee in
una regione o 10.000 connessioni simultanee nelle multi-regioni Quando utilizzi lo stream predefinito
in Java o Go, ti consigliamo di utilizzare
il multiplexing dell'API Storage Write
per scrivere in più tabelle di destinazione con connessioni condivise al fine
di ridurre il numero complessivo di connessioni necessarie. Se utilizzi
il connettore
Beam con semantica almeno una volta, puoi impostare
UseStorageApiConnectionPool
su Puoi visualizzare le metriche relative a quote e limiti di utilizzo per i tuoi progetti in
Cloud Monitoring. Seleziona il nome del limite di connessioni simultanee in base alla tua regione. Le opzioni sono |
Velocità effettiva | Velocità effettiva di 3 GB al secondo in più regioni; 300 MB al secondo in regioni |
Puoi trasmettere in streaming fino a 3 GBps nelle aree multi-regione us e
eu e 300 MBps in altre regioni per progetto.
Visualizza la quota nella console Trusted Cloud Puoi visualizzare le metriche relative a quote e limiti di utilizzo per i tuoi progetti in
Cloud Monitoring. Seleziona il nome del limite di velocità effettiva in base alla tua regione. Le opzioni sono |
Richieste CreateWriteStream
|
10.000 stream ogni ora, per progetto per regione |
Puoi chiamare CreateWriteStream fino a 10.000 volte all'ora
per progetto per regione. Valuta la possibilità di utilizzare lo
stream predefinito
se non hai bisogno di una semantica di tipo exactly-once.
Questa quota è oraria, ma la metrica mostrata nella
console Trusted Cloud è al minuto.
|
Byte di stream in attesa | 10 TB in più regioni; 1 TB in regioni |
Per ogni commit che attivi, puoi eseguire il commit di un massimo di 10 TB nelle
aree multi-regione us e eu e di 1 TB in altre regioni. Non è presente alcun report sulla quota.
|
I seguenti limiti si applicano alle richieste dell'API Storage Write:
Limite | Predefinito | Note |
---|---|---|
Commit batch | 10.000 stream per tabella |
Puoi eseguire il commit di un massimo di 10.000 stream in ogni chiamata
BatchCommitWriteStream .
|
AppendRows
dimensioni richiesta
|
10 MB | La dimensione massima della richiesta è 10 MB. |
Inserimento di flussi di dati
Le seguenti quote e limiti si applicano quando inserisci flussi di dati in
BigQuery utilizzando l'API di streaming legacy.
Per informazioni sulle strategie per rimanere entro questi limiti, consulta Risoluzione degli errori di quota.
Se superi queste quote, ricevi errori di tipo quotaExceeded
.
Limite | Predefinito | Note |
---|---|---|
Numero massimo di byte al secondo per progetto nelle aree geografiche multiple us e eu
|
1 GB al secondo |
Il tuo progetto può eseguire lo streaming fino a 1 GB al secondo. Questa quota è cumulativa all'interno di una specifica area geografica multipla. In altre parole, la somma di byte al secondo inseriti in flusso in tutte le tabelle per uno specifico progetto all'interno di un'area geografica multipla è limitata a 1 GB.
Il superamento di questo limite causa errori di tipo Se necessario, puoi richiedere un aumento della quota contattando l'assistenza clienti Google Cloud. Richiedi qualsiasi aumento il prima possibile, almeno due settimane prima che ti serva. L'aumento della quota richiede tempo per essere disponibile, soprattutto in caso di un aumento significativo. |
Numero massimo di byte al secondo per progetto in tutte le altre località | 300 MB al secondo |
Il tuo progetto può trasmettere in streaming fino a 300 MB al secondo in tutte le località
tranne le aree geografiche multiple
Il superamento di questo limite causa errori di tipo Se necessario, puoi richiedere un aumento della quota contattando l'assistenza clienti Google Cloud. Richiedi qualsiasi aumento il prima possibile, almeno due settimane prima che ti serva. L'aumento della quota richiede tempo per essere disponibile, soprattutto in caso di un aumento significativo. |
Dimensione massima riga | 10 MB |
Il superamento di questo valore provoca errori di tipo invalid .
|
Dimensione massima della richiesta HTTP | 10 MB |
Il superamento di questo valore provoca errori di tipo Internamente la richiesta viene tradotta da HTTP JSON in una struttura di dati interna. La struttura di dati tradotta ha la propria dimensione massima applicata. È difficile prevedere la dimensione della struttura di dati interna risultante, ma se mantieni le richieste HTTP entro i 10 MB, la possibilità di raggiungere il limite massimo interno è bassa. |
Numero massimo di righe per richiesta | 50.000 righe | Consigliamo di utilizzare un limite massimo di 500 righe. Il batch può aumentare le prestazioni e la velocità effettiva fino a un certo punto, ma a scapito della latenza per richiesta. Se le righe per richiesta sono troppo poche, il sovraccarico di ciascuna richiesta può rendere inefficiente l'importazione. Se le righe per richiesta sono troppe, la velocità effettiva può diminuire. Sperimenta con dati rappresentativi (dimensioni di schema e dati) per determinare la dimensione del batch ideale per i tuoi dati. |
Lunghezza campo insertId
|
128 caratteri |
Il superamento di questo valore provoca errori di tipo invalid .
|
Per una quota di streaming aggiuntiva, consulta Richiedere un aumento della quota.
Larghezza di banda
Le seguenti quote si applicano alla larghezza di banda di replica:
Quota | Predefinito | Note |
---|---|---|
Larghezza di banda massima per la replica di backfill iniziale per ogni regione con uscita dei dati tra regioni dalla replica primaria alle repliche secondarie. | 10 GiBps fisici per regione per organizzazione | |
Larghezza di banda massima per la replica continua per ogni regione con uscita dei dati tra regioni dalla replica primaria alle repliche secondarie. | 5 GiBps fisici per regione per organizzazione | |
Larghezza di banda massima per la replica turbo per ogni regione con uscita dei dati tra regioni dalla replica primaria alle repliche secondarie. | 5 GiBps fisici per regione per organizzazione | La quota di larghezza di banda della replica turbo non si applica all'operazione di backfill iniziale. |
Quando la larghezza di banda di replica di un progetto supera una determinata quota, la replica dei progetti interessati potrebbe interrompersi con l'errore rateLimitExceeded
che include i dettagli della quota superata.