Es posible que parte de la información de esta página (o toda) no se aplique a Trusted Cloud de S3NS.
Elige una función de procesamiento de documentos
En este documento, se proporciona una comparación de las funciones de procesamiento de documentos disponibles en BigQuery ML, que son ML.GENERATE_TEXT
y ML.PROCESS_DOCUMENT
.
Puedes usar la información de este documento para decidir qué función
usar en los casos en que las funciones tengan capacidades superpuestas.
En términos generales, la diferencia entre estas funciones es la siguiente:
ML.GENERATE_TEXT
es una buena opción para realizar tareas de procesamiento de lenguaje natural (PLN) en las que parte del contenido reside en documentos. Esta función ofrece los siguientes beneficios:
- Bajar los costos
- Compatibilidad con más idiomas
- Mayor rendimiento
- Capacidad de ajuste de modelos
- Disponibilidad de modelos multimodales
Para ver ejemplos de tareas de procesamiento de documentos que funcionan mejor con este enfoque, consulta Explora las capacidades de procesamiento de documentos con la API de Gemini.
ML.PROCESS_DOCUMENT
es una buena opción para realizar tareas de procesamiento de documentos que requieren el análisis de documentos y una respuesta predefinida y estructurada.
Modelos compatibles
Los modelos compatibles son los siguientes:
ML.GENERATE_TEXT
: Puedes usar un subconjunto de los modelos de Gemini de Vertex AI para generar texto. Para obtener más información sobre los modelos compatibles, consulta la sintaxis de ML.GENERATE_TEXT
.
ML.PROCESS_DOCUMENT
: Usas el modelo predeterminado de la API de Document AI. El uso de la API de Document AI
te brinda acceso a muchos procesadores de documentos diferentes, como el
analizador de facturas, el analizador de diseño y el analizador de formularios. Puedes usar estos procesadores de documentos para trabajar con archivos PDF con muchas estructuras diferentes.
Tareas admitidas
Las tareas admitidas son las siguientes:
ML.GENERATE_TEXT
: Puedes realizar cualquier tarea de PLN en la que la entrada sea un
documento. Por ejemplo, si tienes un documento financiero de una empresa, puedes recuperar la información del documento proporcionando una instrucción como What is
the quarterly revenue for each division?
.
ML.PROCESS_DOCUMENT
: Puedes realizar un procesamiento de documentos especializado para diferentes tipos de documentos, como facturas, formularios fiscales y estados financieros. También puedes dividir documentos. Para obtener más información sobre cómo usar la función ML.PROCESS_DOCUMENT
para esta tarea, consulta Cómo analizar archivos PDF en una canalización de generación con recuperación mejorada.
Precios
Los precios se calculan de la siguiente manera:
Ajuste supervisado
La compatibilidad con la optimización supervisada es la siguiente:
ML.GENERATE_TEXT
: El ajuste supervisado es compatible con algunos modelos.
ML.PROCESS_DOCUMENT
: No se admite el ajuste supervisado.
Límite de consultas por minuto (QPM)
Los límites de QPM son los siguientes:
ML.GENERATE_TEXT
: 60 QPM en la región predeterminada de us-central1
para los modelos gemini-1.5-pro
y 200 QPM en la región predeterminada de us-central1
para los modelos gemini-1.5-flash
Para obtener más información, consulta cuotas de IA generativa en Vertex AI.
ML.PROCESS_DOCUMENT
: 120 QPM por tipo de procesador, con un límite general de 600 QPM por proyecto Para obtener más información, consulta la lista de cuotas.
Para aumentar tu cuota, consulta Solicita un ajuste de cuota.
Límite de tokens
Los límites de tokens son los siguientes:
ML.GENERATE_TEXT
: 700 tokens de entrada y 8, 196 tokens de salida.
ML.PROCESS_DOCUMENT
: Sin límite de tokens. Sin embargo, esta función tiene diferentes límites de páginas según el procesador que uses. Para obtener más información, consulta Límites.
Idiomas compatibles
Los lenguajes admitidos son los siguientes:
ML.GENERATE_TEXT
: Admite los mismos idiomas que Gemini.
ML.PROCESS_DOCUMENT
: La compatibilidad con idiomas depende del tipo de procesador de documentos. La mayoría solo admite inglés. Para obtener más información, consulta la lista de procesadores.
Disponibilidad por región
La disponibilidad por región es la siguiente:
ML.GENERATE_TEXT
: disponible en todas las regiones de IA generativa para Vertex AI.
ML.PROCESS_DOCUMENT
: Disponible en las multirregiones EU
y US
para todos los procesadores.
Algunos procesadores también están disponibles en ciertas regiones únicas. Para obtener más información, consulta Asistencia regional y multirregional.
Salvo que se indique lo contrario, el contenido de esta página está sujeto a la licencia Atribución 4.0 de Creative Commons, y los ejemplos de código están sujetos a la licencia Apache 2.0. Para obtener más información, consulta las políticas del sitio de Google Developers. Java es una marca registrada de Oracle o sus afiliados.
Última actualización: 2025-08-17 (UTC)
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Falta la información que necesito","missingTheInformationINeed","thumb-down"],["Muy complicado o demasiados pasos","tooComplicatedTooManySteps","thumb-down"],["Desactualizado","outOfDate","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Problema con las muestras o los códigos","samplesCodeIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-08-17 (UTC)"],[[["\u003cp\u003e\u003ccode\u003eML.GENERATE_TEXT\u003c/code\u003e is suitable for natural language processing tasks within documents, offering benefits like lower costs, broader language support, faster processing, model tuning, and multimodal model options.\u003c/p\u003e\n"],["\u003cp\u003e\u003ccode\u003eML.PROCESS_DOCUMENT\u003c/code\u003e excels in document processing tasks requiring structured responses and document parsing, and also supports working with different PDF file structures.\u003c/p\u003e\n"],["\u003cp\u003e\u003ccode\u003eML.GENERATE_TEXT\u003c/code\u003e uses a subset of Vertex AI Gemini models and supports a wide array of natural language processing tasks, while \u003ccode\u003eML.PROCESS_DOCUMENT\u003c/code\u003e utilizes the Document AI API, with specialized document processing for tasks like parsing invoices or tax forms.\u003c/p\u003e\n"],["\u003cp\u003e\u003ccode\u003eML.GENERATE_TEXT\u003c/code\u003e supports supervised tuning for certain models, while \u003ccode\u003eML.PROCESS_DOCUMENT\u003c/code\u003e does not have supervised tuning support.\u003c/p\u003e\n"],["\u003cp\u003e\u003ccode\u003eML.GENERATE_TEXT\u003c/code\u003e has higher language support and lower token limits, whereas \u003ccode\u003eML.PROCESS_DOCUMENT\u003c/code\u003e depends on the document processor for language support and has no token limit, only page limits.\u003c/p\u003e\n"]]],[],null,["# Choose a document processing function\n=====================================\n\nThis document provides a comparison of the document processing functions\navailable in BigQuery ML, which are\n[`ML.GENERATE_TEXT`](/bigquery/docs/reference/standard-sql/bigqueryml-syntax-generate-text)\nand\n[`ML.PROCESS_DOCUMENT`](/bigquery/docs/reference/standard-sql/bigqueryml-syntax-process-document).\n\nYou can use the information in this document to help you decide which function\nto use in cases where the functions have overlapping capabilities.\n\nAt a high level, the difference between these functions is as follows:\n\n- `ML.GENERATE_TEXT` is a good choice for performing natural\n language processing (NLP) tasks where some of the content resides in\n documents. This function offers the following benefits:\n\n - Lower costs\n - More language support\n - Faster throughput\n - Model tuning capability\n - Availability of multimodal models\n\n For examples of document processing tasks that work best with this\n approach, see\n [Explore document processing capabilities with the Gemini API](https://ai.google.dev/gemini-api/docs/document-processing).\n- `ML.PROCESS_DOCUMENT` is a good choice for performing document processing\n tasks that require document parsing and a predefined, structured response.\n\nSupported models\n----------------\n\nSupported models are as follows:\n\n- `ML.GENERATE_TEXT`: you can use a subset of the Vertex AI [Gemini](/vertex-ai/generative-ai/docs/learn/models#gemini-models) models to generate text. For more information on supported models, see the [`ML.GENERATE_TEXT` syntax](/bigquery/docs/reference/standard-sql/bigqueryml-syntax-generate-text#syntax).\n- `ML.PROCESS_DOCUMENT`: you use the default model of the [Document AI API](/document-ai). Using the Document AI API gives you access to many different document processors, such as the invoice parser, layout parser, and form parser. You can use these document processors to work with PDF files with many different structures.\n\nSupported tasks\n---------------\n\nSupported tasks are as follows:\n\n- `ML.GENERATE_TEXT`: you can perform any NLP task where the input is a document. For example, given a financial document for a company, you can retrieve document information by providing a prompt such as `What is\n the quarterly revenue for each division?`.\n- `ML.PROCESS_DOCUMENT`: you can perform specialized document processing for different document types, such as invoices, tax forms, and financial statements. You can also perform document chunking. For more information, on how to use the `ML.PROCESS_DOCUMENT` function fo this task, see [Parse PDFs in a retrieval-augmented generation pipeline](/bigquery/docs/rag-pipeline-pdf).\n\nPricing\n-------\n\nPricing is as follows:\n\n- `ML.GENERATE_TEXT`: For pricing of the Vertex AI models that you use with this function, see [Vertex AI pricing](/vertex-ai/generative-ai/pricing). Supervised tuning of supported models is charged at dollars per node hour. For more information, see [Vertex AI custom training pricing](/vertex-ai/pricing#custom-trained_models).\n- `ML.PROCESS_DOCUMENT`: For pricing of the Cloud AI service that you use with this function, see [Document AI API pricing](/document-ai/pricing).\n\nSupervised tuning\n-----------------\n\nSupervised tuning support is as follows:\n\n- `ML.GENERATE_TEXT`: [supervised tuning](/bigquery/docs/reference/standard-sql/bigqueryml-syntax-create-remote-model#supervised_tuning) is supported for some models.\n- `ML.PROCESS_DOCUMENT`: supervised tuning isn't supported.\n\nQueries per minute (QPM) limit\n------------------------------\n\nQPM limits are as follows:\n\n- `ML.GENERATE_TEXT`: 60 QPM in the default `us-central1` region for `gemini-1.5-pro` models, and 200 QPM in the default `us-central1` region for `gemini-1.5-flash` models. For more information, see [Generative AI on Vertex AI quotas](/vertex-ai/generative-ai/docs/quotas).\n- `ML.PROCESS_DOCUMENT`: 120 QPM per processor type, with an overall limit of 600 QPM per project. For more information, see [Quotas list](/document-ai/quotas#quotas_list).\n\nTo increase your quota, see\n[Request a quota adjustment](/docs/quotas/help/request_increase).\n\nToken limit\n-----------\n\nToken limits are as follows:\n\n- `ML.GENERATE_TEXT`: 700 input tokens, and 8196 output tokens.\n- `ML.PROCESS_DOCUMENT`: No token limit. However, this function does have different page limits depending on the processor you use. For more information, see [Limits](/document-ai/limits).\n\nSupported languages\n-------------------\n\nSupported languages are as follows:\n\n- `ML.GENERATE_TEXT`: supports the same languages as [Gemini](/vertex-ai/generative-ai/docs/learn/models#languages-gemini).\n- `ML.PROCESS_DOCUMENT`: language support depends on the document processor type; most only support English. For more information, see [Processor list](/document-ai/docs/processors-list).\n\nRegion availability\n-------------------\n\nRegion availability is as follows:\n\n- `ML.GENERATE_TEXT`: available in all Generative AI for Vertex AI [regions](/vertex-ai/generative-ai/docs/learn/locations#available-regions).\n- `ML.PROCESS_DOCUMENT`: available in the `EU` and `US` [multi-regions](/bigquery/docs/locations#multi-regions) for all processors. Some processors are also available in certain single regions. For more information, see [Regional and multi-regional support](/document-ai/docs/regions)."]]