이 페이지의 일부 또는 모든 정보는 Trusted Cloud by S3NS에 적용되지 않을 수 있습니다.
BigQuery ML 모델 평가 개요
이 문서에서는 BigQuery ML이 머신러닝(ML) 모델 평가를 지원하는 방식을 설명합니다.
모델 평가 개요
다음과 같은 목적으로 ML 모델 평가 측정항목을 사용할 수 있습니다.
- 모델과 데이터 사이의 적합성 품질을 평가합니다.
- 여러 모델을 비교합니다.
- 모델 선택의 맥락에서 특정 데이터 세트에서 각 모델의 성능을 정확히 예측합니다.
지도 학습 모델 평가와 비지도 학습 모델 평가는 서로 다르게 작동합니다.
- 지도 학습 모델의 경우 모델 평가가 잘 정의된 방식으로 이뤄집니다. 모델에서 분석되지 않은 데이터에 해당하는 평가 세트는 일반적으로 학습 세트에서 제외되며 모델 성능을 평가하는 데 사용됩니다. 새 데이터에 대해 예측 결과를 일반화할 때 모델 성능이 저하되기 때문에 평가에 학습 세트를 사용하지 않는 것이 좋습니다. 이러한 결과를 과적합이라고 합니다.
- 비지도 학습 모델의 경우 모델 평가가 잘 정의되지 않은 방식으로 수행되고 일반적으로 모델마다 다르게 수행됩니다. 비지도 학습 모델에서는 평가 세트가 보존되지 않으므로 전체 입력 데이터 세트를 사용하여 평가 측정항목이 계산됩니다.
각 모델 유형에 지원되는 SQL 문과 함수에 대한 자세한 내용은 각 모델의 엔드 투 엔드 사용자 경험을 참조하세요.
모델 평가 함수
BigQuery ML은 ML 모델의 평가 측정항목 계산을 위해 다음과 같은 함수를 제공합니다.
CREATE MODEL
문에서 자동 평가
BigQuery ML은 모델 생성 중 자동 평가를 지원합니다.
모델 유형, 데이터 분할 학습 옵션, 초매개변수 조정 사용 여부에 따라 예약된 테스트 데이터 세트 또는 전체 입력 데이터 세트에 대해 평가 측정항목이 계산됩니다.
k-평균, PCA, 자동 인코더, ARIMA_PLUS 모델의 경우 BigQuery ML은 모든 입력 데이터를 학습 데이터로 사용합니다. 평가 측정항목은 전체 입력 데이터 세트에 대해 계산됩니다.
선형 및 로지스틱 회귀의 경우 부스티드 트리, 랜덤 포레스트, DNN, 와이드 앤 딥, 행렬 분해 모델, 평가 모델은 다음 CREATE MODEL
옵션으로 지정된 데이터 세트에 대해 계산됩니다.
초매개변수 조정을 사용하여 이러한 유형의 모델을 학습시킬 때는 또한 DATA_SPLIT_TEST_FRACTION
옵션을 통해 평가 측정항목을 계산할 데이터 세트를 정의할 수 있습니다. 자세한 내용은 데이터 분할을 참조하세요.
AutoML Tables 모델의 경우 학습 및 평가는 데이터 분할 사용 방법을 참조하세요.
모델을 만드는 동안 평가 측정항목을 계산하려면 입력 데이터를 지정하지 않고 모델에서 ML.EVALUATE
와 같은 평가 함수를 사용합니다.
예를 들어 입력 데이터가 지정되지 않은 ML.EVALUATE
를 참조하세요.
새 데이터 세트로 평가
모델을 만든 후 평가할 새 데이터 세트를 지정할 수 있습니다. 새 데이터 세트를 제공하려면 입력 데이터가 지정된 모델에서 ML.EVALUATE
와 같은 평가 함수를 사용합니다. 예시를 보려면 커스텀 임곗값 및 입력 데이터를 사용하는 ML.EVALUATE
를 참조하세요.
달리 명시되지 않는 한 이 페이지의 콘텐츠에는 Creative Commons Attribution 4.0 라이선스에 따라 라이선스가 부여되며, 코드 샘플에는 Apache 2.0 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 Google Developers 사이트 정책을 참조하세요. 자바는 Oracle 및/또는 Oracle 계열사의 등록 상표입니다.
최종 업데이트: 2025-08-26(UTC)
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["필요한 정보가 없음","missingTheInformationINeed","thumb-down"],["너무 복잡함/단계 수가 너무 많음","tooComplicatedTooManySteps","thumb-down"],["오래됨","outOfDate","thumb-down"],["번역 문제","translationIssue","thumb-down"],["샘플/코드 문제","samplesCodeIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-08-26(UTC)"],[[["\u003cp\u003eBigQuery ML supports model evaluation to assess model-data fit, compare models, and predict model performance on new datasets.\u003c/p\u003e\n"],["\u003cp\u003eSupervised learning models utilize a separate evaluation set to prevent overfitting, while unsupervised learning models use the entire input dataset for evaluation.\u003c/p\u003e\n"],["\u003cp\u003eBigQuery ML offers a variety of \u003ccode\u003eML.EVALUATE\u003c/code\u003e functions to calculate evaluation metrics for supervised and unsupervised models such as regressions, classifications, and clustering, each providing model-specific results.\u003c/p\u003e\n"],["\u003cp\u003eModel evaluation can be done automatically during model creation using reserved evaluation or test datasets based on the model type and chosen data split options, or with new data after creation.\u003c/p\u003e\n"],["\u003cp\u003eSpecific functions such as \u003ccode\u003eML.CONFUSION_MATRIX\u003c/code\u003e and \u003ccode\u003eML.ROC_CURVE\u003c/code\u003e are available for a more granular evaluation, including confusion matrices and metrics for different threshold values, respectively.\u003c/p\u003e\n"]]],[],null,["# BigQuery ML model evaluation overview\n=====================================\n\nThis document describes how BigQuery ML supports machine learning (ML)\nmodel evaluation.\n\nOverview of model evaluation\n----------------------------\n\nYou can use ML model evaluation metrics for the following\npurposes:\n\n- To assess the quality of the fit between the model and the data.\n- To compare different models.\n- To predict how accurately you can expect each model to perform on a specific dataset, in the context of model selection.\n\nSupervised and unsupervised learning model evaluations work differently:\n\n- For supervised learning models, model evaluation is well-defined. An evaluation set, which is data that hasn't been analyzed by the model, is typically excluded from the training set and then used to evaluate model performance. We recommend that you don't use the training set for evaluation because this causes the model to perform poorly when generalizing the prediction results for new data. This outcome is known as *overfitting*.\n- For unsupervised learning models, model evaluation is less defined and typically varies from model to model. Because unsupervised learning models don't reserve an evaluation set, the evaluation metrics are calculated using the whole input dataset.\n\nFor information about the supported SQL statements and functions for each\nmodel type, see\n[End-to-end user journey for each model](/bigquery/docs/e2e-journey).\n\nModel evaluation offerings\n--------------------------\n\nBigQuery ML provides the following functions to calculate\nevaluation metrics for ML models:\n\nAutomatic evaluation in `CREATE MODEL` statements\n-------------------------------------------------\n\nBigQuery ML supports automatic evaluation during model creation.\nDepending on the model type, the data split training options, and whether you're\nusing hyperparameter tuning, the evaluation metrics are calculated upon\nthe reserved evaluation dataset, the reserved test dataset, or the entire input\ndataset.\n\n- For k-means, PCA, autoencoder, and ARIMA_PLUS models, BigQuery ML\n uses all of the input data as training data, and evaluation metrics are\n calculated against the entire input dataset.\n\n- For linear and logistic regression, boosted tree, random forest, DNN,\n Wide-and-deep, and matrix factorization models, evaluation metrics are\n calculated against the dataset that's specified by the following\n `CREATE MODEL` options:\n\n - [`DATA_SPLIT_METHOD`](/bigquery/docs/reference/standard-sql/bigqueryml-syntax-create-glm#data_split_method)\n - [`DATA_SPLIT_EVAL_FRACTION`](/bigquery/docs/reference/standard-sql/bigqueryml-syntax-create-glm#data_split_eval_fraction)\n - [`DATA_SPLIT_COL`](/bigquery/docs/reference/standard-sql/bigqueryml-syntax-create-glm#data_split_col)\n\n When you train these types of models using hyperparameter tuning, the\n [`DATA_SPLIT_TEST_FRACTION`](/bigquery/docs/reference/standard-sql/bigqueryml-hyperparameter-tuning#data_split) option also helps\n define the dataset that the evaluation metrics are calculated against. For\n more information, see\n [Data split](/bigquery/docs/reference/standard-sql/bigqueryml-hyperparameter-tuning#data_split).\n- For AutoML Tables models, see\n [how data splits are used](/automl-tables/docs/prepare#how_data_splits_are_used)\n for training and evaluation.\n\nTo get evaluation metrics calculated during model creation, use evaluation\nfunctions such as `ML.EVALUATE` on the model with no input data specified.\nFor an example, see\n[`ML.EVALUATE` with no input data specified](/bigquery/docs/reference/standard-sql/bigqueryml-syntax-evaluate#mlevaluate_with_no_input_data_specified).\n\nEvaluation with a new dataset\n-----------------------------\n\nAfter model creation, you can specify new datasets for evaluation. To provide\na new dataset, use evaluation functions like `ML.EVALUATE` on the model with\ninput data specified. For an example, see\n[`ML.EVALUATE` with a custom threshold and input data](/bigquery/docs/reference/standard-sql/bigqueryml-syntax-evaluate#mlevaluate_with_a_custom_threshold_and_input_data)."]]