Questa pagina mostra come effettuare una richiesta di previsione batch al tuo modello di classificazione o regressione AutoML addestrato utilizzando la console Google Cloud o l'API Vertex AI.
Una richiesta di previsione batch è asincrona, mentre una previsione online è una richiesta sincrona. Le previsioni batch vanno richieste direttamente dalla risorsa del modello senza dover eseguire il deployment del modello in un endpoint. Per i dati tabulari, utilizza le previsioni batch quando non hai bisogno di una risposta immediata e vuoi elaborare i dati accumulati utilizzando una singola richiesta.
Per effettuare una richiesta di previsione batch, specifica un'origine di input e un formato di output in cui Vertex AI memorizza i risultati delle previsioni.
Prima di iniziare
Prima di poter effettuare una richiesta di previsione collettiva, devi prima addestrare un modello.
Dati di input
I dati di input per le richieste di previsione batch sono i dati utilizzati dal modello per fare le previsioni. Per i modelli di classificazione o regressione, puoi fornire i dati di input in uno dei due formati:
- tabelle BigQuery
- Oggetti CSV in Cloud Storage
Ti consigliamo di utilizzare lo stesso formato per i dati di input che hai utilizzato per l'addestramento del modello. Ad esempio, se hai addestrato il modello utilizzando i dati in BigQuery, è meglio utilizzare una tabella BigQuery come input per la previsione batch. Poiché Vertex AI tratta tutti i campi di input CSV come stringhe, la combinazione di formati di dati di addestramento e di input può causare errori.
L'origine dati deve contenere dati tabulari che includono tutte le colonne, in qualsiasi ordine, utilizzate per addestrare il modello. Puoi includere colonne che non erano presenti nei dati di addestramento o che erano presenti nei dati di addestramento, ma escluse dall'uso per l'addestramento. Queste colonne aggiuntive sono incluse nell'output, ma non influiscono sui risultati della previsione.
Requisiti dei dati di input
Tabella BigQuery
Se scegli una tabella BigQuery come input, devi assicurarti di quanto segue:
- Le tabelle BigQuery che fungono da origine dati non devono essere più grandi di 100 GB.
- Se la tabella si trova in un progetto diverso, devi concedere il ruolo
BigQuery Data Editor
all'account di servizio Vertex AI in quel progetto.
File CSV
Se scegli un oggetto CSV in Cloud Storage come input, devi assicurarti di quanto segue:
- L'origine dati deve iniziare con una riga di intestazione con i nomi delle colonne.
- Ogni oggetto origine dati non deve essere più grande di 10 GB. Puoi includere più file, fino a un massimo di 100 GB.
- Se il bucket Cloud Storage si trova in un progetto diverso, devi concedere il ruolo
Storage Object Creator
all'account di servizio Vertex AI in quel progetto. - Devi racchiudi tutte le stringhe tra virgolette doppie (").
Formato di output
Il formato di output della richiesta di previsione batch non deve essere necessariamente lo stesso del formato utilizzato per l'input. Ad esempio, se hai utilizzato la tabella BigQuery come input, puoi esportare i risultati in un oggetto CSV in Cloud Storage.
Effettua una richiesta di previsione batch al modello
Per effettuare richieste di previsione batch, puoi utilizzare la console Google Cloud o l'API Vertex AI. L'origine dati di input può essere oggetti CSV archiviati in un bucket Cloud Storage o tabelle BigQuery. A seconda della quantità di dati inviati come input, un'attività di previsione batch può richiedere un po' di tempo per essere completata.
Console Google Cloud
Utilizza la console Google Cloud per richiedere una previsione batch.
- Nella console Google Cloud, nella sezione Vertex AI, vai alla pagina Predizioni batch.
- Fai clic su Crea per aprire la finestra Nuova previsione batch.
- Per Definire la previsione batch, completa i seguenti passaggi:
- Inserisci un nome per la previsione batch.
- In Nome modello, seleziona il nome del modello da utilizzare per questa previsione batch.
- In Versione, seleziona la versione del modello da utilizzare per questa previsione batch.
- In Seleziona origine, scegli se i dati di input dell'origine sono un file CSV su Cloud Storage o una tabella in BigQuery.
- Per i file CSV, specifica la posizione di Cloud Storage in cui si trova il file di input CSV.
- Per le tabelle BigQuery, specifica l'ID progetto in cui si trova la tabella, l'ID set di dati BigQuery e l'ID tabella o visualizzazione BigQuery.
- Per Output, seleziona CSV o BigQuery.
- Per CSV, specifica il bucket Cloud Storage in cui Vertex AI memorizza l'output.
- Per BigQuery, puoi specificare un ID progetto o un set di dati esistente:
- Per specificare l'ID progetto, inseriscilo nel campo ID progetto Google Cloud. Vertex AI crea un nuovo set di dati di output per te.
- Per specificare un set di dati esistente, inserisci il relativo percorso BigQuery
nel campo ID progetto Google Cloud, ad esempio
bq://projectid.datasetid
.
- (Facoltativo)
Puoi richiedere una previsione con spiegazioni (chiamate anche attribuzioni delle caratteristiche) per vedere in che modo il modello è arrivato a una previsione. I valori di importanza delle caratteristiche locali indicano in che misura ciascuna caratteristica ha contribuito al risultato della previsione. Le attribuzioni delle caratteristiche sono incluse nelle previsioni di Vertex AI tramite
Vertex Explainable AI.
Per attivare le attribuzioni delle funzionalità, seleziona Attiva attribuzioni delle funzionalità per questo modello. Questa opzione è disponibile se la destinazione dell'output è BigQuery o JSONL su Cloud Storage. Le attribuzioni delle funzionalità non sono supportate per i file CSV su Cloud Storage.
- (Facoltativo) L'analisi del monitoraggio dei modelli per le previsioni batch è disponibile in Anteprima. Consulta i prerequisiti per aggiungere la configurazione del rilevamento del disallineamento al job di previsione batch.
- Fai clic per attivare l'opzione Attiva il monitoraggio dei modelli per questa previsione batch.
- Seleziona un'origine dati di addestramento. Inserisci il percorso o la posizione dei dati per l'origine dati di addestramento selezionata.
- (Facoltativo) In Soglie di avviso, specifica le soglie a cui attivare gli avvisi.
- Per Email di notifica, inserisci uno o più indirizzi email separati da virgola per ricevere avvisi quando un modello supera una soglia di avviso.
- (Facoltativo) Per Canali di notifica, aggiungi i canali di Cloud Monitoring per ricevere avvisi quando un modello supera una soglia di avviso. Puoi selezionare i canali di Cloud Monitoring esistenti o crearne uno nuovo facendo clic su Gestisci canali di notifica. La console supporta i canali di notifica PagerDuty, Slack e Pub/Sub.
- Fai clic su Crea.
API: BigQuery
REST
Utilizza il metodo batchPredictionJobs.create per richiedere una previsione batch.
Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:
- LOCATION_ID: regione in cui è archiviato il modello e viene eseguito il job di previsione batch. Ad esempio,
us-central1
. - PROJECT_ID: il tuo ID progetto
- BATCH_JOB_NAME: nome visualizzato per il job batch
- MODEL_ID: l'ID del modello da utilizzare per fare previsioni
-
INPUT_URI: riferimento all'origine dati BigQuery. Nel modulo:
bq://bqprojectId.bqDatasetId.bqTableId
-
OUTPUT_URI: riferimento alla destinazione BigQuery (dove verranno scritti
le previsioni). Specifica l'ID progetto e, facoltativamente, un ID set di dati esistente. Se specifichi solo l'ID progetto,
Vertex AI crea un nuovo set di dati di output. Utilizza il
seguente modulo:
bq://bqprojectId.bqDatasetId
- MACHINE_TYPE: le risorse di calcolo da utilizzare per questo job di previsione batch. Scopri di più.
- STARTING_REPLICA_COUNT: il numero iniziale di nodi per questo job di previsione batch. Il numero di nodi può essere aumentato o diminuito in base al carico fino al numero massimo di nodi, ma non scenderà mai al di sotto di questo numero.
- MAX_REPLICA_COUNT: il numero massimo di nodi per questo job di previsione batch. Il conteggio dei nodi può essere aumentato o diminuito in base al carico, ma non supererà mai il valore massimo. Facoltativo, il valore predefinito è 10.
-
GENERATE_EXPLANATION:
puoi richiedere una previsione con spiegazioni (chiamate anche attribuzioni delle funzionalità) per vedere in che modo il modello è arrivato a una previsione. I valori di importanza delle caratteristiche locali indicano in che misura ciascuna caratteristica ha contribuito al risultato della previsione. Le attribuzioni delle caratteristiche sono incluse nelle previsioni di Vertex AI tramite
Vertex Explainable AI.
Il valore predefinito è false. Imposta il valore true per attivare gli attributi delle funzionalità.
Metodo HTTP e URL:
POST https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs
Corpo JSON della richiesta:
{ "displayName": "BATCH_JOB_NAME", "model": "MODEL_ID", "inputConfig": { "instancesFormat": "bigquery", "bigquerySource": { "inputUri": "INPUT_URI" } }, "outputConfig": { "predictionsFormat": "bigquery", "bigqueryDestination": { "outputUri": "OUTPUT_URI" } }, "dedicatedResources": { "machineSpec": { "machineType": "MACHINE_TYPE", "acceleratorCount": "0" }, "startingReplicaCount": STARTING_REPLICA_COUNT, "maxReplicaCount": MAX_REPLICA_COUNT }, "generateExplanation": GENERATE_EXPLANATION }
Per inviare la richiesta, scegli una delle seguenti opzioni:
curl
Salva il corpo della richiesta in un file denominato request.json
,
quindi esegui il comando seguente:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs"
PowerShell
Salva il corpo della richiesta in un file denominato request.json
,
quindi esegui il comando seguente:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs" | Select-Object -Expand Content
Dovresti ricevere una risposta JSON simile alla seguente:
{ "name": "projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs/67890", "displayName": "batch_job_1 202005291958", "model": "projects/12345/locations/us-central1/models/5678", "state": "JOB_STATE_PENDING", "inputConfig": { "instancesFormat": "bigquery", "bigquerySource": { "inputUri": "INPUT_URI" } }, "outputConfig": { "predictionsFormat": "bigquery", "bigqueryDestination": { "outputUri": bq://12345 } }, "dedicatedResources": { "machineSpec": { "machineType": "n1-standard-32", "acceleratorCount": "0" }, "startingReplicaCount": 2, "maxReplicaCount": 6 }, "manualBatchTuningParameters": { "batchSize": 4 }, "generateExplanation": false, "outputInfo": { "bigqueryOutputDataset": "bq://12345.reg_model_2020_10_02_06_04 } "state": "JOB_STATE_PENDING", "createTime": "2020-09-30T02:58:44.341643Z", "updateTime": "2020-09-30T02:58:44.341643Z", }
Java
Prima di provare questo esempio, segui le istruzioni di configurazione Java riportate nella guida rapida all'utilizzo delle librerie client di Vertex AI. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Java di Vertex AI.
Per autenticarti a Vertex AI, configura le Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Nell'esempio seguente, sostituisci INSTANCES_FORMAT e PREDICTIONS_FORMAT con "bigquery". Per scoprire come sostituire gli altri sostituenti, consulta la scheda "REST & CMD LINE" di questa sezione.Python
Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, consulta Installare l'SDK Vertex AI per Python. Per saperne di più, consulta la documentazione di riferimento dell'API Python.
Nel seguente esempio, imposta i parametri "instances_format" e "predictions_format" su "bigquery". Per scoprire come impostare gli altri parametri, consulta la scheda "REST & CMD LINE" di questa sezione.API: Cloud Storage
REST
Utilizza il metodo batchPredictionJobs.create per richiedere una previsione batch.
Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:
- LOCATION_ID: regione in cui è archiviato il modello e viene eseguito il job di previsione batch. Ad esempio,
us-central1
. - PROJECT_ID: il tuo ID progetto
- BATCH_JOB_NAME: nome visualizzato per il job batch
- MODEL_ID: l'ID del modello da utilizzare per fare previsioni
-
URI: percorsi (URI) dei bucket Cloud Storage contenenti i dati di addestramento.
Possono essere presenti più di uno. Ogni URI ha il seguente formato:
gs://bucketName/pathToFileName
-
OUTPUT_URI_PREFIX: percorso di una destinazione Cloud Storage in cui verranno scritti i previsti. Vertex AI scrive le previsioni in batch in una sottodirectory di questo percorso con timestamp. Imposta questo valore su una stringa con il seguente formato:
gs://bucketName/pathToOutputDirectory
- MACHINE_TYPE: le risorse di calcolo da utilizzare per questo job di previsione batch. Scopri di più.
- STARTING_REPLICA_COUNT: il numero iniziale di nodi per questo job di previsione batch. Il numero di nodi può essere aumentato o diminuito in base al carico fino al numero massimo di nodi, ma non scenderà mai al di sotto di questo numero.
- MAX_REPLICA_COUNT: il numero massimo di nodi per questo job di previsione batch. Il conteggio dei nodi può essere aumentato o diminuito in base al carico, ma non supererà mai il valore massimo. Facoltativo, il valore predefinito è 10.
-
GENERATE_EXPLANATION:
puoi richiedere una previsione con spiegazioni (chiamate anche attribuzioni delle funzionalità) per vedere in che modo il modello è arrivato a una previsione. I valori di importanza delle caratteristiche locali indicano in che misura ciascuna caratteristica ha contribuito al risultato della previsione. Le attribuzioni delle caratteristiche sono incluse nelle previsioni di Vertex AI tramite
Vertex Explainable AI.
Il valore predefinito è false. Imposta il valore true per attivare gli attributi delle funzionalità. Questa opzione è disponibile solo se la destinazione di output è JSONL. Le attribuzioni delle funzionalità non sono supportate per i file CSV su Cloud Storage.
Metodo HTTP e URL:
POST https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs
Corpo JSON della richiesta:
{ "displayName": "BATCH_JOB_NAME", "model": "MODEL_ID", "inputConfig": { "instancesFormat": "csv", "gcsSource": { "uris": [ URI1,... ] }, }, "outputConfig": { "predictionsFormat": "csv", "gcsDestination": { "outputUriPrefix": "OUTPUT_URI_PREFIX" } }, "dedicatedResources": { "machineSpec": { "machineType": "MACHINE_TYPE", "acceleratorCount": "0" }, "startingReplicaCount": STARTING_REPLICA_COUNT, "maxReplicaCount": MAX_REPLICA_COUNT }, "generateExplanation": GENERATE_EXPLANATION }
Per inviare la richiesta, scegli una delle seguenti opzioni:
curl
Salva il corpo della richiesta in un file denominato request.json
,
quindi esegui il comando seguente:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs"
PowerShell
Salva il corpo della richiesta in un file denominato request.json
,
quindi esegui il comando seguente:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION_ID-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION_ID/batchPredictionJobs" | Select-Object -Expand Content
Dovresti ricevere una risposta JSON simile alla seguente:
{ "name": "projects/PROJECT__ID/locations/LOCATION_ID/batchPredictionJobs/67890", "displayName": "batch_job_1 202005291958", "model": "projects/12345/locations/us-central1/models/5678", "state": "JOB_STATE_PENDING", "inputConfig": { "instancesFormat": "csv", "gcsSource": { "uris": [ "gs://bp_bucket/reg_mode_test" ] } }, "outputConfig": { "predictionsFormat": "csv", "gcsDestination": { "outputUriPrefix": "OUTPUT_URI_PREFIX" } }, "dedicatedResources": { "machineSpec": { "machineType": "n1-standard-32", "acceleratorCount": "0" }, "startingReplicaCount": 2, "maxReplicaCount": 6 }, "manualBatchTuningParameters": { "batchSize": 4 } "outputInfo": { "gcsOutputDataset": "OUTPUT_URI_PREFIX/prediction-batch_job_1 202005291958-2020-09-30T02:58:44.341643Z" } "state": "JOB_STATE_PENDING", "createTime": "2020-09-30T02:58:44.341643Z", "updateTime": "2020-09-30T02:58:44.341643Z", }
Recuperare i risultati delle previsioni batch
Vertex AI invia l'output delle previsioni batch alla destinazione specificata, che può essere BigQuery o Cloud Storage.
BigQuery
Set di dati di output
Se utilizzi BigQuery, l'output della previsione batch viene memorizzato in un set di dati di output. Se hai fornito un set di dati a Vertex AI, il nome del set di dati (BQ_DATASET_NAME) è quello che hai fornito in precedenza. Se non hai fornito un set di dati di output, Vertex AI ne ha creato uno per te. Per trovare il nome (BQ_DATASET_NAME), segui questi passaggi:
- Nella console Google Cloud, vai alla pagina Predizioni batch di Vertex AI.
- Seleziona la previsione che hai creato.
-
Il set di dati di output è indicato in Posizione di esportazione. Il nome del set di dati è
formattato come segue:
prediction_MODEL_NAME_TIMESTAMP
Il set di dati di output contiene una o più delle seguenti tre tabelle di output:
-
Tabella delle previsioni
Questa tabella contiene una riga per ogni riga dei dati di input in cui è stata richiesta una previsione (ovvero dove TARGET_COLUMN_NAME = null).
-
Tabella degli errori
Questa tabella contiene una riga per ogni errore non critico rilevato durante la previsione batch. Ogni errore non critico corrisponde a una riga nei dati di input per la quale Vertex AI non ha potuto restituire una previsione.
Tabella delle previsioni
Il nome della tabella (BQ_PREDICTIONS_TABLE_NAME) è formato dall'aggiunta di "predictions_" al timestamp dell'avvio del job di previsione in batch: predictions_TIMESTAMP
Per recuperare le previsioni, vai alla pagina BigQuery.
Il formato della query dipende dal tipo di modello:Classificazione:
SELECT predicted_TARGET_COLUMN_NAME.classes AS classes, predicted_TARGET_COLUMN_NAME.scores AS scores FROM BQ_DATASET_NAME.BQ_PREDICTIONS_TABLE_NAME
classes
è l'elenco delle potenziali classi e scores
sono i
punteggi di confidenza corrispondenti.
Regressione:
SELECT predicted_TARGET_COLUMN_NAME.value, predicted_TARGET_COLUMN_NAME.lower_bound, predicted_TARGET_COLUMN_NAME.upper_bound FROM BQ_DATASET_NAME.BQ_PREDICTIONS_TABLE_NAME
Se hai attivato le attribuzioni delle funzionalità, puoi trovarle anche nella tabella delle predizioni. Per accedere alle attribuzioni per una funzionalità BQ_FEATURE_NAME, esegui la seguente query:
SELECT explanation.attributions[OFFSET(0)].featureAttributions.BQ_FEATURE_NAME FROM BQ_DATASET_NAME.BQ_PREDICTIONS_TABLE_NAME
Tabella degli errori
Il nome della tabella (BQ_ERRORS_TABLE_NAME) è formato dall'aggiunta dierrors_
al timestamp dell'avvio del job di previsione in batch: errors_TIMESTAMP
Per recuperare la tabella di convalida degli errori:
-
Nella console, vai alla pagina BigQuery.
-
Esegui questa query:
SELECT * FROM BQ_DATASET_NAME.BQ_ERRORS_TABLE_NAME
- errors_TARGET_COLUMN_NAME.code
- errors_TARGET_COLUMN_NAME.message
Cloud Storage
Se hai specificato Cloud Storage come destinazione di output, i risultati della richiesta di previsione batch vengono restituiti come oggetti CSV in una nuova cartella del bucket specificato. Il nome della cartella è il nome del modello, preceduto da "prediction-" e seguito dal timestamp dell'inizio del job di previsione batch. Puoi trovare il nome della cartella Cloud Storage nella scheda Previsioni batch del tuo modello.
La cartella Cloud Storage contiene due tipi di oggetti:-
Oggetti di previsione
Gli oggetti di previsione sono denominati "predictions_1.csv", "predictions_2.csv" e così via. Contengono una riga di intestazione con i nomi delle colonne e una riga per ogni previsione restituita. Negli oggetti di previsione, Vertex AI restituisce i dati di previsione e crea una o più nuove colonne per i risultati di previsione in base al tipo di modello:
-
Classificazione: per ogni potenziale valore della colonna di destinazione, ai risultati viene aggiunta una colonna denominata
TARGET_COLUMN_NAME_VALUE_score
Questa colonna contiene il punteggio o la stima della confidenza per quel valore. -
Regressione: il valore previsto per la riga viene restituito in una colonna
denominata
predicted_TARGET_COLUMN_NAME
. L'intervallo di previsione non viene restituito per l'output CSV.
-
Classificazione: per ogni potenziale valore della colonna di destinazione, ai risultati viene aggiunta una colonna denominata
-
Oggetti di errore
Gli oggetti errore si chiamano "errors_1.csv", "errors_2.csv" e così via. Contengono una riga di intestazione e una riga per ogni riga dei dati di input per la quale Vertex AI non è stato in grado di restituire una previsione (ad esempio, se una funzionalità non obbligatoria era null).
Nota: se i risultati sono di grandi dimensioni, vengono suddivisi in più oggetti.
Le attribuzioni delle funzionalità non sono disponibili per i risultati delle previsioni in batch restituiti in Cloud Storage.
Interpreta i risultati della previsione
Classificazione
I modelli di classificazione restituiscono un punteggio di affidabilità.
Il punteggio di confidenza indica quanto il modello associa ciascuna classe o etichetta a un elemento di test. Più alto è il numero, maggiore è la certezza del modello che l'etichetta debba essere applicata a quell'elemento. Sei tu a decidere quanto deve essere alto il punteggio di affidabilità per accettare i risultati del modello.
Regressione
I modelli di regressione restituiscono un valore di previsione. Per le destinazioni BigQuery, inoltre, restituisce un intervallo di previsione. L'intervallo di previsione fornisce un intervallo di valori che il modello ritiene con una probabilità del 95% contenere il risultato effettivo.
Interpreta i risultati della spiegazione
Se i risultati delle previsioni batch sono archiviati in BigQuery e hai scelto di attivare le attribuzioni delle funzionalità, puoi trovare i relativi valori nella tabella delle previsioni.
Per calcolare l'importanza delle caratteristiche locali, viene prima calcolato il punteggio di previsione di riferimento. I valori di riferimento vengono calcolati dai dati di addestramento, utilizzando il valore mediano per le funzionalità numeriche e la modalità per le funzionalità categoriche. La previsione generata dai valori di riferimento è il punteggio di previsione di base. I valori di riferimento vengono calcolati una volta per un modello e non cambiano.
Per una previsione specifica, l'importanza locale della caratteristica per ogni caratteristica indica quanto la caratteristica ha aggiunto o sottratto al risultato rispetto al punteggio di previsione di riferimento. La somma di tutti i valori dell'importanza delle caratteristiche è uguale alla differenza tra il punteggio di previsione di riferimento e il risultato della previsione.
Per i modelli di classificazione, il punteggio è sempre compreso tra 0,0 e 1,0, inclusi. Pertanto, i valori di importanza delle caratteristiche locali per i modelli di classificazione sono sempre compresi tra -1,0 e 1,0 (inclusi).
Per esempi di query di attribuzione delle funzionalità e per scoprire di più, consulta Attribuzione delle funzionalità per la classificazione e la regressione.Passaggi successivi
- Scopri come esportare il modello.