Panoramica dell'integrazione di Spanner Vertex AI

Questa pagina fornisce una panoramica dell'integrazione di Spanner Vertex AI. L'integrazione di Spanner Vertex AI funziona sia con e i database GoogleSQL e PostgreSQL.

L'integrazione di Spanner Vertex AI consente di accedere ai modelli ML di regressione e classificazione ospitati su Vertex AI tramite GoogleSQL e interfaccia PostgreSQL. Questo aiuta a integrare perfettamente la funzionalità di distribuzione delle previsioni ML con Operazioni di accesso ai dati di Spanner eseguite utilizzando query DQL/DML.

Vantaggi dell'integrazione di Spanner Vertex AI

La generazione di previsioni ML utilizzando l'integrazione di Spanner Vertex AI offre diversi vantaggi rispetto all'approccio in cui Spanner accede ai dati e a Vertex AI dell'endpoint di previsione vengono eseguiti separatamente:

  • Rendimento:
    • Migliore latenza: l'integrazione di Spanner Vertex AI comunica direttamente con il servizio Vertex AI elimina ulteriori round trip tra un nodo di computing che esegue e il servizio Vertex AI.
    • Migliore velocità effettiva/parallelismo: l'integrazione di Spanner Vertex AI viene eseguita in base alle un'infrastruttura di elaborazione delle query distribuita dell'esecuzione di query parallelizzabili.
  • Esperienza utente:
    • Possibilità di utilizzare un'unica interfaccia SQL semplice, coerente e familiare per facilitano gli scenari di trasformazione dei dati e di gestione del machine learning su Spanner il livello di scalabilità riduce la barriera di accesso al ML e consente un'esperienza senza intervento manuale.
  • Costi:
    • L'integrazione di Spanner Vertex AI utilizza la capacità di calcolo di Spanner per unendo i risultati dei calcoli ML e dell'esecuzione di query SQL, elimina la necessità di eseguire il provisioning di altre risorse di calcolo (ad esempio, Compute Engine o Google Kubernetes Engine).

Come funziona l'integrazione di Spanner Vertex AI?

L'integrazione di Spanner Vertex AI non ospita i modelli ML, ma si basa sul servizio Vertex AI infrastruttura. Non è necessario addestrare un modello utilizzando Vertex AI per utilizzarlo con l'integrazione di Spanner Vertex AI, ma devi eseguirne il deployment su un endpoint Vertex AI.

Per addestrare modelli sui dati archiviati in Spanner, puoi utilizzare quanto segue:

L'integrazione di Spanner Vertex AI estende le seguenti funzioni per l'utilizzo dei modelli ML:

  • Generare previsioni ML chiamando un modello utilizzando SQL per i dati Spanner. Puoi utilizzare un modello Model Garden di Vertex AI o un modello di cui è stato eseguito il deployment nell'endpoint Vertex AI.

  • Genera incorporamenti di testo per fare in modo che un LLM traduca di testo in numeri. A Per saperne di più sugli incorporamenti, consulta Ottenere incorporamenti di testo.

Utilizzo delle funzioni di integrazione di Spanner Vertex AI

Un modello nell'integrazione di Spanner Vertex AI può essere utilizzato per generare previsioni o testo incorporamenti nel tuo codice SQL utilizzando le funzioni di previsione ML. Queste funzioni sono i seguenti:

GoogleSQL

Puoi utilizzare la seguente funzione di previsione ML per GoogleSQL:

ML.PREDICT

Devi registrare il modello utilizzando CREATE MODEL l'istruzione DDL prima di utilizzarla con la funzione ML.PREDICT.

Puoi anche utilizzare SAFE.ML.PREDICT per restituire null anziché un errore in le tue previsioni. Ciò è utile nei casi in cui si eseguono query di grandi dimensioni in cui alcune previsioni non riuscite sono tollerabili.

PostgreSQL

Puoi utilizzare la seguente funzione di previsione ML per PostgreSQL:

spanner.ML_PREDICT_ROW

Per utilizzare le funzioni, puoi selezionare un modello Model Garden di Vertex AI o utilizzare un modello di cui hai eseguito il deployment in Vertex AI.

Per ulteriori informazioni su come eseguire il deployment di un modello in un endpoint di Vertex AI, vedi Eseguire il deployment di un modello in un endpoint.

Per ulteriori informazioni su come utilizzare queste funzioni per generare una previsione ML, consulta Generare previsioni ML utilizzando SQL.

Per ulteriori informazioni su come utilizzare queste funzioni per generare incorporamenti di testo, consulta Ottenere incorporamenti di testo.

Prezzi

Non sono previsti costi aggiuntivi da parte di Spanner se lo utilizzi con l'integrazione di Spanner Vertex AI. Tuttavia, esistono altri potenziali addebiti associati a questa funzionalità:

  • Paghi le tariffe standard per Vertex AI la previsione online. Il costo totale dipende dal tipo di modello utilizzato. Alcuni modelli hanno una tariffa oraria fissa, in base al tipo di macchina e al numero nodi che utilizzi. Alcuni tipi di modello hanno tariffe per chiamata. Ti consigliamo esegui il deployment di quest'ultima in un progetto dedicato in cui hai impostato una previsione esplicita quotas.

  • Paghi le tariffe standard per il trasferimento di dati tra Spanner e Vertex AI. L'addebito totale dipende la regione che ospita il server che esegue la query e la regione che ospita chiamato endpoint. Per ridurre al minimo gli addebiti, esegui il deployment degli endpoint Vertex AI nella stessa regione dell'istanza Spanner. Quando si utilizzano più regioni configurazioni di istanze o più endpoint Vertex AI, più endpoint nello stesso continente.

SLA

Poiché la disponibilità delle previsioni online di Vertex AI è devi configurare correttamente i modelli ML di Spanner per mantenere L'alta disponibilità di Spanner durante l'utilizzo dell'integrazione di Spanner Vertex AI:

  1. I modelli ML di Spanner devono utilizzare più modelli Vertex AI sul backend per abilitare il failover.
  2. Gli endpoint Vertex AI devono essere conformi allo SLA di Vertex AI.
  3. Gli endpoint Vertex AI devono eseguire il provisioning di capacità sufficiente per gestire per il traffico in entrata.
  4. Gli endpoint Vertex AI devono utilizzare regioni separate vicino agli il database Spanner per evitare interruzioni a livello di regione.
  5. Gli endpoint Vertex AI devono utilizzare progetti separati per evitare con le quote di previsione per progetto.

Il numero di endpoint Vertex AI ridondanti dipende dal relativo SLA (accordo sul livello del servizio) e il numero di righe nelle query Spanner:

SLA (accordo sul livello del servizio) di Spanner SLA di Vertex AI 1 riga 10 righe 100 righe 1000 righe
99,99% 99,9% 2 2 2 3
99,99% 99,5% 2 3 3 4
99,999% 99,9% 2 2 3 3
99,999% 99,5% 3 3 4 4

Gli endpoint Vertex AI non devono ospitare esattamente lo stesso modello. Me di configurare il modello ML di Spanner in modo che abbia un'istanza complesso e ad alta intensità di calcolo come primo endpoint. Failover successivo gli endpoint possono puntare a modelli semplificati che richiedono un'intensità di calcolo inferiore, scalare meglio e assorbire picchi di traffico.

Conformità

Assured Workloads non supporta l'API Vertex AI Prediction. L'attivazione di un limitare l'utilizzo delle risorse disabilita l'API Vertex AI e in modo efficace la funzionalità di integrazione di Spanner Vertex AI.

Inoltre, ti consigliamo di creare una Perimetro Controlli di servizio VPC per i database di produzione non possono connettersi agli endpoint Vertex AI in a progetti non di produzione che potrebbero non avere la configurazione di conformità corretta.