Passa al contenuto principale

OpenAI

Questa azione consente di generare testo basato su un prompt e sui messaggi precedenti della conversazione. Può essere applicata a vari scenari, che vanno dalle interazioni classiche in stile chat con un assistente ad azioni specifiche come riassumere conversazioni per i tuoi agenti, fornire consigli o individuare comportamenti potenziali degli utenti. L'efficacia dell'azione dipende principalmente dalla qualità del prompt fornito.

tip

Prima di utilizzare questa azione, è consigliabile familiarizzare con l'ingegneria del prompt, che puoi trovare qui.

Come funziona questa azione

Ecco alcune spiegazioni su come funziona questa azione e le sue limitazioni:

  • Il bot esegue sempre questa azione in modo sincrono, ovvero attende che l'API OpenAI restituisca una risposta prima di procedere al passaggio successivo. Simile all'azione Webhook, se hai più Azioni OpenAI consecutive, verranno eseguite in sequenza anziché per batch.

  • Il bot continuerà il suo flusso anche se l'azione OpenAI fallisce per qualsiasi motivo, come un timeout.

  • È tua responsabilità gestire la risposta, che sia positiva o negativa. Dovrai specificare le variabili per memorizzare la risposta di OpenAI. Poi, spetta a te utilizzare queste variabili successivamente nel bot, ad esempio come condizioni in un blocco di scelta, in messaggi o note.

Come utilizzarla

Solo il token e il prompt sono obbligatori.

Parametro Token OpenAI

Puoi trovare la chiave API sul tuo account OpenAI.

tip

Puoi incollare direttamente la chiave nel campo di input, oppure puoi salvarla come variabile con un valore predefinito, che può essere utile per il riutilizzo in più azioni:

Parametro Prompt

Il prompt ti consente di costruire un assistente personalizzato. Puoi inserire variabili al suo interno per renderlo più dinamico.

Messaggi precedenti analizzati

TipoAzione
Tutti dalla conversazioneInvia l'intera conversazione a OpenAI. Ogni messaggio inviato è interpretato come "Assistente" da OpenAI, e ogni messaggio ricevuto è interpretato come "Utente".
Solo dalla sessione corrente del botInvia i messaggi all'interno della stessa "filo del bot", a partire dall'ultimo riavvio del bot all'interno della conversazione.
Solo l'ultimo messaggioL'ultima risposta dell'utente.
Solo il promptViene utilizzato solo il prompt per interrogare l'API OpenAI.

Gestione della risposta di OpenAI

Anche dopo aver configurato correttamente l'azione OpenAI, possono verificarsi occasionali fallimenti (principalmente a causa di timeout). Se il comportamento del tuo bot dipende dalla risposta di OpenAI, è cruciale gestire gli errori in modo appropriato. Eventuali errori incontrati verranno memorizzati nella variabile specificata, o verrà utilizzata la variabile last webhook failure:

Spetta a te decidere come gestire questi errori. L'approccio consigliato è creare una variabile specifica per ogni webhook e quindi utilizzare un blocco di scelta per verificare se la variabile contiene un messaggio.