La risoluzione dei problemi è una delle capacità innate degli esseri umani. Fin dai nostri giorni primitivi, quando le nostre sfide principali nella vita non erano essere mangiati da una bestia da preda, fino ai tempi moderni per ottenere qualcosa consegnato a casa velocemente, abbiamo unito la nostra creatività, il ragionamento logico e l'intelligenza per trovare soluzioni ai conflitti.
Ora, mentre assistiamo alla genesi dei senzienti dell'IA, ci troviamo di fronte a nuove sfide per quanto riguarda le loro capacità decisionali. Mentre il decennio precedente era tutto incentrato sulla celebrazione delle possibilità e del potenziale dei modelli e delle applicazioni dell'IA, questo decennio riguarda il fare un passo avanti: mettere in discussione la legittimità delle decisioni prese da tali modelli e dedurre il ragionamento alla base di esse.
Poiché l'intelligenza artificiale spiegabile (XAI) sta acquisendo sempre più importanza, questo è il momento di discutere un concetto chiave nello sviluppo di modelli di intelligenza artificiale che chiamiamo Suggerimenti della catena del pensieroIn questo articolo, decifreremo e sveleremo ampiamente cosa significa e i termini semplici.
Che cosa sono i suggerimenti basati sulla catena di pensiero?
Quando la mente umana è pronta ad affrontare una sfida o un problema complesso, cerca naturalmente di scomporlo in frammenti di passaggi sequenziali più piccoli. Guidata dalla logica, la mente stabilisce connessioni e simula scenari causa-effetto per elaborare la migliore risoluzione possibile per la sfida.
Il processo di replicazione di questo in un modello o sistema di intelligenza artificiale è Suggerimenti legati alla catena di pensiero.
Come suggerisce il nome, un modello AI genera una serie o una catena di pensieri logici (o passaggi) per affrontare una query o un conflitto. Immagina questo come se stessi dando istruzioni passo dopo passo a qualcuno che chiede un percorso per una destinazione.
Questa è la tecnica predominante impiegata nei modelli di ragionamento di OpenAI. Poiché sono progettati per pensare prima di generare una risposta o una risposta, sono stati in grado di superare gli esami competitivi sostenuti dagli umani.
[Leggi anche: Tutto ciò che devi sapere su LLM]
Vantaggi del suggerimento basato sulla catena di pensiero
Tutto ciò che è guidato dalla logica produce un vantaggio significativo. Allo stesso modo, i modelli addestrati su sollecitazioni di catena di pensiero offrono non solo accuratezza e pertinenza, ma anche una vasta gamma di vantaggi, tra cui:
Migliorata problem-solving capacità, dove la loro importanza è critica in settori quali sanità e finanza. Gli LLM che implementano la sollecitazione della catena di pensiero comprendono meglio le sfide esplicite e sottostanti e generano risposte dopo aver considerato probabilità distinte e scenari peggiori.
attenuante ipotesi e risultati generati da ipotesi perché i modelli applicano il pensiero e l'elaborazione logica e sequenziale per trarre conclusioni anziché trarre conclusioni affrettate.
Maggiori prenotazioni versatilità. poiché i modelli non devono essere addestrati rigorosamente su un nuovo caso d'uso poiché seguono la logica e non lo scopo.
Ottimizzato coerenza in compiti che prevedono risposte articolate in più parti/più risposte.
L'anatomia del funzionamento della tecnica di sollecitazione della catena di pensiero
Se hai familiarità con l'architettura software monolitica, saprai che l'intera applicazione software è sviluppata come un'unica unità coerente. La semplificazione di una tassa così complessa è arrivata con il metodo dell'architettura dei microservizi che ha comportato la suddivisione del software in servizi indipendenti. Ciò ha portato anche a uno sviluppo più rapido dei prodotti e a una funzionalità fluida.
Sollecitazione CoT nell'IA è simile, dove gli LLM sono guidati attraverso una serie di processi sequenziali di ragionamento per generare una risposta. Ciò avviene tramite:
- Istruzioni esplicite, in cui i modelli vengono istruiti direttamente ad affrontare un problema in modo sequenziale tramite comandi semplici.
- L'istruzione implicita è più sottile e sfumata nel suo approccio. In questo, un modello viene portato attraverso la logica di un compito simile e sfrutta le sue capacità di inferenza e comprensione per replicare la logica dei suoi problemi presentati.
- Esempi dimostrativi, in cui un modello espone un ragionamento passo dopo passo e genera approfondimenti incrementali per risolvere un problema.
3 casi reali in cui viene utilizzato il prompt CoT
Modelli di decisione finanziaria | CoT multimodale nei bot | Servizio sanitario |
|---|---|---|
| In questo settore altamente volatile, il prompting CoT può essere utilizzato per comprendere la potenziale traiettoria finanziaria di un'azienda, condurre valutazioni del rischio dei richiedenti credito e altro ancora | I chatbot sviluppati e distribuiti per le aziende richiedono funzionalità di nicchia. Devono dimostrare capacità di comprensione di diversi formati di input. Il prompting CoT funziona meglio in questi casi, in cui i bot devono combinare prompt di testo e immagini per generare risposte alle query. | Dalla diagnosi dei pazienti a partire dai dati sanitari alla generazione di piani di trattamento personalizzati per i pazienti, il prompting CoT può integrare gli obiettivi sanitari di cliniche e ospedali. |
Esempio
Domanda del cliente: Ho notato una transazione sul mio account che non riconosco, la mia carta di debito è stata smarrita e voglio impostare degli avvisi per le transazioni del mio account. Puoi aiutarmi con questi problemi?
Fase 1: identificare e categorizzare i problemi
- Transazione non riconosciuta.
- Carta di debito smarrita.
- Impostazione degli avvisi sulle transazioni.
Passaggio 2: Gestire la transazione non riconosciuta
Richiedi dettagli: Potresti fornirci la data e l'importo della transazione?
- Ramo 1: Se vengono forniti dettagli:
- Rivedi la transazione. Se fraudolenta, chiedi al cliente se vuole contestarla.
- Ramo 2: Se non ci sono dettagli:
- Offrire un elenco delle transazioni recenti.
Passaggio 3: Gestisci la carta di debito smarrita
Congela la carta: Si consiglia il congelamento immediato.
- Ramo 1: Se il cliente acconsente:
- Congela la carta e chiedi se ne vogliono una sostitutiva. Conferma l'indirizzo di spedizione.
- Ramo 2: Se il cliente rifiuta:
- Si consiglia di monitorare l'account per verificare eventuali transazioni non autorizzate.
Passaggio 4: imposta gli avvisi sulle transazioni
Scegli il metodo di avviso: SMS, e-mail o entrambi?
- Ramo 1: Se un cliente sceglie:
- Imposta avvisi per transazioni superiori a un importo specificato. Richiedi l'importo.
- Ramo 2: In caso di dubbi:
- Suggerisci un importo predefinito (ad esempio $ 50) e conferma.
Passaggio 5: fornire un riepilogo e i passaggi successivi
- Indagine sulla transazione non riconosciuta.
- Congelare la carta di debito ed eventualmente emetterne una sostitutiva.
- Impostazione degli avvisi sulle transazioni come richiesto.
Motivazione:
Questo processo risponde in modo efficiente alle molteplici richieste dei clienti attraverso passaggi e rami decisionali chiari, garantendo soluzioni complete.
Limitazioni del prompt CoT
La catena di pensiero è effettivamente efficace, ma è anche soggetta al caso d'uso a cui viene applicata e a diversi altri fattori. Ci sono sfide specifiche associate a Richiesta COT nell'IA che impediscono agli stakeholder di sfruttarne appieno il potenziale. Diamo un'occhiata ai colli di bottiglia comuni:
Complicare eccessivamente i compiti semplici
Mentre il prompting CoT funziona meglio per compiti complessi, può complicare compiti semplici e generare risposte sbagliate. Per compiti che non richiedono ragionamento, i modelli di risposta diretta funzionano meglio.
Aumento del carico computazionale
L'elaborazione del prompting CoT richiede un carico computazionale significativo e se la tecnica viene implementata su modelli più piccoli costruiti con capacità di elaborazione limitate, potrebbe sopraffarli. Le conseguenze di tali implementazioni possono includere tempi di risposta più lenti, scarsa efficienza, incoerenza e altro.
Qualità dell'ingegneria rapida dell'IA
Sollecitazione CoT nell'IA funziona in base al presupposto (o principio) che un prompt specifico sia ben articolato, strutturato e chiaro. Se un prompt è privo di questi fattori, il prompting CoT perde la capacità di cogliere il requisito, con conseguente generazione di passaggi sequenziali irrilevanti e, in ultima analisi, risposte.
[Leggi anche: Cosa sono i modelli linguistici di piccole dimensioni? Esempi reali e dati di addestramento]
Capacità ridotte su larga scala
Gli stakeholder possono riscontrare difficoltà nei loro modelli se devono sfruttare la sollecitazione della catena di pensiero per volumi enormi di set di dati o complessità di problemi. Per attività che comportano passaggi di ragionamento più ampi, la tecnica può rallentare il tempo di risposta, rendendola inadatta per applicazioni o casi d'uso che richiedono la generazione di risposte in tempo reale.
Il prompting CoT è una tecnica fenomenale per ottimizzare le prestazioni di Grandi modelli linguistici. Se tali carenze possono essere affrontate e risolte tramite tecniche di ottimizzazione o soluzioni alternative, possono produrre risultati incredibili. Con l'avanzare della tecnologia, sarà interessante vedere come il suggerimento Chain-of-Thought evolve e diventa più semplice ma anche più di nicchia.



