Orchestrazione orientata agli obiettivi delle attività dell'agente. Fondamentalmente, gli agenti AI comunicheranno tra loro per eseguire il tuo compito.
Esempio: "scegli il giorno migliore del mese prossimo per una semi-maratona di 20 km". L'intelligenza artificiale inizierà a collaborare: l'agente meteorologico recupera le previsioni, l'agente di ricerca Web identifica le condizioni di funzionamento ottimali e l'agente Wolfram calcola il "giorno migliore". È l'arte dell'intelligenza artificiale connessa, che semplifica compiti complessi con sofisticatezza.
Gli LLM come mainframe centrale per agenti autonomi sono un concetto intrigante. Dimostrazioni come AutoGPT, GPT-Engineer e BabyAGI servono come semplici illustrazioni di questa idea. Il potenziale dei LLM va oltre la generazione o il completamento di copie, storie, saggi e programmi ben scritti; possono essere inquadrati come potenti risolutori di attività generali, e questo è ciò che miriamo a ottenere nella costruzione dell'orchestrazione orientata agli obiettivi della task force degli agenti (GOAT.AI)
Affinché un'orchestrazione orientata agli obiettivi di un sistema di task force di agenti LLM esista e funzioni correttamente, tre componenti principali principali del sistema devono funzionare correttamente
- Panoramica
1) Pianificazione
- Obiettivo secondario e scomposizione: l'agente suddivide attività di grandi dimensioni in obiettivi secondari più piccoli e gestibili, semplificando la gestione efficiente di incarichi complessi.
- Riflessione e perfezionamento: l'agente si impegna nell'autocritica e nell'autoriflessione sulle azioni passate, impara dagli errori e migliora gli approcci per i passi futuri, migliorando così la qualità complessiva dei risultati.
2) Memoria
- Memoria a breve termine: si riferisce alla quantità di testo che il modello può elaborare prima di rispondere senza alcun peggioramento della qualità. Allo stato attuale, i LLM possono fornire risposte senza alcuna diminuzione della qualità per circa 128.000 token.
- Memoria a lungo termine: consente all'agente di archiviare e richiamare una quantità illimitata di informazioni per il contesto per lunghi periodi. Spesso viene ottenuto utilizzando un archivio vettoriale esterno per sistemi RAG efficienti.
3) Spazio d'azione
- L'agente acquisisce la capacità di chiamare API esterne per ottenere informazioni aggiuntive non disponibili nei pesi del modello (che spesso sono difficili da modificare dopo il pre-addestramento). Ciò include l'accesso alle informazioni correnti, l'esecuzione di codice, l'accesso a fonti di informazioni proprietarie e, cosa più importante, l'invocazione di altri agenti per il recupero delle informazioni.
- Lo spazio d'azione comprende anche azioni che non mirano a recuperare qualcosa, ma implicano piuttosto l'esecuzione di azioni specifiche e l'ottenimento del risultato risultante. Esempi di tali azioni includono l'invio di e-mail, l'avvio di app, l'apertura di porte d'ingresso e altro ancora. Queste azioni vengono in genere eseguite tramite varie API. Inoltre, è importante notare che gli agenti possono anche richiamare altri agenti per eventi eseguibili a cui hanno accesso.
Ultimo aggiornamento
8 apr 2024