Capitolo 18. Introduzione a RAG
Questo lavoro è stato tradotto utilizzando l'AI. Siamo lieti di ricevere il tuo feedback e i tuoi commenti: translation-feedback@oreilly.com
Ricordi la prima volta che hai chattato con un LLM come ChatGPT e come è stato estremamente perspicace su cose che non ti aspettavi che sapesse? Avevo già lavorato con LLMs prima del rilascio di ChatGPT e su progetti che mettevano in evidenza le capacità di LLMs, ma ero ancora sorpreso da ciò che potevano fare. Ricordi la famosa dimostrazione sul palco di Google, in cui il CEO ha avuto una conversazione con il pianeta Plutone? È stato uno di quei fondamentali cambiamenti di mentalità sulle possibilità dell'IA che stiamo ancora esplorando con la sua continua evoluzione.
Tuttavia, nonostante tutta questa genialità, c'erano ancora dei limiti e più io e altri lavoravamo con le LLMs, più li incontravamo. L'architettura basata sui trasformatori di cui abbiamo parlato nel Capitolo 15 è stata geniale nell'assorbire i dati del testo, nel creare mappature QKV e nell'imparare a comprendere artificialmente la semantica del testo. Ma nonostante la mole di testo utilizzata per creare queste mappature, c'era - e c'è sempre - un punto debole: dati privati. In particolare, se vuoi lavorare con dati su cui il modello non è stato addestrato, corri il rischio di avere allucinazioni!
Acquisire le competenze necessarie a mitigare questo punto cieco potrebbe essere la cosa più preziosa che tu possa fare come sviluppatore di software. ...