Capitolo 2. Sbirciare nella scatola nera dell'intelligenza artificiale
Questo lavoro è stato tradotto utilizzando l'AI. Siamo lieti di ricevere il tuo feedback e i tuoi commenti: translation-feedback@oreilly.com
Quando i modelli linguistici di grandi dimensioni (LLMs) e gli strumenti di AI generativa di entrano nelle applicazioni sanitarie, portano con sé i loro elementi complessi e opachi - l'intrinseca qualità di "scatola nera" che rende oscuro il funzionamento interno di questi sistemi. Ciò solleva delle domande naturali per i medici e i leader del settore sanitario che stanno pensando di utilizzare le LLMs. Come fanno esattamente questi sistemi di intelligenza artificiale a sviluppare le loro competenze cliniche? Cosa succede dietro le quinte durante la loro formazione? La natura di scatola nera di questi strumenti emergenti rende le raccomandazioni e i processi di pensiero degli LLMs troppo imperscrutabili per un uso medico o sanitario serio?
Il Capitolo 2 si sofferma su ciò che risiede nei sistemi di IA che fanno notizia oggi. Discutiamo di come i trasformatori, i meccanismi di auto-attenzione, le reti neurali e altri elementi tecnici ingeriscono le conoscenze sanitarie e sviluppano le capacità di ragionamento. Anche se un resoconto completo della matematica che sta dietro a ogni componente è al di là delle esigenze di un lettore abituale, forniamo una spiegazione accessibile di come funzionano le LLM. Sbirciare all'interno della scatola nera dissipa le nozioni di "magia" ...