Gli LLM ragionano davvero?
Uno sguardo critico tra illusione e realtà
Ah, noi umani! Che creature affascinanti e, diciamocelo, un po' sognatrici.
Noi per primi, appassionati di tecnica e tecnologia, ci ritroviamo spesso a cadere in quell'entusiasmo irrefrenabile che ci coglie di fronte a ogni novità, specialmente se luccica di innovazione.
Abbiamo questa incredibile capacità di sognare, e di farlo così intensamente da proiettare i nostri desideri ben oltre la cruda realtà che abbiamo di fronte.
La nostra tendenza innata è quella di infondere coscienza e persino umanità in ogni cosa che non comprendiamo appieno.
Questo è successo anche con i Large Language Models (LLM).
Lo ammettiamo, ci capita ancora di aspettarci da loro una creatività quasi mistica, e comportarci un po' come fanno gli artisti in cerca di ispirazione per superare il blocco.
In realtà tutti ci chiediamo: "Questi modelli ragionano davvero come noi? Sono i nuovi oracoli?". E mentre ci inebriamo di queste fantasie, ignoriamo la realtà, che invece è molto più... pratica.
Il paper di Apple, "The Illusion of Thinking", è arrivato al momento giusto, un po' come una secchiata d'acqua fredda (ma necessaria) sui nostri bollenti spiriti.
È tempo di guardare oltre l'incanto e capire "cosa c'è sotto il cofano".
Siete pronti a smontare qualche illusione insieme a noi?
La doppia faccia degli LLM: geni matematici, menti confuse?
È affascinante osservare come gli LLM, come l'avanzato O3, possano risolvere problemi matematici complessi in pochi secondi, fornendo soluzioni corrette con passaggi logici. Tuttavia, la stessa intelligenza artificiale può inciampare su un semplice indovinello come: "Un padre e un figlio sono coinvolti in un grave incidente... il chirurgo dice: 'Non posso operare su di lui, è mio figlio.' Chi è il chirurgo?". La risposta, ovviamente, è la madre. Ma l'LLM, nonostante la sua apparente logica, spesso risponde in modo errato, rivelando una incoerenza che ci spinge a indagare più a fondo.
Come "pensano" veramente gli LLM?
Per capire se gli LLM ragionano, dobbiamo prima capire come funzionano.
In sostanza, un LLM è un "predittore del token successivo". Questo significa che, data una sequenza di testo, il modello calcola la parola o il "token" più probabile che dovrebbe seguire. Non c'è una "comprensione" nel senso umano; piuttosto, il modello opera su complessi parametri numerici appresi da miliardi di esempi durante l'addestramento.
L'introduzione della Chain of Thought (COT), o "catena di pensiero", ha ulteriormente complicato la percezione. Chiedere a un LLM di "pensare passo dopo passo" può migliorare le sue prestazioni, portando alla nascita dei "Large Reasoning Models". Tuttavia, questo miglioramento non è una prova di un ragionamento intrinseco, ma piuttosto un modo per ampliare il contesto e guidare il modello verso previsioni più pertinenti.
L'illusione del ragionamento: le scoperte chiave
La ricerca ha evidenziato alcune limitazioni significative:
- Non è vero ragionamento formale: nonostante i risultati dei benchmark siano migliori, la correttezza di una soluzione non implica un processo di ragionamento valido. Il vero ragionamento dovrebbe mostrare generalità (applicabilità a nuovi dati), metacognizione (ragionamento sul proprio ragionamento) e capacità di correzione degli errori.
- Il "collasso" della complessità: il paper di Apple sulla Torre di Hanoi è emblematico. Mentre gli LLM gestiscono problemi semplici, falliscono drasticamente quando la complessità aumenta (ad esempio, con più di 9-10 dischi), non riuscendo a completare la sequenza di mosse richiesta. Questo è spesso dovuto alla pura lunghezza della soluzione richiesta, che può superare la loro capacità di mantenere la coerenza.
- Sovra-pensiero e meno-pensiero: curiosamente, man mano che i problemi diventano più difficili, gli LLM tendono a usare meno "token di pensiero" (il loro equivalente del pensare internamente) e mostrano un fenomeno di "sovra-pensiero", dove, anche su problemi semplici, esplorano percorsi errati prima di arrivare alla soluzione corretta.
- Compiti inappropriati: una critica fondamentale è che gli LLM non sono stati progettati per eseguire compiti algoritmici ripetitivi. Chiedere loro di risolvere problemi come la Torre di Hanoi è come usare un cacciavite per spegnere un incendio: si può provare, ma non è lo strumento giusto.
Il verdetto: ragionatori euristici, non formali
La comunità scientifica è sempre più concorde: gli LLM sono ragionatori euristici, non ragionatori formali. Questo significa che si basano su riconoscimento di pattern e probabilità apprese dai dati, piuttosto che su una logica deduttiva o una comprensione profonda delle regole. Le "catene di pensiero" generate dagli LLM, inoltre, non sono sempre affidabili o veritiere, a volte inventando giustificazioni per le loro risposte.
Questo non toglie nulla alla loro incredibile utilità e al potenziale rivoluzionario. Sono strumenti potenti per la generazione di testo, la sintesi di informazioni e molto altro. Tuttavia, è cruciale riconoscere i loro limiti intrinseci. Non possiamo aspettarci che un LLM esegua un algoritmo formale o ragioni come un essere umano.
Guardando avanti: strumenti e nuovi paradigmi
La soluzione non è abbandonare gli LLM, ma integrarli in modo intelligente. Ad esempio, anziché chiedere a un LLM di risolvere un problema complesso, possiamo chiedergli di scrivere l'algoritmo per risolverlo (cosa che spesso riescono a fare, avendo visto innumerevoli esempi). L'uso di "tool" o strumenti esterni, dove l'LLM funge da coordinatore per altri sistemi più specializzati, è una strada promettente per superare queste limitazioni.
In conclusione, mentre gli LLM continuano a evolversi, è fondamentale mantenere una prospettiva realistica. Sono straordinari predittori di testo che stanno ridefinendo il nostro rapporto con l'informazione, ma non sono ancora i "ragionatori formali" che a volte ci illudiamo che siano. Capire questa distinzione ci permetterà di sfruttarne al meglio il potenziale, evitando aspettative irrealistiche.
Cosa ne pensate di questa distinzione tra ragionamento euristico e formale? Avete esperienze con gli LLM che supportano o contraddicono queste osservazioni? Condividete i vostri pensieri nei commenti!
Vuoi capire bene come funzionano gli LLM?
Guarda questo video!
Vuoi conoscere tutti i termini giusti quando si parla di AI? Non perderti questo video su Il glossario di ENKK
L'Intelligenza Artificiale nella tua azienda
Vuoi sfruttare tutte
le potenzialità dell'IA?
L'Intelligenza Artificiale è il vento. Ma sei tu a delineare la rotta. l'IA è solo uno strumento, è il modo in cui la usi a fare la differenza. Noi possiamo insegnarti ad utilizzarla per accelerare il tuo percorso di crescita aziendale.
Clicca sul pulsante qui sotto e prenota subito la tua ora di formazione personalizzata omaggio!