migliorato paragrafo gpt
This commit is contained in:
@@ -273,7 +273,19 @@ Il RAG può essere suddiviso in fasi distinte:
|
||||
|
||||
I modelli `GPT` (`Generative Pre-trained Transformer`) appartengono a una famiglia di modelli di LLM che utilizzano l'architettura del transformer, permettendo la creazione di testi e contenuti simili a quelli umani, incluse immagini, video e musica, e offrendo risposte a domande in modo colloquiale. Il primo modello GPT è stato sviluppato e presentato da OpenAI nel 2018.
|
||||
|
||||
I modelli GPT non comprendono il linguaggio, ma elaborano le parole come unità discrete denominate token. Attraverso l’utilizzo di calcoli probabilistici, il modello identifica il token successivo più probabile all’interno di una frase, in relazione al contesto fornito dalle parole precedenti.
|
||||
Durante il pre-training, il modello viene addestrato su grandi quantità di dati testuali costituiti da circa 300 miliardi di token, estratti da fonti diverse quali libri, articoli e pagine web, con l’obiettivo di prevedere la parola successiva in una sequenza. Questa fase utilizza un metodo di apprendimento non supervisato (unsupervised learning) dove il modello viene ottimizzato minimizzando la differenza tra la parola predetta e quella realmente presente nel testo di addestramento.
|
||||
|
||||
Dopo il pre-training generalista, il modello GPT può essere ulteriormente addestrato con una fase detta fine-tuning, in cui si utilizzano esempi supervisionati per specializzarlo a specifici compiti, come traduzione, scrittura di codice o conversazione. Questa seconda fase impiega un dataset più piccolo e mirato, nel quale ogni esempio contiene un input e il corrispondente output desiderato. Il fine-tuning migliora la precisione del modello nel rispondere a richieste specifiche, conferendo maggiore accuratezza e adattabilità a particolari ambiti applicativi.
|
||||
|
||||
Un punto cruciale è la sottolineatura che GPT si basa esclusivamente sulla predizione delle parole successive e non su un processo di ragionamento logico. Il ragionamento implica l'elaborazione di informazioni mediante regole di inferenza logica, deduzioni basate su conoscenze strutturate e capacità di verificare la coerenza interna delle risposte. GPT, invece, genera risposte che appaiono coerenti grazie alla predizione statistica su base di linguaggio naturale, senza vera comprensione o capacità inferenziale.
|
||||
|
||||
Questa differenza spiega perché il modello può fornire risposte errate con sicurezza apparente, "*inventare*" informazioni o presentare incoerenze logiche in problemi matematici, logici o di senso comune.
|
||||
|
||||
GPT non effettua un apprendimento continuo dopo la fase di addestramento. La conoscenza interna al modello rimane statica e non può essere aggiornata o corretta dinamicamente senza un nuovo ciclo di addestramento. Inoltre, il modello non è "explainable" nel senso che non fornisce una spiegazione interpretabile per le risposte generate.
|
||||
|
||||
Un'altra limitazione strutturale di GPT è la presenza di bias (pregiudizi) ereditati dai dati utilizzati per l'addestramento. Dal momento che le informazioni di input possono contenere stereotipi di genere, razza o altre distinzioni culturali, il modello può replicarli e amplificarli nelle risposte, ad esempio associando ruoli lavorativi o caratteristiche specifiche a determinati gruppi demografici. Nonostante l’esistenza di tecniche di debiasing e di moderazione tramite fine-tuning che tentano di attenuare tali problemi, la completa eliminazione dei bias rimane una sfida aperta.
|
||||
|
||||
L’uso di GPT come oracolo di conoscenza è inappropriato; il modello deve essere impiegato consapevolmente con cognizione delle sue capacità e dei suoi limiti. Non deve sostituire sistemi di ragionamento logico o esperti umani, soprattutto in ambiti critici quali calcoli finanziari, attività legali o supporto decisionale medico-scientifico.
|
||||
|
||||
{{< youtube QBjHhFrFZ8Y >}}
|
||||
|
||||
@@ -307,17 +319,11 @@ Un aspetto critico che distingue i modelli closed da quelli open riguarda la pri
|
||||
|
||||
### John Searle e il concetto di intenzionalità
|
||||
|
||||
La stanza cinese è un esperimento mentale ideato da John Searle come controesempio rispetto alla teoria dell'intelligenza artificiale forte. Nel testo Minds, brains and programs il filosofo John Searle riprende la domanda di Alan Turing circa la possibilità delle macchine di pensare, opponendosi alla tesi secondo cui l'intelligenza umana possa essere riprodotta all'interno di una macchina, che segue un programma preimpostato. In altri termini la tesi sostenuta da Turing e quindi dall'intelligenza artificiale forte, intravede la possibilità per un computer di ottenere gli stessi esiti di una mente umana, cioè la possibilità di pensare, di avere stati cognitivi, di capire discorsi e domande per rispondere.
|
||||
La `stanza cinese` è un esperimento mentale ideato da John Searle come critica alla teoria dell'intelligenza artificiale forte. Nel testo *Minds, brains and programs* riprende la domanda di Alan Turing circa la possibilità delle macchine di pensare, opponendosi alla tesi secondo cui l'intelligenza umana possa essere riprodotta all'interno di una macchina, che segue un programma preimpostato. L'idea principale del programma dell'I.A. forte è quella che individua una corrispondenza di struttura e di funzionamento tra la mente umana e un computer. Viene in effetti stabilito il fatto che la mente, ricevendo dati (input), modificandoli e dandone altri (output), funzioni per mezzo di simboli elaborati da un'unità centrale di esecuzione che indica le procedure da compiersi.
|
||||
|
||||
L'idea principale del programma dell'I.A. forte è quella che individua una corrispondenza di struttura e di funzionamento tra la mente umana e un computer. Viene in effetti stabilito il fatto che la mente, ricevendo dati (input), modificandoli e dandone altri (output), funzioni per mezzo di simboli elaborati da un'unità centrale di esecuzione che indica le procedure da compiersi.
|
||||
Contro questo programma Searle formula un'obiezione secondo cui la mente umana non può essere riprodotta solamente in termini sintattici, poiché così non si tiene conto della sua qualità principale, ovvero l'`intenzionalità`, che rimanda alla semantica e alla coscienza. Searle, quindi, sostiene che l'intelligenza artificiale non possa essere equivalente a quella umana perché non è sufficiente elaborare programmi di manipolazione di simboli secondo regole sintattiche per generare un'attività mentale.
|
||||
|
||||
Contro questo programma Searle formula un'obiezione secondo cui la mente umana non può essere riprodotta solamente in termini sintattici, poiché così non si tiene conto della sua qualità principale, ovvero l'intenzionalità, che rimanda alla semantica. L'intenzionalità è la componente principale della mente umana ed è strettamente legata all'evento di coscienza.
|
||||
|
||||
Searle, quindi, sostiene che l'intelligenza artificiale non possa essere equivalente a quella umana perché non è sufficiente elaborare programmi di manipolazione di simboli secondo regole sintattiche per generare un'attività mentale. Il fatto è che la mente umana comprende, elabora e si esprime attraverso un linguaggio le cui parole, da un lato sono investite di significato, e dall'altro determinano il modo in cui una risposta verrà data.
|
||||
|
||||
Searle considera l'emergere dell'intenzionalità un fenomeno biologico legato alla costituzione del cervello umano e alle relazioni biologico-chimiche che lì si svolgono. Invece di affermare una posizione che richiama il dualismo cartesiano (indipendenza ontologica della sostanza pensante rispetto alla sostanza estesa), Searle mantiene un nesso imprescindibile tra mente e corpo, proponendo la soluzione del naturalismo biologico, cioè l'idea che le proprietà biologico-chimiche del cervello producano gli eventi mentali. In questo senso la mente umana sarebbe completamente identificata con il sostrato neurofisiologico del cervello.
|
||||
|
||||
Queste intelligenze possono in apparenza produrre le stesse risposte grazie alle istruzioni, ma bisogna tenere presente che l'intelligenza artificiale, con la sua impostazione attuale, non permette di comprendere le suddette istruzioni, questo perché gli elementi che essa manipola non necessitano di essere compresi.
|
||||
Searle considera l'emergere dell'intenzionalità un fenomeno biologico legato alla *costituzione del cervello umano* e alle relazioni biologico-chimiche che lì si svolgono. Mantiene un *nesso imprescindibile tra mente e corpo*, proponendo la soluzione del naturalismo biologico, cioè l'idea che le proprietà biologico-chimiche del cervello producano gli eventi mentali. In questo senso la mente umana sarebbe completamente identificata con il sostrato neurofisiologico del cervello.
|
||||
|
||||
#### Stanza cinese
|
||||
|
||||
@@ -325,7 +331,7 @@ Queste intelligenze possono in apparenza produrre le stesse risposte grazie alle
|
||||
|
||||
Per formulare la sua obiezione contro il programma forte dell'intelligenza artificiale, John Searle ricostruisce una situazione similare a quella del Test di Turing, dove un essere umano, a sua insaputa, interagisce con una macchina. Il compito per l'umano è di giudicare, sulla base delle risposte alle domande che egli pone, se sta discutendo con un altro umano o con una macchina. L'idea iniziale di Turing era di dimostrare che la macchina, avendo riprodotto lo stesso procedimento logico-razionale dell'uomo, poteva dare gli stessi output e imbrogliare il giudice, che non riusciva a distinguerla da un essere umano.
|
||||
|
||||
John Searle riprende questo schema: immaginiamo che egli si chiuda dentro la stanza e debba interagire con qualcuno all'esterno che non sappia niente su di lui. Supponiamo poi che la persona fuori parli il cinese come madrelingua e che Searle non abbia nessuna conoscenza del cinese. Immaginiamo ancora che siano disposte sul tavolo della stanza una serie di caratteri cinesi che Searle dovrà utilizzare per rispondere alla persona fuori. Dato che il cinese non attesta nessuna vicinanza linguistica e semiotica con l'inglese, egli non ha nessuna capacità di riconoscere qualcosa e di formulare una frase: ci sono solo simboli.
|
||||
Searle riprende questo schema: immaginiamo che egli si chiuda dentro la stanza e debba interagire con qualcuno all'esterno che non sappia niente su di lui. Supponiamo poi che la persona fuori parli il cinese come madrelingua e che Searle non abbia nessuna conoscenza del cinese. Immaginiamo ancora che siano disposte sul tavolo della stanza una serie di caratteri cinesi che Searle dovrà utilizzare per rispondere alla persona fuori. Dato che il cinese non attesta nessuna vicinanza linguistica e semiotica con l'inglese, egli non ha nessuna capacità di riconoscere qualcosa e di formulare una frase: ci sono solo simboli.
|
||||
|
||||
Immaginiamo allora che dentro la stanza ci sia un libro d'istruzioni con alcuni insiemi di caratteri cinesi, associati secondo delle regole scritte in inglese. Searle continua a non capire nulla del cinese, però comprende le informazioni in inglese, che gli indicano come rispondere a qualsiasi domanda ricevuta in cinese. Queste regole, che costituiscono ciò che Searle chiama il "*programma*" (in termini moderni, l'*algoritmo*), gli rendono possibile mettere in relazione una serie di simboli formali con un'altra serie di simboli formali, cioè gli permettono di dare una risposta (output) a ogni domanda (input).
|
||||
|
||||
@@ -333,8 +339,6 @@ Ormai, Searle è capace di avere una conversazione con un madrelingua cinese e,
|
||||
|
||||
Searle fa osservare che non ha mai dovuto interpretare i simboli cinesi per capire la domanda e dare la risposta giusta. Dunque, non era necessario che lui comprendesse ciò che doveva fare, perché doveva solo seguire le istruzioni fornite.
|
||||
|
||||
Il rapporto con la lingua cinese era di tipo sintattico (manipolazione corretta di simboli), mentre quello con la lingua inglese era di tipo semantico (collegare il significato di un termine), il connubio tra i due gli consente di mettere in ordine i caratteri cinesi.
|
||||
|
||||
Il punto è che in ogni caso Searle non capisce ciò che fa durante l'esperimento. Da ciò consegue che l'intelligenza di cui un umano dispone non è riducibile ad una manipolazione di simboli, ma ha anche qualcosa a che fare con la semantica.
|
||||
|
||||
### Rischio di bolla finanziaria
|
||||
|
||||
Reference in New Issue
Block a user