La misura umana dell’intelligenza artificiale
All’inizio del suo celebre articolo del 1950 Alan Turing si chiese: «Le macchine possono pensare?». La risposta dipende da cosa intendiamo per pensare. Turing propose il famoso test che porta il suo nome: una macchina pensa se riesce a ingannare un interlocutore umano durante una conversazione. Oggi, secondo Nello Cristianini, docente di AI a Bath e autore di una trilogia sulle macchine intelligenti, gli esseri umani non sono il paradigma dell’intelligenza, ma solo una delle sue forme. L’intelligenza, come capacità di imparare, pianificare e ragionare, può appartenere anche alle macchine. Gli Llm come ChatGPT non derivano da teorie linguistiche ma da approcci statistici: l’addestramento consiste nel ricostruire parole mancanti in grandi testi. Da qui emergono capacità inaspettate: rispondere a domande, risolvere problemi, generare testi coerenti. Per Cristianini ciò implica una forma di comprensione, seppure diversa da quella umana. Gli Llm superano lo studente medio in test accademici, ma non i migliori. L’AI può eguagliare prestazioni umane in compiti specifici, come diagnosi mediche o dimostrazioni matematiche, ma non ha ancora raggiunto l’AGI. Il superamento dell’intelligenza umana, se avverrà, potrebbe presentarsi in due forme: una macchina che svolge i nostri compiti meglio di noi, o un’AI capace di compiti incomprensibili all’uomo, cioè l’ASI. «Difficile accettare che non siamo il vertice dell’intelligenza, ma non c’è nulla che lo garantisca», conclude Cristianini.
