Sto preparando un nuovo corso sull’Intelligenza Artificiale e, come primo esercizio, ho pensato di chiedere ai futuri allievi di darmi una loro definizione di IA.
Se dovessi rispondere io, la mia definizione “da manuale” sarebbe questa: “L’IA è una branca della tecnologia informatica che ha lo scopo di creare macchine in grado di simulare l’intelligenza umana.”
Semplice, no? Invece no. Il problema è che questa definizione apre un vaso di Pandora.
Il Problema Originale: Cos’è l’Intelligenza?
Prima di poterla simulare, dovremmo essere tutti d’accordo su cosa siano l’intelligenza, la mente e la coscienza. Non lo siamo. Questo rende concettualmente difficile, se non impossibile, creare un vero modello artificiale di qualcosa che non sappiamo definire con certezza.
Nonostante questo, i modelli di IA esistono da oltre 50 anni. Oggi, i più promettenti si basano sulle reti neurali, strutture matematiche che si ispirano vagamente al funzionamento del nostro cervello. Grazie all’enorme velocità di calcolo raggiunta negli ultimi anni, abbiamo sviluppato IA “ristrette” e “deboli”, che eccellono in compiti specifici. Le dividiamo principalmente in due categorie:
- IA Discriminativa: Riconosce e classifica. Risponde a domande come: “Questa email è spam oppure no?”.
- IA Generativa: Crea contenuti nuovi. Risponde a richieste come: “Scrivimi una poesia sullo spazio”.
ChatGPT ha portato quest’ultima tecnologia al grande pubblico, basandosi su modelli linguistici enormi (LLM) per generare testi incredibilmente fluidi e coerenti.
La Mia Visione: Intelligenza o Illusione?
Ora, vi dico come la vedo io. Per me, il concetto di una vera “Intelligenza Artificiale” rimane, al momento, confinato alla fantascienza.
I computer non sono intelligenti. Non pensano. Applicano algoritmi complessi a una velocità disumana, ma non hanno la minima idea di quello che stanno facendo. Manca la comprensione, il significato.
Per questo ChatGPT può suggerire pratiche mediche pericolose o inventare fonti inesistenti. Non ha “buon senso”. Anzi, non ha “senso”, perché letteralmente non sente niente. È un imitatore straordinario, un pappagallo con accesso a tutta la conoscenza di Internet, ma pur sempre un pappagallo.
Come strumento, però, è rivoluzionario. È comodissimo per analizzare dati, riassumere testi complessi, scrivere codice e molto altro. Ma non confondiamo uno strumento, per quanto potente, con un’entità intelligente.
Una Provocazione Finale (e Scomoda)
Eppure… c’è un “ma”. Spesso critichiamo l’IA per la sua mancanza di umanità, ma siamo sicuri che l’umanità sia sempre il modello migliore? Quante volte anche noi esseri umani agiamo in modo quasi “automatico”, rispondendo a stimoli esterni con reazioni prevedibili, quasi algoritmiche?
Se un’IA, nella sua fredda logica, può sbagliare meno di un umano in certi compiti, allora benvenga.
E qui, l’argomento più scomodo di tutti. Oggi tutti temono le armi autonome basate sull’IA come lo spauracchio delle guerre future. Ma se un giorno scoprissimo che un drone, programmato per rispettare regole d’ingaggio con una precisione assoluta, facesse meno vittime civili di un soldato umano stressato, spaventato e dotato di “intelligenza naturale” e “coscienza”?
È una domanda terribile, lo so. Ma è una di quelle domande che l’avvento dell’IA ci costringe a porci.
Cosa ne pensate?