Governare l'evoluzione dell'IA

Il Mattino - 5 Novembre, 2023

Il 2023 sarà ricordato come un anno di svolta per lo sviluppo dell’Intelligenza Artificiale. E’ l’anno in cui il lancio di ChatGPT ha sorpreso un po’ tutti per la sua incredibile capacità di generare testi sui più svariati argomenti… ma non solo! E’ anche l’anno in cui l’IA ha penetrato in maniera capillare il mondo delle applicazioni software, sia a livello consumer sia per quanto riguarda i prodotti professionali e industriali.

Per avere un’idea di prodotti che usiamo tutti i giorni dietro cui si annidano modelli di IA basta pensare ai tanti assistenti personali, come Siri e Alexa, presenti non solo sui nostri telefonini ma anche nelle nostre case e nelle nostre automobili. O ancora, pensiamo alla possibilità di ricevere raccomandazioni su film da vedere e libri da leggere sulla base dei nostri gusti e interessi. O infine, ma ci sarebbero moltissimi altri esempi da fare, alla possibilità di elaborare facilmente foto e video, cosa fino a poco tempo fa riservata solo a programmi specializzati e utenti esperti. 

Per non parlare delle applicazioni professionali. In medicina, dove l’IA gioca un ruolo sempre più pervasivo nella diagnostica e nella definizione di strategie personalizzate per il trattamento di un paziente. Nelle applicazioni industriali, dove l’IA sta letteralmente rivoluzionando attività quali la manutenzione e la diagnosi preventiva, i controlli di qualità, la gestione della catena logistica, la manifattura intelligente e la sua gestione adattativa. E tutto lascia immaginare che la diffusione sarà ancora più pervasiva e determinante nel prossimo futuro.

Il 2023 è anche l’anno in cui, di pari passo alla diffusione e alla crescita di potenza dei modelli di IA, sono cresciuti timori e allarmi. Fra i timori più importanti vi sono quelli relativi alle conseguenze di uno sviluppo non governato dell’IA, lasciato nelle mani di pochissimi attori privati globali.

E’ del 22 marzo 2023 una lettera aperta di alcuni fra i più importanti esperti di IA e dirigenti del settore, fra cui Yoshua Bengio, vincitore del Turing Award per essere tra gli inventori del deep learning, che chiedono una moratoria di sei mesi sull’addestramento di nuovi e più potenti modelli di IA. Nella lettera i firmatari si chiedono “Dovremmo rischiare di perdere il controllo della nostra civiltà?” per concludere “Queste decisioni non possono essere delegate a leader tecnologici non eletti”.

L’appello è rimasto sostanzialmente inascoltato e nei mesi scorsi abbiamo assistito ad una crescita esplosiva della complessità dei modelli di IA lanciati sul mercato a cui si è accompagnata la crescita altrettanto esplosiva dei costi di addestramento, il che rischia di rendere la partita sempre più una sfida fra pochi grandi player globali.

Il tema è stato al centro del “AI Safe Summit”, il vertice di Londra che nei giorni scorsi ha messo insieme leader politici, imprenditori, studiosi e protagonisti del mondo della tecnologia per riflettere sullo sviluppo dell’IA. Due gli argomenti più ricorrenti negli interventi. Il primo, la necessità di dare vita a un governo condiviso delle traiettorie di evoluzione dell’IA, attraverso una cooperazione globale capace di definire principi etici e regole comuni di gestione dei rischi. Il secondo, far sì che lo sviluppo dell’IA sia centrato sull’uomo, rispettoso della sua sicurezza e della sua dignità.

Nel suo intervento, la Presidente della Commissione Europea Ursula von der Leyen ha rimarcato il ruolo fondamentale della comunità scientifica, che deve essere messa nelle condizioni di valutare in maniera indipendente le implicazioni e i rischi degli sviluppi dell’IA. 

E questo ci porta al cuore della questione: parlare di pericoli dell’IA è un cortocircuito che forse ci serve per assolverci, ma che ci dice poco delle potenzialità dell’IA e delle problematiche da affrontare per garantirne uno sviluppo per il bene comune. I potenziali pericoli non vengono dalle forme di IA che abbiamo oggi o che svilupperemo domani, quanto piuttosto dall'intelligenza naturale che dovrà guidarne e governarne lo sviluppo e le applicazioni. Insomma, più che preoccuparci per l’IA, è tempo di occuparci della cultura di chi la utilizza, di chi la controlla e di chi è chiamato a regolarla. E qui, come è emerso dal summit di Londra, il cammino da fare è ancora lungo. 

In questo cammino il ruolo dell’Università diventa fondamentale. Noi all’Università del Sannio siamo convinti che l’innovazione tecnologica debba essere accompagnata da processi di innovazione sociale, e l'innovazione sociale richieda un ampio coinvolgimento di competenze e sensibilità diverse. Si sente spesso dire che abbiamo bisogno di più ingegneri, ed è indubbiamente vero! Ma abbiamo bisogno che i nostri ingegneri sviluppino un’attitudine umanista, dobbiamo dare loro gli strumenti concettuali per maturare piena consapevolezza delle conseguenze delle scelte tecnico-scientifiche sulla società e sulla vita delle persone. Al contempo, abbiamo bisogno che chi si occupa di discipline non tecniche, gli avvocati, i filosofi, i letterati, i sociologi, gli economisti, per fare qualche esempio, conosca più da vicino le tecnologie digitali, per comprendere fino in fondo la portata dei cambiamenti che emergono dall’interazione fra le tecnologie e i modi in cui vengono utilizzate. Far crescere nei nostri studenti la capacità di leggere e indirizzare l’evoluzione delle tecnologie per farne strumento di sviluppo dell’uomo e delle sue potenzialità è parte integrante del nostro progetto educativo e pervade in maniera trasversale i singoli percorsi disciplinari.

Siamo impegnati a fornire ai nostri studenti, a tutti gli studenti, non solo quelli delle discipline STEM, gli strumenti concettuali e culturali necessari a comprendere come l’avanzamento dell’IA penetra e modifica le singole discipline, per far si che l’IA sia sempre di più uno strumento per creare lavoro migliore, liberando energia e creatività, aiutando i professionisti a fare cose nuove e a fare meglio le cose che già oggi fanno. Siamo impegnati a stimolare una nuova sensibilità capace di sottrarre l’evoluzione dell’IA alle pure logiche del profitto e riorientarla verso sistemi più equi, accurati, sicuri, interpretabili, trasparenti, robusti, affidabili e leali. Siamo impegnati a sviluppare con i nostri studenti un’etica dell’IA, che non è etica delle macchine, ma codice capace di suggerire loro come porsi nel modo eticamente corretto nei confronti dell’intelligenza artificiale.

Nel 1970, nel libro “Future Shock”, Alvin Toffler predisse: “gli analfabeti del ventunesimo secolo non saranno coloro che non sapranno leggere o scrivere, ma quelli che non sapranno imparare, disimparare e reimparare”. Ed è proprio questa capacità di imparare, disimparare e reimparare che cerchiamo di sviluppare nei nostri studenti, per consentire loro di vivere da protagonisti la dinamicità del tempo che ci attende.