Nella quotidianità di persone ed enti sta entrando in maniera sempre più frequente ed incisiva una nuova tecnologia: l’intelligenza artificiale (IA), spesso chiamata semplicemente AI, dall’inglese Artificial Intelligence.
Eppure, non tutti sono sereni dinanzi a questa nuova rivoluzione tecnologica. Da più parti scienziati, informatici, comuni cittadini puntano il dito sulle possibili catastrofiche conseguenze di un’Intelligenza Artificiale troppo “intelligente” ma distaccata dai valori dell’essere umano. Una macchina – dicono – che senza dei paletti valoriali potrebbe rivolgersi contro il proprio creatore.
Interris.it ha chiesto al direttore dell’Agenzia per la cybersicurezza nazionale (ACN), prefetto Bruno Frattasi, come questo nuovo strumento possa essere utilizzato e in che misura rappresenti un pericolo o un’opportunità per la società civile.
Qual è il peso dell’innovazione tecnologica nella società?
“Sostanziale. Da qualche tempo stiamo vivendo una trasformazione digitale della società che riguarda ogni ambito della vita: dal lavoro, alla medicina, ai rapporti personali, allo svago, ai servizi finanziari e bancari, fino alle infrastrutture critiche ed essenziali. Tutto oggi è dominato dall’uso dei mezzi digitali. La rivoluzione digitale ha prodotto e sta continuando a produrre un solco profondo nel cammino dell’umanità. In questo senso si inserisce anche l’arrivo dell’Intelligenza Artificiale, una innovazione che lascerà sempre più il segno. E’ infatti una tecnologia in forte espansione e ci dobbiamo aspettare che raggiunga nuove tappe e traguardi non solo in ambito medico e scientifico – dove ha già coadiuvato i ricercatori in nuove importanti scoperte – ma anche nella quotidianità del cittadino, anche nel caso in cui questi se non sia un ‘nativo digitale’ o abbia un’alfabetizzazione informatica basica”.
Quanti tipi di Intelligenza Artificiale esistono?
“Diversi. Nell’arco dei mesi, ho molto approfondito a livello di conoscenza personale saggi e studi che spiegano cosa sia, come funziona e in che ambiti può essere utilizzata la IA. E’ sempre più in voga la cosiddetta ‘intelligenza artificiale conversazionale’ che consente alle macchine di comprendere e rispondere agli input del linguaggio umano in modo naturale. Il Natural Language Processing è uno strumento potente e versatile che utilizza algoritmi avanzati di apprendimento automatico per generare risposte simili a quelle umane all’interno di un discorso, scritto o parlato. Programmi come ChatGPT sono in grado di scrivere articoli di giornale, saggi, ricerche, presentazioni e a rispondere ad interviste in maniera soddisfacente, simulando – e in certi casi superando – le capacità umane”.
In quali casi la IA supera l’uomo?
“Una persona potrebbe riportare una data, un luogo o un fatto errato, per distrazione o ignoranza; la macchina no perché ha tutti i dati in memoria. In questo è eccezionale e più precisa dell’uomo”.
Recentemente, sono stati sollevati dei timori sull’utilizzo della IA in quanto potenziale pericolo per l’umanità…
“Sì. Alcuni hanno paventato scenari distopici, se non addirittura catastrofici o apocalittici, con la IA – una macchia – che prenderà il sopravvento sull’uomo per poi distruggerlo. Penso che queste siano derive alle quali non bisogna mai arrivare. L’uomo deve rimanere il padrone della tecnica e della tecnologia, non deve essere mai il contrario. Diamo fiducia ma anche vigilanza a questo strumento. Una vigilante fiducia. E’ sempre stato nel dibattito filosofico e scientifico l’utilizzo e il confine etico delle nuove tecnologie. Se ne occupa la filosofia della Scienza. La possibilità che la macchina possa un giorno ribellarsi e avere il sopravvento sull’uomo è dunque un dibattito aperto da decenni. La risposta a questo interrogativo che viene da lontano è sempre il medesimo: che l’uomo faccia l’uomo. Alla base di uno scorretto rapporto uomo – macchina c’è un problema valoriale”.
Può spiegare questo concetto?
“Dobbiamo pensare all’evoluzione delle macchine in termini valoriali. Dobbiamo fare in modo che alle macchine vengano dati dei parametri valutativi etici, che non contraddicano o sviliscano la dignità dell’essere umano. Così come i valori di democrazia e libertà. La macchina deve fare solo quello che noi gli ordiniamo di fare perché è uno strumento in mani nostre. Non deve crescere e svilupparsi senza uno scopo o con uno scopo proprio. Dunque, gli scopi e gli obiettivi della IA devono essere solo quelli che decidiamo noi. A tal fine, è necessario creare algoritmi etici della IA che impediscano delle derive di antiumanesimo. Solo così l’uomo può rimanere padrone di questa potente tecnologia e, conseguentemente, del proprio destino”.
I commenti non sono chiusi.