Sui sentieri dell’intelligenza artificiale, con moschettoni e in cordata

/

Un’innovazione che cambia i rapporti tra le persone e le loro conoscenzeInsufficiente il dibattito pubblico non solo in Italia – Si distingue l’Unione Europea che prova a regolare questa innovazione senza bloccarla

C’è chi – molto esperto – l’ha inserita nella lista dei “passaggi di umanità”. ChatGpt, sorprendente strumento dell’Intelligenza Artificiale Generale, è l’ultimo di questi passaggi: all’inizio fu l’invenzione della ruota; prima di ChatGpt ci sono stati internet e il personal computer. Anche se per l’amministratore delegato di OpenAi, la società statunitense che lo produce, è per ora “un’anteprima di progresso”, stiamo sicuramente partecipando ad un mutamento dei rapporti tra le persone (e l’umanità intera) e le loro conoscenze.
Il percorso mostra opportunità, genera speranze collettive e personali; corre lungo precipizi, come tutti i sentieri che portano in alto. Servirebbero moschettoni e chiodi da parete (norme internazionali, leggi nazionali) e possibilmente camminare in cordata (magari un vertice globale sull’intelligenza artificiale).
Per intanto prevale l’iniziativa degli investitori nell’intelligenza artificiale. E gli investitori hanno – naturalmente – interesse più a perfezionare sempre più le macchine che a farsi carico del loro utilizzo.

Le iniziative del Garante italiano

Da venerdì 28 aprile è nuovamente accessibile in Italia ChatGpt, La fruibilità del potentissimo sistema di Intelligenza Artificiale era stata sospesa l’11 aprile dall’Autorità Garante della Privacy. OpenAi, la società statunitense che gestisce ChatGpt, ha preso atto dei rilievi, ha provveduto a dare soluzioni e implementato i chiarimenti agli utenti.
Quello che il Garante della Privacy non è riuscito ad ottenere è l’avvio di un confronto pubblico sui sistemi di Intelligenza Artificiale. L’IA non è nell’agenda del Parlamento italiano; ancora meno lo è nell’agenda di un Governo orientata ad evocare nostalgie.
I sistemi di intelligenza artificiale generativa sono potenti e molto utili. Hanno inevitabilmente limiti ed incognite sia sulla loro natura, sia sul loro utilizzo, sia sulle distorsioni nell’utilizzo, che non è certamente “accademico” ma economico, valutati gli investimenti che i privati stanno facendo nel settore. È necessaria una normativa che regoli ciò che è permesso e non è permesso nel settore dell’IA.
Un esempio? Eccolo descritto ancora dal Garante italiano: “I deepfake sono foto, video e audio creati grazie a software di intelligenza artificiale (AI) che, partendo da contenuti reali (immagini e audio), riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce. Il Garante per la protezione dei dati personali ha messo a punto una scheda informativa per sensibilizzare gli utenti sui rischi connessi agli usi malevoli di questa nuova tecnologia, sempre più frequenti, anche a causa della diffusione di app e software che rendono possibile realizzare deepfake, anche molto ben elaborati e sofisticati, utilizzando un comune smartphone”.
Eppure, al di fuori di una ristretta cerchia di ricercatori, fino a poco tempo fa, non esisteva nulla sull’impatto etico dell’intelligenza artificiale.
E non solo – e non tanto – in Italia.
Le aziende che maggiormente investono nell’IA generativa sono negli Stati Uniti e in Cina: ma qui non si ha notizia di una effettiva volontà regolatoria.

L’iniziativa dell’Unione Europea

Per fortuna c’è l’Unione Europea, che almeno ci prova. Prova a regolare senza bloccare l’innovazione. L’ambizione è quella di individuare e quindi la via “umanocentrica” dell’intelligenza artificiale generativa: la via in cui la persona umana sia protagonista non solo nella fase di implementazione di potenti strumenti come ChatGpt, ma anche nella fase di utilizzo.
“È proprio con un modello di sviluppo dell’intelligenza artificiale basato sui nostri valori che pensiamo di poter competere meglio nel mondo, mettendo al centro la fiducia di cittadini, consumatori, lavoratori e imprese e la tutela dei diritti fondamentali, senza creare eccessiva burocrazia ma valorizzando chi crea nuove imprese e ricerca innovativa. Una sfida incredibilmente complessa con implicazioni non solo sul nostro modello di società del futuro ma anche sulla geopolitica, ma proprio per questo un impegno da cui l’Europa non può sottrarsi”. La valutazione è di Brando Bonifei, capogruppo dei Democratici italiani al Parlamento europeo.
Bonifei è correlatore generale del Regolamento sull’Intelligenza Artificiale, proposto dalla Commissione europea e ora in esame all’Europarlamento. Qui Bonifei ha contribuito nelle scorse settimane ad una convergenza dei principali gruppi parlamentari su un testo che nella prima parte di maggio sarà all’esame della competente Commissione e nella prima metà di giugno sarà sottoposto al voto del Parlamento.
“Lo sforzo in ambito europeo – precisa ancora Brando Bonifei – è quello di legiferare con l’intento di sfruttare al meglio il potenziale dell’intelligenza artificiale senza intaccare i diritti individuali delle persone, anticipando le tendenze future. I rischi sono reali, anche per la nostra democrazia. Pensiamo ad esempio al diffondersi della possibilità di creare deepfake visivi o sonori da una semplice immagine o frase pronunciata, con implicazioni potenzialmente enormi sulla disinformazione”.
Le regole da condividere per lo sviluppo di questa nuova potenzialità a disposizione delle persone e delle loro comunità non riguardano solo l’etica e la democrazia. L’intelligenza artificiale ha contenuti economici rilevantissimi: ad esempio quello della proprietà intellettuale, sia nella fase di “allenamento” delle intelligenze artificiali sia nell’utilizzo dei loro “prodotti”.
La via europea all’IA non diventerà obbligatoria prima del 2026, ma già il fatto che ora si cominci a progettarla e che si preveda di realizzarla entro il prossimo anno, sarà utile a chi in tutto il mondo sta perfezionando i “motori” delle intelligenze generative. Insomma, gli investitori dovranno cominciare a fare attenzione anche al funzionamento delle “macchine” e non solo della loro competitività.

30 aprile 2023

Immagine dal sito di OpenAi