L’intervento regolatorio non può bloccare la ricerca.
La priorità è la libertà delle persone, cui anche la tecnica deve inchinarsi.
Fermo, 3 maggio 2023
Caro Bedin,
mentre ho apprezzato che un politico ritenga decisiva l’attenzione di parlamenti e governi sull’intelligenza artificiale, non condivido il giudizio che traspare positivo sull’iniziativa del Garante della Privacy di bloccare l’accesso degli italiani a ChatGpt. Certo, ora il blocco è stato superato e l’accessibilità ripristinata, ma a me non pare che sia con i divieti che le pubbliche autorità possano accompagnare e guidare processi come quello di cui stiamo parlando.
Certo, da quello che leggo, l’intelligenza artificiale generativa a volte ha le allucinazioni: se non trova subito una risposta, la inventa. E questo è un ulteriore grande problema in una comunità nella quale già ora è complicato distinguere le balle (mi pare una definizione più esaustiva ed immediata rispetto a fake news…) dalle notizie.
Certo è necessario che le informazioni siano sempre (almeno strutturalmente) accompagnate dall’indicazione delle fonti.
L’intervento regolatorio insomma, più che bloccare, dovrà accompagnare il progredire dell’intelligenza artificiale con indirizzi relativi alla qualità delle fonti e alla trasparenza dei risultati.
Se in questa fase della ricerca intima il “fermi tutti”, sorge il dubbio che – letti anche i nomi di alcuni firmatari di appelli alla moratoria – il regolatore finisca per dare ascolto alle esigenze della concorrenza che nel settore è più indietro.
Emanuela Properzi
Commenta Tino Bedin
Non ho la competenza per valutare l’opportunità del recente intervento del Garante su ChatGpt. Ho letto che la società OpenAi non ha contestato le indicazioni e le ha applicate: può essere che lo abbia fatto anche solo per non perdere il vantaggio che attualmente ha sui concorrenti e per “scoraggiare” iniziative analoghe in altre parti del mondo.
Sui contenuti della Regolazione pubblica, mi pare che l’europarlamentare del Partito Democratico Brando Benifei stia indicando un percorso condivisibile. Ha precisato recentemente a proposito dell’approfondimento in corso al Parlamento europeo: “L’obiettivo è avere regole chiare sull’intelligenza artificiale, che garantiscano equità e trasparenza senza bloccare l’innovazione. Vengono proibite solo le forme di intelligenza artificiale inaccettabili, mentre quelle ad alto rischio saranno sottoposte ad un processo di certificazione”.
Brando Benifei fornisce informazioni puntuali sui divieti previsti: “La nostra proposta prevede il divieto, anche ai privati, del rating personale dei comportamenti sul modello cinese, lo stop agli algoritmi che leggono le emozioni in contesti di lavoro o educativo, lo stop alla polizia predittiva che misura la propensione a delinquere, il divieto per le telecamere biometriche nei luoghi pubblici”.
La priorità è la libertà delle persone, cui anche l’intelligenza artificiale deve inchinarsi.