#AIAct: tra competizione globale e approcci critici

Condividi:

In un contesto di crescente competizione economica e geopolitica, l’Unione Europea sta delineando il suo approccio regolamentare all’intelligenza artificiale. Un accordo provvisorio è stato raggiunto tra i negoziatori del Parlamento Europeo e del Consiglio Europeo, aprendo una fase successiva di analisi e implementazione.

Un Passo Provvisorio

L’accordo raggiunto rappresenta, da un lato, una sorta di pietra miliare ma, dall’altro lato è cruciale sottolineare che nulla è ancora definitivo. Le prossime settimane vedranno una fase tecnica molto intensa che sarà determinante per plasmare l’effettiva implementazione delle disposizioni stabilite. D’altronde la velocità dei cambiamenti in atto obbliga il legislatore a “inseguire” se le norme si pensano in termini di applicazione e non incidono, sostanzialmente, sulle forme dello sviluppo.

Competizione Economica e Geopolitica

Una caratteristica chiave dell’approccio europeo è la sua natura fortemente incentrata sulla competizione economica e geopolitica. Si evidenzia, infatti, la volontà di posizionarsi come attori guida nella corsa globale all’IA, con l’obiettivo esplicito di competere con Stati Uniti e Cina. La prospettiva europea, delineata dal commissario Thierry Breton, pone l’enfasi su come questo regolamento possa fungere da trampolino di lancio per le startup e i ricercatori dell’Unione Europea. Ma questo, al momento, sembra più un auspicio. L’Europa sembra essersi impegnata sulla destinazione di un viaggio prima di costruire la macchina con la quale fare il viaggio stesso.

Mancanza di Approccio Basato sul Rischio

Critiche emergono riguardo all’assenza di un approccio basato sul rischio. L’elenco delle tre categorie di rischio – unacceptable, high risk e minimal – è stato considerato più una categorizzazione di “pericoli” che un approccio tecnico basato sul rischio. La distinzione tra pericolo e rischio, come definito nel decreto legislativo italiano del 2008, evidenzia la mancanza di una valutazione più precisa delle probabilità di danni e anche delineare le forme della responsabilità sia a livello civile che penale. Ma soprattutto politico e sociale.

Foundation Models e General-Purpose AI

Un aspetto dibattuto riguarda il gergo utilizzato. Mentre la comunità scientifica si avvale del termine “foundation models“, l’accordo parla di “general-purpose AI“. La mancanza di definizioni legali potrebbe portare a una certa ambiguità, e la necessità di allineare il linguaggio tecnico è evidente per evitare interpretazioni errate.

Eccezioni e Limiti

L’accordo stabilisce diverse eccezioni, concentrandosi su ambiti come sicurezza nazionale, difesa, ricerca, innovazione e l’utilizzo non professionale dell’IA. Tuttavia, l’inclusione di eccezioni per giocattoli con IA solleva domande sulla coerenza della regolamentazione, mentre le restrizioni sui messaggi subliminali riflettono preoccupazioni etiche.

L’Unione Europea, quindi, si muove verso una regolamentazione più stringente sull’IA che sembra più indirizzarla nella volontà di svolgere un ruolo di arbitro ma non di giocatore in campo.


Condividi: