T'interessano le OFFERTE? Risparmia con i nostri coupon su WHATSAPP o TELEGRAM!

L’Europa adotta l’AI Act, la prima legge al mondo sull’intelligenza artificiale. Ecco le nuove regole

La recente adozione dell’AI Act dall’Unione Europea segna un momento cruciale per il futuro dell’intelligenza artificiale. Questo evento storico non solo pone l’Europa al centro dell’attenzione globale per la sua iniziativa normativa, ma solleva anche un dibattito su come le nuove regole influenzeranno l’innovazione e la sicurezza nel campo dell’AI. Questo approccio regolamentare dell’Unione Europea riflette una visione prudente ma ottimista verso il progresso tecnologico, cercando di equilibrare innovazione e sicurezza.

L’Europa scrive la storia: le nuove regole dell’intelligenza artificiale dell’AI Act

Il 13 marzo 2024 rappresenta una data memorabile per il settore dell’intelligenza artificiale, con l’Unione Europea che ha ufficialmente adottato l’AI Act. Questa legge, la prima del suo genere a livello globale, ha ottenuto un’ampia approvazione dal Parlamento Europeo, con 523 voti a favore, 46 contrari e 49 astensioni. Con questa mossa, l’Europa si pone come precursore nella definizione di standard per una gestione etica e responsabile dell’AI, influenzando potenzialmente politiche simili in altre regioni del mondo.

Thierry Breton, il commissario dell’UE per il mercato interno, ha evidenziato che l’Europa ha ora stabilito un benchmark globale per la regolamentazione dell’intelligenza artificiale. Questa visione trova eco nel settore tecnologico, sebbene non manchino voci critiche. Mentre alcuni esperti lodano l’AI Act per il suo tentativo di mitigare i rischi associati all’uso dell’intelligenza artificiale, altri temono che possa limitare l’innovazione tecnologica.

ai act bandiera europea

Leggi anche: Le regole del Digital Markets Act appena entrato in vigore in Europa

Un aspetto notevole dell’AI Act è il suo approccio alla classificazione dei rischi, dividendo le applicazioni AI in categorie a seconda del livello di pericolo che rappresentano. Le regole più severe sono riservate ai sistemi considerati ad alto rischio, come quelli impiegati nell’automazione dei veicoli e negli strumenti di sorveglianza. Allo stesso tempo, usi ritenuti inaccettabili, come i sistemi di valutazione sociale simili al credito sociale, saranno proibiti.

Nonostante le sue nobili intenzioni, l’AI Act ha suscitato preoccupazioni tra le aziende tecnologiche, sia europee che internazionali. Queste ultime temono che le nuove norme possano frenare l’innovazione e rendere il settore tecnologico europeo meno competitivo rispetto agli omologhi in USA e Cina. Tuttavia, è stato fatto un tentativo di placare tali timori, in particolare con l’introduzione di regole più flessibili per i cosiddetti modelli di base, una tecnologia fondamentale per prodotti come ChatGPT di OpenAI.

I punti chiave

  • approccio basato sul rischio: il regolamento classifica i sistemi di AI in base al loro potenziale rischio per la società, da rischio minimo a rischio inaccettabile, con regolamentazioni più rigorose per le categorie ad alto rischio;
  • sistemi di AI ad alto rischio: le applicazioni di IA ad alto rischio, come quelle nell’infrastruttura critica, nell’istruzione, nell’impiego, nell’applicazione della legge e in altri settori, devono conformarsi a requisiti rigorosi, tra cui sistemi di mitigazione del rischio, set di dati di alta qualità, registri delle attività, documentazione dettagliata e operazioni robuste, accurate e sicure;
  • pratiche proibite: vieta i sistemi di IA considerati una minaccia ai diritti fondamentali delle persone, comprese le applicazioni manipolatorie e il punteggio sociale da parte di governi o aziende (come in Cina);
  • rischi specifici: i sistemi basati sull’AI generativa come i chatbot, devono divulgare chiaramente le interazioni con le macchine, e i deepfake o altri contenuti generati da IA devono essere etichettati di conseguenza;
  • sanzioni per la non conformità: le violazioni possono comportare multe che vanno da 7,5 milioni di euro o l’1,5% del fatturato annuo a 35 milioni di euro o il 7% del fatturato globale.Come affronta il Regolamento sull’IA dell’UE l’identificazione biometrica e la sorveglianza? Il regolamento considera i sistemi di identificazione biometrica, in particolare quelli utilizzati per il riconoscimento facciale in tempo reale negli spazi pubblici da parte delle forze dell’ordine, ad alto rischio e, in alcuni casi, ne vieta l’uso. Tuttavia, sono previste eccezioni per scenari critici, come la prevenzione di attacchi terroristici imminenti o la ricerca di persone scomparse, a condizione che siano rispettate rigorose condizioni.

Quando entrerà in vigore il l’AI Act?

L’entrata in vigore dell’AI Act è prevista per maggio 2024, e le organizzazioni interessate dovrebbero iniziare a prepararsi formando squadre dedicate alla conformità all’IA. Questa rapida timeline sottolinea l’urgenza con cui l’UE affronta l’evoluzione tecnologica e la necessità di una regolamentazione adeguata. La data differisce di un mese rispetto a quanto annunciato dal Parlamento Europeo il mese scorso.

Gianluca Cobucci
Gianluca Cobucci

Appassionato di codice, lingue e linguaggi, interfacce uomo-macchina. Tutto ciò che è evoluzione tecnologia è di mio interesse. Cerco di divulgare la mia passione con la massima chiarezza, affidandomi a fonti certe e non "al primo che passa".

Sottoscrivi
Notificami
guest

0 Commenti
Inline Feedbacks
View all comments
XiaomiToday.it
Logo