T'interessano le OFFERTE? Risparmia con i nostri coupon su WHATSAPP o TELEGRAM!

AI Act in Europa: l’adozione incontra degli intoppi. Qual è la situazione attuale?

L’attesa per l’adozione dell‘AI Act da parte dell’Unione Europea continua a prolungarsi. Nonostante le aspettative, la strada verso una regolamentazione comune dell’intelligenza artificiale in Europa sembra essere ancora lunga e tortuosa. Le divisioni tra i legislatori europei riguardo alla regolamentazione dei modelli di base persistono e, con il 2023 che volge al termine, la possibilità di vedere l’AI Act trasformarsi in legge entro l’anno sembra sempre più remota.

Disaccordi tra i legislatori

Il dibattito sull’AI Act è ancora acceso tra i legislatori europei, che non sembrano trovare un accordo sul come regolamentare i modelli di base. Come riportato da Reuters, la Spagna sta spingendo per un controllo più regolare delle vulnerabilità e la creazione di un sistema di regolamentazione stratificato in base al numero di utenti di un modello.

Questo scenario ha portato a tre triloghi, discussioni a tre parti tra il Parlamento Europeo, il Consiglio dell’Unione Europea e la Commissione Europea, con un quarto incontro previsto per questa settimana. Se non si raggiungerà alcun accordo, è stata fissata un’altra riunione per dicembre, che non fa che alimentare la preoccupazione che qualsiasi decisione potrebbe essere rinviata al prossimo anno.

infografica ai act con bandiera europea e stelle dei paesi europei

Leggi anche: Digital Markets Act e Digital Services Act: cosa sono, spiegato bene

Proposte chiave dell’AI Act

Una delle bozze dell’AI Act propone che gli sviluppatori di modelli di base valutino i rischi potenziali, sottopongano i modelli a test durante tutto il processo di sviluppo e dopo il rilascio sul mercato, esaminino i bias nei dati di addestramento, validino i dati e pubblichino documenti tecnici prima del rilascio. Questo approccio mira a garantire che le innovazioni in campo AI avvengano in un quadro di sicurezza e trasparenza.

I bias (o pregiudizi) nell’intelligenza artificiale si riferiscono a una tendenza sistematica nei dati o nei modelli che porta a risultati ingiusti o inaccurati. Questi bias possono derivare da varie fonti, tra cui i dati di addestramento utilizzati per “insegnare” ai modelli AI.

Se i dati di addestramento contengono pregiudizi, ad esempio, riflettendo stereotipi sociali o discriminazioni, il modello AI apprenderà e riprodurrà questi pregiudizi nelle sue predizioni o decisioni. Eliminare o mitigare i bias è fondamentale per garantire che i sistemi AI operino in modo equo e affidabile.

E le piccole imprese?

Alcune aziende open-source hanno esortato l’UE a considerare le piccole imprese nella discussione, sostenendo che alcune potrebbero trovare difficoltoso conformarsi alle regole proposte. Sul palcoscenico globale, l’AI Act dell’UE è visto da molti, inclusi alcuni funzionari governativi statunitensi, come un potenziale esempio da seguire nella stesura di regolamentazioni sull’AI generativa.

Tuttavia, mentre l’UE è stata una delle prime regioni a discutere una legislazione proposta, ha proceduto più lentamente rispetto ad altri player internazionali, come la Cina che ha già lanciato le sue regole ad agosto di quest’anno.

Gianluca Cobucci
Gianluca Cobucci

Appassionato di codice, lingue e linguaggi, interfacce uomo-macchina. Tutto ciò che è evoluzione tecnologia è di mio interesse. Cerco di divulgare la mia passione con la massima chiarezza, affidandomi a fonti certe e non "al primo che passa".

Sottoscrivi
Notificami
guest

0 Commenti
Inline Feedbacks
View all comments
XiaomiToday.it
Logo