OpenAI, la gigante dell’intelligenza artificiale, ha recentemente fatto notizia per il suo ruolo nel modellare la legislazione sull’intelligenza artificiale nell’Unione Europea. Oggi vediamo, grazie al Time, come l’azienda abbia fatto pressioni sull’UE per influenzare le leggi sull’IA, un tema che sta diventando sempre più rilevante man mano che l’intelligenza artificiale guadagna terreno in vari settori.
L’azione di lobbying di OpenAI porta a cambiamenti significativi nella legislazione sull’intelligenza artificiale dell’UE
OpenAI ha avuto un ruolo attivo nel fare pressioni sull’Unione Europea per mitigare la legislazione in arrivo sull’intelligenza artificiale. Secondo documenti ottenuti da Time, OpenAI ha richiesto che i legislatori apportassero diverse modifiche a una bozza della legge sull’IA dell’UE, nota come “EU AI Act“, prima che fosse approvata dal Parlamento Europeo il 14 giugno.
La legge sull’IA dell’UE è stata progettata per regolamentare meglio l’uso dell’intelligenza artificiale. Prima della sua approvazione, i legislatori hanno discusso sull’espansione dei termini all’interno dell’AI Act per designare tutti i sistemi di intelligenza artificiale a scopo generale (GPAI) come “ad alto rischio”. Questo avrebbe comportato l’adempimento delle più rigorose obbligazioni di sicurezza e trasparenza. OpenAI, insieme a Google e Microsoft, ha combattuto contro questa designazione, sostenendo che solo le aziende che applicano esplicitamente l’IA a casi d’uso ad alto rischio dovrebbero essere soggette a tali regolamentazioni.
Leggi anche: OpenAI: Altman spiega perché GPT-5 non è in produzione
L’Influenza di OpenAI
OpenAI ha avuto successo nelle sue azioni di lobbying. Alcune delle modifiche suggerite da OpenAI sono state incorporate nella legislazione. In particolare, i GPAI non sono automaticamente classificati come ad alto rischio nella versione finale dell’EU AI Act. Invece, la legge impone maggiori requisiti di trasparenza sui “modelli di base”, che sono potenti sistemi di intelligenza artificiale che possono essere utilizzati per diverse attività. Questo richiederà che le aziende effettuino valutazioni dei rischi e rivelino se il materiale protetto da copyright è stato utilizzato per addestrare i loro modelli di IA.
Mentre OpenAI sostiene che le sue azioni di lobbying siano nel miglior interesse della comunità dell’intelligenza artificiale, alcuni critici sostengono che l’azienda sia più interessata a proteggere i propri interessi finanziari che a promuovere il beneficio pubblico. Con l’IA che diventa sempre più pervasiva nella nostra società, è essenziale che ci siano regolamentazioni adeguate per garantire che sia utilizzata in modo responsabile e sicuro. Tuttavia, è anche importante che queste regolamentazioni non soffochino l’innovazione.
OpenAI ha dimostrato che le grandi aziende di tecnologia possono avere un impatto significativo sulle leggi che regolano l’IA. Questo solleva domande su come possiamo garantire che tali leggi siano formulate nell’interesse del pubblico e non solo delle aziende.