Nelle ultime settimane, ChatGPT, lanciato dalla società americana di intelligenza artificiale OpenAI, è diventato il chat bot più popolare di sempre. Le sue potenti funzioni hanno attirato l’attenzione diffusa della società ed è definita un’applicazione “pietra miliare” dell’AI. Le maggiori aziende si sono dedicate allo sviluppo di applicazioni simili a ChatGPT, ma la “popolarità” di ChatGPT ha anche innescato discussioni sulla regolamentazione dell’intelligenza artificiale.
ChatGPT cambierà il mondo, ma sarà tutto rose e fiori?
ChatGPT è stato rilasciato solo per due mesi e i suoi utenti attivi mensili hanno raggiunto i 100 milioni, rendendola l’app consumer in più rapida crescita nella storia. Per un po’, Microsoft, Facebook (WhatsApp) Tencent, Baidu e molte altre aziende nel campo tech hanno rilasciato successivamente i loro risultati con delle implementazioni di ChatGPT. La risposta rapida e il semplice funzionamento di ChatGPT fanno sì che un gran numero di utenti lo utilizzino per cercare informazioni e scrivere tesi, non solo come strumento di chat.
Tuttavia, poiché l’ambito dell’applicazione di ChatGPT diventa sempre più ampio, anche i suoi rischi nascosti sono iniziati a diventare pubblici. Sebbene ChatGPT non sia perfetto, il chat bot sta ancora aumentando la nostra comprensione dello sviluppo dell’intelligenza artificiale e la sicurezza dell’AI richiede una supervisione legislativa. Di fatto ChatGPT ha dimostrato l’incredibile sviluppo dell’intelligenza artificiale, ma ciò porta anche problemi legali ed etici.
In termini di diritti di proprietà intellettuale, ChatGPT può essere utilizzato per generare documenti e codici, causando violazioni della proprietà intellettuale e controversie sulla proprietà. In termini di protezione delle informazioni personali, ChatGPT non può condurre una verifica fattuale delle informazioni e delle fonti di dati e potrebbero esserci pericoli nascosti come la perdita di dati personali e la diffusione di informazioni false. In termini di sicurezza dei dati, poiché ChatGPT può apprendere il linguaggio umano, può creare più confusione in termini di grammatica e abitudini di espressione quando si scrivono “e-mail di phishing”. Se viene utilizzato in modo improprio, le conseguenze dannose che causerà sono incalcolabili.
Da una prospettiva globale, i governi di vari paesi hanno iniziato a prestare attenzione a vari problemi di accompagnamento nello sviluppo dell’intelligenza artificiale e sono state messe all’ordine del giorno anche la formulazione e l’attuazione di leggi e regolamenti nel campo dell’intelligenza artificiale. I sistemi di intelligenza artificiale generativa creano opportunità, ma allo stesso tempo ci troviamo di fronte a un “bivio” storico: se l’AI controlla gli umani o gli umani controllano l’AI.
L’Unione Europea prevede di aggiornare i regolamenti sull’intelligenza artificiale ancora da pubblicare con “The Artificial Intelligence Act“, che dovrebbe entrare in vigore nel 2025 . La National Artificial Intelligence Strategy emessa dal governo del Regno Unito sottolinea che i sistemi di governance e regolamentazione formulati dal governo devono tenere il passo con la situazione in rapida evoluzione dell’intelligenza artificiale.
In Cina, nel dicembre 2022, l’Ufficio nazionale per l’informazione su Internet, il Ministero dell’industria e dell’informatica e il Ministero della pubblica sicurezza hanno emanato congiuntamente il “Regolamento sull’amministrazione della sintesi profonda dei servizi di informazione su Internet”, che è entrato in vigore il 10 gennaio di quest’anno. Il “Regolamento” prevede una serie di requisiti per i fornitori di servizi applicativi e per i supporti tecnici come ChatGPT che utilizzano la tecnologia dell’intelligenza artificiale per generare contenuti.
In ogni caso, a causa della natura bilaterale di questa tecnologia, non solo dobbiamo regolare gli algoritmi, ma anche combinarli con la regolamentazione dei dati. Come garantire l’accuratezza e la privacy delle fonti di dati generativi dell’IA, come proteggere i diritti di proprietà intellettuale e come correggere l’orientamento del discorso immorale dell’IA in modo tempestivo sono tutti problemi urgenti da risolvere nel campo dell’intelligenza artificiale.
Al momento, l’assistenza alla sicurezza dell’intelligenza artificiale deve ancora essere rivista e approvata dai dipartimenti competenti e anche l’ambito di applicazione di ChatGPT dovrebbe essere limitato. Lo stato potrebbe dover rafforzare la regolamentazione etica dell’intelligenza artificiale, migliorare la consapevolezza etica e la consapevolezza comportamentale dell’intelligenza artificiale nell’intera società, in modo che l’intelligenza artificiale sia conforme alla moralità e alla legge e sia conforme all’ordine pubblico. Su questa base, forse si dovrebbe aprire gradualmente il campo di utilizzo e la profondità dell’applicazione ed esplorare il sano sviluppo dell’intelligenza artificiale.
Come ha affermato il CEO di Intel Pat Gelsinger:
La tecnologia stessa è neutra e dobbiamo trasformarla continuamente in una forza del bene. La comunità tecnologica deve essere un modello per tutti i ceti sociali quando si tratta di raggiungere scoperte con sistemi potenziati dall’intelligenza artificiale. Se costruita e utilizzata in modo responsabile, l’IA creerà prosperità e arricchirà la vita delle persone.