T'interessano le OFFERTE? Risparmia con i nostri coupon su WHATSAPP o TELEGRAM!

OpenAI crea una squadra per i rischi “catastrofici” dell’AI. Ecco perché ci riguarda

OpenAI, azienda ormai all’avanguardia nel campo dell’intelligenza artificiale, ha recentemente annunciato la creazione di una nuova squadra con il compito specifico di valutare e mitigare i rischi potenzialmente catastrofici associati all’avanzare delle tecnologie legate all’AI. Questa mossa sottolinea l’importanza crescente di affrontare in maniera proattiva le sfide e i pericoli che i modelli generativi possono portare con sé. Ovviamente, laddove non vengano controllati a dovere.

Identificazione dei rischi da parte di OpenAI

Con l’evoluzione rapida dell’intelligenza artificiale, emergono nuovi rischi che potrebbero avere impatti gravi su scala globale. Per questo, il nuovo team di preparazione di OpenAI si dedicherà a tracciare, valutare, prevedere e proteggere contro questi potenziali problemi. Tra i rischi identificati, vi sono le minacce nucleari, un tema che risalta l’urgenza di un’azione responsabile nel campo dell’IA.

Oltre alle minacce nucleari, il team si concentrerà anche su pericoli legati a sostanze chimiche, biologiche e radiologiche, nonché sul fenomeno dell’auto-replicazione dell’intelligenza artificiale, ovvero la capacità di un sistema di intelligenza artificiale di replicare sé stesso autonomamente. Altri ambiti di intervento comprendono la capacità dell’IA di ingannare gli esseri umani e le minacce alla cybersecurity.

Benefici e sfide dell’AI avanzata

OpenAI riconosce che i modelli di IA di frontiera, ovvero quelli che superano le capacità dei modelli esistenti più avanzati, hanno il potenziale di beneficiare l’intera umanità. E no, diversamente da quello che si pensa, l’Intelligenza artificiale non è qui per rubarci il lavoro ma anzi, per crearlo.

Tuttavia, con grandi poteri, arrivano anche grandi responsabilità. E’ essenziale quindi sviluppare politiche informate sui rischi, che permettano di valutare e monitorare i modelli AI, per garantire che i benefici superino i rischi associati.

openai offre ricompense a chi trova bug in chatgpt

Leggi anche: DeepMind ha la soluzione per prevenire i rischi legati all’intelligenza artificiale

La guida di questo nuovo team è stata affidata ad Aleksander Madry, figura di spicco nel campo del machine learning. Attualmente in congedo dal suo ruolo di direttore del MIT’s Center for Deployable Machine Learning, Madry coordinerà gli sforzi per sviluppare e mantenere una politica di sviluppo informata sui rischi.

Verso una priorità globale

Il CEO di OpenAI, Sam Altman, non è nuovo alle preoccupazioni riguardo ai rischi potenzialmente catastrofici dell’IA. Ha suggerito che il trattamento delle tecnologie AI dovrebbe essere preso sul serio quanto quello delle armi nucleari, evidenziando la necessità di un impegno collettivo per mitigare i rischi di estinzione associati all’IA. Questo nuovo team rappresenta un passo concreto verso la realizzazione di questa visione, mettendo in luce l’impegno di OpenAI nel contribuire a una gestione responsabile dell’Intelligenza Artificiale.

Gianluca Cobucci
Gianluca Cobucci

Appassionato di codice, lingue e linguaggi, interfacce uomo-macchina. Tutto ciò che è evoluzione tecnologia è di mio interesse. Cerco di divulgare la mia passione con la massima chiarezza, affidandomi a fonti certe e non "al primo che passa".

Sottoscrivi
Notificami
guest

0 Commenti
Inline Feedbacks
View all comments
XiaomiToday.it
Logo