OpenAI presenta il concetto di Superalignment, un passo avanti significativo nella gestione dei rischi associati alla superintelligenza. La superintelligenza, definita come la tecnologia più impattante mai inventata dall’umanità, potrebbe aiutare a risolvere molti dei problemi più importanti del mondo. Tuttavia, il vasto potere della superintelligenza potrebbe anche essere molto pericoloso, portando al depotenziamento dell’umanità o addirittura all’estinzione umana.
OpenAI presenta Superalignment: il tentativo di “allineare” l’intelligenza artificiale con l’intento umano
Sebbene la superintelligenza possa sembrare lontana, OpenAI crede che potrebbe arrivare in questo decennio. La gestione di questi rischi richiederà, tra le altre cose, nuove istituzioni per la governance e la risoluzione del problema dell’allineamento della superintelligenza: come si può garantire che i sistemi di intelligenza artificiale molto più intelligenti degli umani seguano l’intento umano?
Attualmente, non esiste una soluzione per guidare o controllare un sistema di superintelligenza. Le tecniche di allineamento dell’IA attuali si basano sulla capacità degli umani di supervisionare l’IA, cosa che non sarà scalabile alla superintelligenza. L’obiettivo di OpenAI è costruire un ricercatore di allineamento automatizzato a livello umano. Per raggiungere questo obiettivo, è necessario sviluppare metodi di formazione scalabili.
Leggi anche: AI e AGI: il CEO di Google DeepMind prevede una svolta imminente
OpenAI sta assemblando un team di top ricercatori e ingegneri di machine learning per lavorare su questo problema. Il 20% della potenza di calcolo disponibile nei prossimi quattro anni sarà dedicato a risolvere questo problema. L’obiettivo è risolvere le sfide tecniche fondamentali dell’allineamento della superintelligenza in quattro anni. OpenAI invita tutti coloro che hanno avuto successo nell’apprendimento automatico a concentrare la loro attenzione sull’allineamento. I frutti di questo sforzo saranno condivisi ampiamente, e l’allineamento e la sicurezza dei modelli non-OpenAI sono importanti. Va detto che l’azienda lavorerà anche per migliorare la sicurezza dei modelli attuali e affrontare altri rischi provenienti dall’IA.
Risolvere l’allineamento della superintelligenza richiede le migliori menti del mondo. OpenAI incoraggia la collaborazione interdisciplinare e l’ingaggio attivo con i problemi sociotecnici correlati all’allineamento della superintelligenza.