Archivio
- Novembre 2024 (39)
- Agosto 2024 (1)
- Dicembre 2023 (73)
- Novembre 2023 (1333)
- Ottobre 2023 (1631)
- Settembre 2023 (1468)
- Agosto 2023 (1417)
- Luglio 2023 (1389)
- Giugno 2023 (441)
- Maggio 2020 (30)
- Marzo 2020 (94)
- Febbraio 2020 (1)
- Gennaio 2018 (10)
OpenAI forma un team per valutare i rischi catastrofici dell’IA
OpenAI alza la guardia contro lo sviluppo incontrollato dell’intelligenza artificiale. La madre di ChatGPT ha infatti annunciato Preparedness, un nuovo team che avrà il compito di «monitorare, valutare e prevedere i rischi catastrofici» che un’IA sempre più evoluta può comportare per l’umanità. Alla guida ci sarà Alexander Madry, ex direttore del Center for Deployable Machine Learning del MIT. Assieme a ingegneri e ricercatori, che possono ancora candidarsi per entrare nel gruppo di controllo sul sito ufficiale dell’azienda, passerà in rassegna tutti i prodotti di OpenAI, cercando di comprendere se stanno prendendo una piega pacifica e in particolar modo benefica per la crescita umana. Già a maggio 2023 il Ceo Sam Altman, assieme al collega di Google Deepmind Demis Hassabis, aveva firmato una dichiarazione in cui suggeriva di trattare l’IA alla pari di pandemie e guerre nucleari.
Dalla sicurezza globale alla replicazione autonoma, i rischi dell’IA per OpenAI
«Riteniamo che i modelli di intelligenza artificiale, che supereranno le capacità attualmente presenti nei software più avanzati, abbiano il potenziale per apportare benefici all’umanità», ha scritto OpenAI in una nota ufficiale. «Comportano però anche rischi sempre più gravi. Dobbiamo pertanto assicurarci di disporre delle strutture e della comprensione necessarie per la sicurezza». Madry e il suo team dovranno prevedere usi impropri e furti dell’IA, che in mano ad «attori malintenzionati» potrebbero cagionare pericoli per tutti. Cosa intendono però gli esperti di OpenAI quando parlano di rischi catastrofici? La società ha citato diverse categorie, tra cui la capacità di persuasione sull’uomo e successivo inganno e la sicurezza informatica con la relativa possibilità di generare codici maligni. Attenzione anche alle minacce di carattere chimico, biologico, radiologico e nucleare. Infine, bisognerà evitare la replicazione e l’adattamento autonomi.
We are building a new Preparedness team to evaluate, forecast, and protect against the risks of highly-capable AI—from today's models to AGI.
Goal: a quantitative, evidence-based methodology, beyond what is accepted as possible: https://t.co/8lwtfMR1Iy
— OpenAI (@OpenAI) October 26, 2023
La missione del team Preparedness di OpenAI è poi quella di delineare le regole per una politica di sviluppo consapevole dei rischi dell’intelligenza artificiale. «La squadra descriverà nel dettaglio il nostro approccio con rigorose valutazioni, creando una vasta gamma di azioni protettive e stabilendo inoltre una struttura di governance per la responsabilità e la supervisione di ogni processo». Al fine di migliorare la risposta del suo team, OpenAI ha lanciato anche la campagna Preparedness Challenge rivolta a tutti i cittadini. Si chiede di immaginare cosa potrebbe fare un malintenzionato dotato di accesso illimitato alla tecnologia IA, tra cui ChatGpt e Dall-E, il software generativo di immagini. Le 10 proposte migliori riceveranno 25 mila dollari ciascuna e la possibilità di lavorare a stretto contatto con gli esperti.
LEGGI ANCHE: Intelligenza artificiale, Amazon e Meta sfidano OpenAI