OpenAI: Musk e altri esperti chiedono pausa di sei mesi per lo sviluppo di GPT-4 citando rischi per l’umanità
Elon Musk e un gruppo di esperti di intelligenza artificiale e dirigenti del settore chiedono una pausa di sei mesi per addestrare i sistemi al neo modello GPT-4 di OpenAI, hanno dichiarato in una lettera aperta, citando potenziali rischi per la società e l’umanità. La lettera, pubblicata dall’istituto no-profit Future of Life Institute e firmata da oltre 1.000 persone, tra cui Musk, l’amministratore delegato di Stability AI Emad Mostaque, i ricercatori di DeepMind, di proprietà di Alphabet, e i pesi massimi dell’IA Yoshua Bengio e Stuart Russell, chiede una pausa nello sviluppo di IA avanzate fino a quando non saranno sviluppati, implementati e verificati da esperti indipendenti protocolli di sicurezza condivisi per tali progetti.
“I potenti sistemi di IA dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi gestibili”, si legge nella lettera che descrive anche i potenziali rischi per la società e la civiltà derivanti dai sistemi di IA competitivi con l’uomo, sotto forma di perturbazioni economiche e politiche, e invita gli sviluppatori a collaborare con i responsabili politici in materia di governance e autorità di regolamentazione.
La lettera giunge mentre la polizia dell’UE, Europol, si è unita lunedì a un coro di preoccupazioni etiche e legali sull’IA avanzata come ChatGPT, mettendo in guardia sul potenziale uso improprio del sistema nei tentativi di phishing, disinformazione e criminalità informatica. Musk, la cui casa automobilistica Teslasta utilizzando l’IA per il sistema di pilota automatico, ha espresso a gran voce le sue preoccupazioni in merito all’IA. Dal suo rilascio l’anno scorso, ChatGPT di OpenAI, sostenuto da Microsoft, ha spinto i rivali ad accelerare lo sviluppo di modelli linguistici simili e le aziende a integrare modelli di IA generativa nei loro prodotti. Sam Altman, amministratore delegato di OpenAI, non ha firmato la lettera, ha dichiarato a Reuters un portavoce di Future of Life. “La lettera non è perfetta, ma lo spirito è giusto: dobbiamo rallentare fino a quando non avremo compreso meglio le ramificazioni”, ha detto Gary Marcus, professore emerito della New York University che ha firmato la lettera. “Possono causare gravi danni… i grandi operatori stanno diventando sempre più segreti su ciò che fanno, il che rende difficile per la società difendersi da qualsiasi danno possa materializzarsi”.