IA, Schwarz (Microsoft) mette in guardia su potenziali rischi
L’Intelligenza Artificiale (IA) potrebbe essere pericolosa se utilizzata da persone senza scrupoli, ha affermato Michael Schwarz, economista capo di Microsoft, durante un panel al World Economic Forum di Ginevra.
Schwarz ha espresso preoccupazione per l’uso dell’IA da parte di malintenzionati, in particolare nel contesto delle elezioni e delle campagne di spam. Secondo l’esperto, è fondamentale regolamentare l’IA, ma è altrettanto importante attendere che la tecnologia causi danni reali prima di intervenire.
Gli strumenti di IA sono sempre più al centro dell’attenzione in seguito all’esplosione del loro utilizzo, come nel caso di ChatGPT. I legislatori stanno cercando di spingere le aziende a implementare misure di sicurezza attorno a queste tecnologie emergenti. Schwarz ha sottolineato che la regolamentazione deve garantire che i benefici per la società siano maggiori dei costi imposti dalla stessa.
In merito al tema, giovedì il vicepresidente degli Stati Uniti, Kamala Harris, incontrerà i CEO di Microsoft, Alphabet e OpenAI per discutere le modalità per ridurre i rischi derivanti dalle tecnologie IA. Microsoft sta già lavorando per mitigare i pericoli legati all’IA, come l’utilizzo di ChatGPT di OpenAI nel suo motore di ricerca Bing, mentre Google ha lanciato il suo chatbot Bard a marzo.
Tuttavia, Schwarz ha avvertito che i legislatori dovrebbero evitare di regolamentare direttamente i set di dati utilizzati per l’addestramento dell’IA, poiché questo potrebbe avere conseguenze disastrose. Nonostante i rischi, l’esperto ritiene che l’IA possa rendere gli esseri umani più produttivi e migliorare la qualità della vita.
Infine, Schwarz ha affermato che l’IA rivoluzionerà il modo in cui la maggior parte delle aziende opera, anche se ci vorrà tempo. L’IA cambierà profondamente il mondo del lavoro e sarà un fattore chiave nella trasformazione di circa un quarto dei posti di lavoro a livello globale, come riportato in un recente rapporto del World Economic Forum.