L’intelligenza artificiale (IA) potrebbe rappresentare una minaccia esistenziale per l’umanità, avvertono i principali esperti del settore. Sam Altman di OpenAI, Demis Hassabis di Google DeepMind e Dario Amodei di Anthropic sono tra i firmatari di un appello che sottolinea la necessità di trattare i rischi associati all’IA con la stessa serietà riservata a pandemie e guerra nucleare. L’iniziativa, pubblicata dal Center for AI Safety, un’organizzazione americana, chiede che la mitigazione dei pericoli legati all’IA diventi una priorità mondiale.
Il fisico italiano Roberto Battiston e Luca Simoncini, ex docente all’Università di Pisa, hanno sostenuto questo appello. Battiston evidenzia che la preoccupazione non riguarda tanto una “super intelligenza” che potrebbe sopraffare l’umanità, quanto le conseguenze dell’uso scorretto degli algoritmi nella vita quotidiana e nei processi sociali. Cita episodi come Cambridge Analytica e le tattiche di disinformazione dei troll russi come esempi di come l’IA possa essere male utilizzata.
La recente controversia all’interno di OpenAI ha ulteriormente messo in luce le divisioni nel mondo dell’IA. Il licenziamento, poi rientrato, di Sam Altman ha evidenziato il conflitto tra lui e il consiglio di amministrazione dell’azienda, soprattutto riguardo al progetto di IA Q*. Il direttore scientifico uscente Ilya Sutskever e il consiglio precedente vedevano l’IA come una tecnologia pericolosa, mentre Altman la considerava una forza capace di elevare l’umanità.
Questo scontro riflette un dibattito più ampio tra i “doomsters”, che temono una superintelligenza fuori controllo, e i “techno-utopisti”, che credono che l’IA possa portare a un futuro migliore. Gli esperti di etica dell’IA, come Timnit Gebru e Joy Buolamwini, mettono in guardia dai rischi immediati, come la discriminazione e la perpetuazione di stereotipi.
L’evoluzione dell’IA continua a sollevare interrogativi cruciali. Con la tecnologia sempre più integrata nelle nostre vite, è essenziale affrontare questi dibattiti con attenzione e responsabilità.