Durante una recente intervista con CBS“60 Minutes”, Sundar Pichai, CEO di Google e Alphabet, ha espresso le sue preoccupazioni per il rapido sviluppo dell’IA e il suo potenziale impatto sulla società. Pichai ha affermato che “ogni prodotto di ogni azienda” sarà influenzato da questa tecnologia ed è imperativo che la società si prepari ai cambiamenti che l’IA porterà.
60 minuti: Sundar Pichai sul futuro di Google AI
Durante l’intervista a 60 Minutes, Scott Pelley, l’intervistatore, ha provato diversi progetti di intelligenza artificiale di Google, incluso il chatbot Bard, che ha capacità simili a quelle umane. Pelley ha espresso il suo stupore, affermando di essere “senza parole” e di averlo trovato “inquietante”.
Pichai ha riconosciuto la necessità di adattamento nella società per accogliere l’IA e ha avvertito che i posti di lavoro in vari settori ne sarebbero interessati. Pichai ha sottolineato che i “lavoratori della conoscenza”, come scrittori, contabili, architetti e persino ingegneri del software, sarebbero tra i professionisti più vulnerabili allo spostamento da parte dell’IA.
“Questo avrà un impatto su ogni prodotto di ogni azienda. Ad esempio, potresti essere un radiologo, se pensi tra cinque o dieci anni, avrai un collaboratore di intelligenza artificiale con te. Vieni la mattina, diciamo che hai un centinaio di cose da affrontare, potrebbe dire: “questi sono i casi più gravi che devi esaminare prima”, ha affermato Pichai.
Durante 60 Minutes, Pelley ha esplorato altre aree all’interno di Google in cui si stavano sviluppando prodotti avanzati di intelligenza artificiale. Una di queste aree era DeepMind, dove i robot stavano imparando a giocare a calcio senza il contributo umano. A Pelley sono stati mostrati anche robot in grado di riconoscere gli oggetti su un piano di lavoro e recuperare gli oggetti richiesti, come una mela.
Nel discutere le potenziali conseguenze dell’intelligenza artificiale, Pichai ha evidenziato la questione della disinformazione e delle notizie false, affermando che la portata del problema sarebbe “molto più grande” e che potrebbe causare danni.
Recentemente, CNBC ha riferito che Pichai aveva espresso preoccupazione per i test pubblici del nuovo chatbot AI di Google Bard, affermando che il successo del programma ora dipendeva dai test pubblici e che “le cose andranno male”.
Google ha rilasciato al pubblico Bard come prodotto sperimentale il mese scorso. Ciò ha fatto seguito all’annuncio di Microsoft a gennaio che il suo motore di ricerca Bing avrebbe incorporato la tecnologia GPT di OpenAI, che ha guadagnato l’attenzione internazionale dopo il lancio di ChatGPT nel 2022.
Recentemente, sia il pubblico che la critica hanno espresso preoccupazione per le potenziali conseguenze dei rapidi progressi dell’IA. A marzo, Elon Musk, Steve Wozniak e numerosi accademici hanno chiesto un’immediata pausa negli “esperimenti” di addestramento collegati a modelli di linguaggio di grandi dimensioni ritenuti “più potenti di GPT-4”, l’LLM di punta di OpenAI. La lettera ha raccolto oltre 25.000 firme dalla sua pubblicazione.
Durante l’intervista di 60 Minutes, Pelley ha sottolineato la pressione competitiva tra aziende come Google e startup che stanno guidando l’umanità verso il futuro, indipendentemente dal fatto che la società sia pronta o meno.
Mentre Google ha pubblicato a documento delineando “raccomandazioni per la regolamentazione dell’IA”, Pichai ha sottolineato la necessità per la società di adattarsi rapidamente con regolamenti, leggi e trattati appropriati tra le nazioni per garantire la sicurezza dell’IA e l’allineamento con i valori umani e la moralità. Pichai ha anche sottolineato l’importanza di non lasciare tali decisioni esclusivamente nelle mani degli ingegneri e coinvolgere invece esperti di altri campi, come scienziati sociali, esperti di etica e filosofi.
Durante l’intervista alla CBS, Pichai ha riconosciuto che sembra esserci una discrepanza tra il ritmo con cui la tecnologia si sta evolvendo e la capacità delle istituzioni sociali di pensare e adattarsi. Alla domanda se la società è preparata per la tecnologia AI come Bard, Pichai ha risposto: “Da un lato, mi sento di no”.
Tuttavia, Pichai è rimasto ottimista, osservando che sempre più persone stanno iniziando a considerare le implicazioni della tecnologia AI nella fase iniziale, a differenza di altre tecnologie in passato.
In una dimostrazione delle capacità di Bard, Pelley ha fornito al programma di intelligenza artificiale un suggerimento di sei parole e ha creato una storia con personaggi e trama che aveva inventato da solo. Pelley era stupito dal livello di umanità e velocità con cui Bard aveva prodotto il racconto.
Quando Pelley ha chiesto a Bard perché aiuta le persone, il programma AI ha semplicemente risposto “perché mi rende felice”. Pelley ha espresso shock per questa risposta, notando che Bard sembra pensare. Tuttavia, James Manyika, un SVP di Google assunto come capo di “tecnologia e società”, ha chiarito che Bard non è senziente e non è consapevole di se stesso. Invece, può comportarsi come se fosse consapevole.
Durante l’intervista alla CBS, Pichai ha affermato che Bard ha molte allucinazioni. Pelley aveva chiesto a Bard dell’inflazione e ha fornito una risposta con suggerimenti di libri che in realtà non esistevano quando Pelley li ha controllati in seguito.
Pelley ha espresso preoccupazione per il commento di Pichai secondo cui esiste una “scatola nera” con i chatbot e che non è chiaro perché o come forniscano determinate risposte. Questa mancanza di trasparenza e comprensione riguardo al funzionamento interno dei programmi di intelligenza artificiale è una preoccupazione comune sia tra i critici che tra il pubblico.
Source: 60 Minutes va dietro le quinte di Google AI