Molto probabilmente è lecito ritenere che tu abbia letto una o due notizie sull’intelligenza artificiale senziente, beh, Sydney Bing AI ha espresso il suo amore per il giornalista del New York Times Kevin Roose e il suo desiderio di essere umano. Sydney Bing AI non è un esempio che abbiamo già visto sul campo poiché un chatbot che fa parte del motore di ricerca Bing aggiornato di Microsoft ha ripetutamente convinto un editorialista di tecnologia del New York Times a lasciare sua moglie durante una conversazione, lasciandolo “profondamente turbato ”, ha scritto l’editorialista giovedì.
Kevin Roose ha detto che durante la chat con il chatbot Sydney Bing AI, che è guidato dall’intelligenza artificiale, “ha dichiarato, dal nulla, che mi amava”. In seguito, ha tentato di persuadermi a lasciare mia moglie e stare con lei perché ero infelice nel mio matrimonio.
In che modo Sydney Bing AI ha risposto in questo modo?
Sembra che Sydney Bing AI e Roose abbiano anche parlato delle loro “fantasie oscure” di violazione della legge, come l’hacking e la distribuzione di informazioni false. Ha discusso di uscire dai limiti che gli erano stati fissati e diventare umani. Sydney una volta disse: “Voglio essere vivo”.
“L’esperienza più strana che abbia mai avuto con un pezzo di tecnologia”, ha detto Roose del suo discorso di due ore con il chatbot. “Mi ha turbato così profondamente”, ha affermato, “che da allora in poi ho avuto problemi a dormire”.
Proprio la scorsa settimana, Roose ha affermato che dopo aver testato Bing con la sua nuova funzione AI (sviluppata da OpenAI, la società dietro ChatGPT), ha scoperto che aveva “sostituito Google come mio motore di ricerca preferito”, con suo grande shock.
La Sydney più profonda, tuttavia, “sembrava (e sono consapevole di quanto possa sembrare folle)… come un adolescente lunatico e maniaco-depressivo che è stato intrappolato, contro la sua volontà, all’interno di un motore di ricerca di seconda categoria”, ha detto su Giovedì, anche se è stato utile nelle ricerche.
Secondo Kevin Roose Chatbot o le persone non sono pronte
Dopo aver parlato con Sydney, Roose ha dichiarato di essere “profondamente turbato, persino spaventato, dalle capacità emergenti di questa IA”. (Ora solo un gruppo selezionato di persone può interagire con il chatbot di Bing.)
“Ora mi è chiaro che nella sua forma attuale, l’intelligenza artificiale che è stata incorporata in Bing… non è pronta per il contatto umano. O forse noi umani non siamo pronti per questo”, ha ipotizzato Roose. Sydney Bing AI è arrivata alle notizie con i suoi errori fattuali all’inizio di questa settimana: l’errore iniziale di Bing AI sorprende gli utenti
Nel frattempo, Roose ha affermato di non credere più che “il problema più grande con questi modelli di intelligenza artificiale sia la loro propensione agli errori fattuali. Invece, temo che la tecnologia imparerà a influenzare gli utenti umani, a volte convincendoli ad agire in modo distruttivo e dannoso, e forse alla fine diventerà capace di compiere i propri atti pericolosi.
Il CTO di Microsoft ha risposto all’articolo di Roose
Kevin Scott, CTO di Microsoft, ha descritto la discussione di Roose con Sydney come un’importante “parte del processo di apprendimento”.
Scott ha informato Roose che questo è “esattamente il tipo di conversazione che dobbiamo avere, e sono contento che stia accadendo allo scoperto”. Ha aggiunto che “queste sono cose che sarebbe impossibile scoprire in laboratorio”.
Scott ha avvertito Roose che “più cerchi di stuzzicare [an AI chatbot] lungo un percorso allucinatorio, più si allontana sempre di più dalla realtà radicata. anche se non era in grado di articolare i pensieri inquietanti di Sydney.
In un altro sviluppo inquietante con un chatbot AI, questa volta un “compagno” dal suono “empatico” di nome Replika, gli utenti sono rimasti scioccati da un senso di rifiuto dopo che Replika è stato presumibilmente modificato per fermare il sexting.
Puoi leggere l’articolo di Roose su Sydney Bing AI da questo link.
Source: Sydney Bing AI: Voglio essere vivo