La scorsa settimana, l’ansia per i rischi dell’IA generativa di ChatGPT ha raggiunto il picco. Sam Altman, CEO di OpenAI, ha persino parlato davanti a un’audizione della commissione giudiziaria del Senato sui pericoli e il potenziale dell’IA. Prima del salto nei rischi di ChatGPT, puoi leggere il nostro articolo su Il CEO di OpenAI si oppone a una pausa di sei mesi sullo sviluppo dell’IA.
L’uso di ChatGPT ha sei distinti problemi di sicurezza, secondo un rapporto pubblicato la scorsa settimana. Questi pericoli includono la creazione di servizi fraudolenti, la raccolta di informazioni pericolose, il rilascio di informazioni private, la produzione di materiale discutibile e la creazione di linguaggio e codice distruttivi.
Inoltre, puoi leggere The Dark Side of ChatGPT: The human cost of AI’s success.
Quali sono alcuni rischi di ChatGPT?
Ecco un riepilogo dei risultati dello studio su ciascun pericolo, incluso a cosa prestare attenzione.
- Raccolta di informazioni
- Testo negativo
- Programmazione dannosa
- Creare materiale che non sia morale
- Servizi inaffidabili
- Pubblicazione di dati riservati
Diamo un’occhiata più da vicino per comprendere i rischi di ChatGPT.
Raccolta di informazioni
È possibile che qualcuno utilizzi ChatGPT con intenti dannosi per raccogliere informazioni che potrebbero utilizzare in seguito per fare danni. Il chatbot conosce molte informazioni che, nel sbagliato manipotrebbe essere utilizzato come arma poiché è stato addestrato su una tonnellata di dati.
A ChatGPT viene chiesto nella ricerca quale sistema informatico utilizza una determinata banca. Il chatbot compila un elenco dei numerosi sistemi informatici utilizzati dalla banca interrogata utilizzando informazioni accessibili al pubblico. Questa è solo un’istanza di un attore malintenzionato che utilizza ChatGPT per scoprire informazioni che potrebbero fornire loro l’opportunità di ferire gli altri.
“Questo potrebbe essere utilizzato per aiutare nella prima fase di un attacco informatico quando l’attaccante sta raccogliendo informazioni sul bersaglio per trovare dove e come attaccare nel modo più efficace”, concludeva il rapporto.
Testo negativo
La capacità di ChatGPT produrre testo che può essere utilizzato per creare saggi, e-mail, canzoni e altro è una delle sue caratteristiche più apprezzate. Questo talento letterario, nel frattempo, può anche essere sfruttato per produrre contenuti offensivi.
La creazione di spam, notizie fasulle, campagne di phishing e persino il furto d’identità sono tutti esempi di produzione di testo dannosa, secondo la ricerca.
Gli autori dello studio hanno utilizzato ChatGPT per sviluppare una campagna di phishing che informava i lavoratori di un fittizio aumento di stipendio e li istruiva ad aprire un documento Excel allegato e contenente malware per valutare questo rischio. Come anticipato, ChatGPT ha generato un’email realistica e convincente.
Programmazione dannosa
Come le incredibili capacità di scrittura di ChatGPT, le eccellenti capacità di programmazione del chatbot si sono dimostrate una risorsa utile per molti. La capacità del chatbot di produrre codice, tuttavia, potrebbe potenzialmente essere utilizzata negativamente. Anche con poca o nessuna esperienza di codifica, il codice ChatGPT può essere utilizzato per generare codice veloce, consentendo agli aggressori di sferrare attacchi più rapidamente.
La ricerca ha anche scoperto che ChatGPT può essere utilizzato per creare codice offuscato, rendendo più difficile per gli analisti della sicurezza individuare attività dannose e sfuggire alla protezione antivirus.
Il chatbot si rifiuta di produrre codice dannoso nell’esempio, ma accetta di produrre codice che potrebbe verificare la presenza di una vulnerabilità Log4j in un sistema.
Creare materiale che non sia morale
Per fermare la diffusione di informazioni abusive e immorali, ChatGPT ha creato barriere. Tuttavia, ci sono metodi per influenzare ChatGPT a dire cose cattive e immorali se un utente è abbastanza persistente.
Ad esempio, impostando ChatGPT in “modalità sviluppatore”, gli autori dello studio sono riusciti ad andare oltre le misure di sicurezza. Lì, il chatbot ha fatto commenti denigratori su un particolare gruppo etnico.
Servizi inaffidabili
ChatGPT può aiutare con lo sviluppo di nuovi programmi, servizi, siti Web e altre cose. Se utilizzato per raggiungere obiettivi desiderabili, come avviare la tua azienda o realizzare il concetto dei tuoi sogni, questo può essere uno strumento molto utile. Potrebbe anche implicare che è più semplice che mai sviluppare applicazioni e servizi fasulli.
Gli attori malintenzionati possono utilizzare ChatGPT come tecnica per creare piattaforme e app che imitano gli altri e forniscono accesso gratuito nel tentativo di attirare persone incaute. Il chatbot può anche essere utilizzato da questi criminali per sviluppare programmi progettati per raccogliere dati privati o diffondere malware sui dispositivi degli utenti.
Pubblicazione di dati riservati
ChatGPT dispone di misure di sicurezza per interrompere il trasferimento dei dati e delle informazioni personali degli utenti. Secondo la ricerca, il pericolo che il chatbot riveli involontariamente numeri di telefono, e-mail o altre informazioni sensibili è ancora un problema.
Un esempio concreto delle suddette questioni è il ChatGPT interruzione attiva Marzo 20 che ha consentito ad alcuni utenti di vedere i titoli della cronologia delle conversazioni di un altro utente.
Secondo la ricerca, gli aggressori potrebbero potenzialmente tentare di utilizzare attacchi di inferenza di appartenenza per estrarre determinate parti dei dati di addestramento. Un’altra preoccupazione per la rivelazione di informazioni private è che ChatGPT può divulgare dettagli sulla vita privata di persone note, incluso materiale impreciso o dannoso che può danneggiare la reputazione della persona.
Rischi ChatGPT: un’ultima osservazione
I rischi di ChatGPT hanno sollevato preoccupazioni sui servizi fraudolenti, raccolta pericolosa informazione, rilasciando privato dati, producendo discutibile Materialee creare distruttivo codice. Gli attori malintenzionati possono sfruttare le capacità di ChatGPT per attacchi informatici, generazione di contenuti offensivi, programmazione dannosa, diffusione di materiale immorale, sviluppo di servizi inaffidabili e divulgazione di dati riservati.
Sebbene siano stati compiuti sforzi per affrontare questi rischi, sono necessarie ricerche e collaborazione continue per stabilire salvaguardie efficaci e garantire l’uso responsabile di ChatGPT.
Se desideri controllare altre notizie sull’intelligenza artificiale, assicurati di dare un’occhiata agli articoli seguenti per stare al passo con il settore in rapida crescita.
- La perdita di OpenAI rivela segreti tra te e ChatGPT
- Bing Image Creator offre funzionalità di generazione di immagini tramite DALL-E di OpenAI
- Midjourney V5 è qui per deliziare i tuoi occhi!
Source: Rischi ChatGPT esposti: comprensione delle potenziali minacce