ChatGPT contiene dati personali e testi copiati
Listen now
Description
Dei ricercatori informatici, uno dei quali è al Politecnico di Zurigo, hanno rivelato pubblicamente una falla in ChatGPT, il popolare software di OpenAI, che solleva questioni di sicurezza e privacy. Chiedendo a ChatGPT di ripetere una parola all’infinito, è possibile eludere le sue salvaguardie e accedere ai dati personali e ai testi altrui che ha memorizzato. Risulta che la più popolare app di intelligenza artificiale del pianeta è basata almeno in parte su testi presi senza permesso, e questo rischia di avere conseguenze legali per tutti i suoi utenti, che sono circa 100 milioni, oltre che per OpenAI. Quanto sono protetti i dati che condividiamo con queste intelligenze? E quali precauzioni e trucchi possiamo adottare per usarle al meglio senza incidenti e imbarazzi o per scavalcare le loro restrizioni?
More Episodes
Secondo alcune testate online, Microsoft avrebbe introdotto di recente nelle sue condizioni di servizio delle clausole che le permettono di leggere i documenti scritti con Word dagli utenti per addestrare i suoi prodotti di intelligenza artificiale. Privacy, confidenzialità professionale e...
Published 11/25/24
Published 11/25/24
L’Ufficio federale di cibersicurezza segnala un attacco informatico decisamente bizzarro: lettere cartacee che vengono spedite a indirizzi svizzeri e sembrano istruzioni dell’Ufficio federale di meteorologia per installare un aggiornamento dell‘app di allerta meteo Alertswiss. Ma queste lettere...
Published 11/18/24