COMUNICAZIONE

Perché il garante della privacy ha bloccato chatGPT?

ChatGPT è una piattaforma di intelligenza artificiale che permette di dialogare con un algoritmo in grado di generare testi coerenti e realistici a partire da una parola o una frase. Tuttavia, il suo funzionamento presenta dei rischi per la privacy e la sicurezza degli utenti, che hanno indotto il Garante della privacy a bloccarne l’uso in Italia.

Secondo il Garante, ChatGPT viola la normativa sulla protezione dei dati personali in diversi modi:

  • Non fornisce una informativa chiara e trasparente sui dati che vengono raccolti e trattati dalla piattaforma, sia quelli provenienti dal web sia quelli forniti dagli utenti stessi durante le conversazioni.
  • Non ha una base giuridica valida per la raccolta e la conservazione dei dati, che vengono usati per addestrare l’algoritmo e migliorarne le prestazioni.
  • Non garantisce la sicurezza e la riservatezza dei dati, come dimostrato dal bug del 20 marzo 2023 che ha reso accessibili le conversazioni e le informazioni di pagamento degli utenti ad altri utenti della piattaforma.
  • Non ha un sistema di verifica dell’età degli utenti, esponendo i minori a risposte inadeguate o potenzialmente dannose per il loro sviluppo e autoconsapevolezza.

Il Garante ha quindi imposto a OpenAI, la società statunitense che ha sviluppato e gestisce ChatGPT, di bloccare il servizio per gli utenti italiani fino a quando non adeguerà la piattaforma alle richieste dell’autorità. In caso contrario, OpenAI potrebbe incorrere in sanzioni amministrative fino a 20 milioni di euro o al 4% del fatturato annuo globale .

ChatGPT rappresenta un esempio di come l’intelligenza artificiale possa offrire opportunità ma anche sfide per la società. È necessario quindi regolamentare il suo sviluppo e il suo impiego in modo da garantire il rispetto dei diritti e delle libertà delle persone, nonché la sicurezza e l’affidabilità dei sistemi.

Lascia un commento