Quando scarichiamo le tanto famigerate app da internet ci accorgiamo che spesso sono accompagnate da tante, anzi moltissime recensioni che sembrano celare un desiderio, una debolezza o una ricerca di attenzione da parte di chi le scarica. Un esempio di questa necessità di comunicare o di intavolare rapporti con chicchessia, che magari non si riescono a costruire nel mondo reale, è rappresentato dall’app Replika, un’applicazione statunitense di tipo chatbot dotata di un algoritmo di intelligenza artificiale programmato per creare “un amico virtuale”.
Una recensione di fine dicembre 2022 afferma:
“Questa app è fantastica! Replika capisce tutto! È molto dolce con me! Consiglio questa app a tutti coloro che non hanno amici”.
Ma questa app è veramente la soluzione ideale per chi è solo? Decisamente no! A dirlo è stato addirittura una provvedimento dell’Autorità Garante, che ha disposto, nei confronti della società americana proprietaria dell’algoritmo, un provvedimento di limitazione provvisoria del trattamento dei dati.
Questo in quanto le recenti notizie di stampa e l’attività istruttoria condotta dal Garante hanno evidenziato che l’applicazione presenta concreti rischi per i minori d’età, a partire dalla proposizione ad essi di risposte assolutamente inidonee al loro grado di sviluppo e più in generale per le caratteristiche dell’algoritmo di influenzare l’umore di una persona.
Un rischio inerente il trattamento elevatissimo a dispetto dei pochi dati forniti in fase di registrazione (nome, e-mail, genere). Un’altra famosa chatbot dotata di uno specifico algoritmo di intelligenza artificiale e machine learning è ChatGPT, un’applicazione programmata per simulare un dialogo tra due persone. Il suo funzionamento si basa su GPT_3 (Generative Pre-trained Transformer 3) un modello algoritmico di proprietà di elaborazione del linguaggio naturale, addestrato utilizzando un’enorme quantità di dati. Gli Instruct GPT sono ottimizzati grazie all’intervento umano che li rende fluidi nella risposta e aumenta la chiarezza espositiva, come mai avvenuto in passato. Il risultato è quello di ottenere risposte da ChatGPT apparentemente ineccepibili, ma non sempre corrette o, peggio, ancora del tutto corrette.
Uno studio universitario pubblicato a gennaio 2023 (Generative Language Models and Automated Influence Operations: Emerging Threats and Potential Mitigations condotto da Georgetown University’s Center for Security and Emerging Technology; OpenAI e Stanford Internet Observatory) ha evidenziato proprio il rischio di una disinformazione generalizzata. Ma i rischi non finiscono qui; Ermes, la società specializzata in cybersecurity nata in seno al Politecnico di Torino, ha individuato un ulteriore rischio nel c.d. “spear phishing“. Si tratta di una tecnica di phishing che consiste nell’indurre l’interessato a fornire i propri dati personali e ciò viene fatto sfruttando link che conducono a pagine quasi identiche all’originale.
Su una cosa sembra veramente bravo ChatGPT: la scrittura di codice. Il problema è che a detta degli esperti – si legge su di un articolo comparso sul Sole 24 Ore a cura di Alessandro Longo del 11 gennaio 2023 – pure i cybercriminali stanno utilizzando la funzione di ChatGPT per scrivere codici malevoli.
Conviene fermarsi un momento e tornare alla nostra recensione: Cosa potrebbe scrivere il nostro anonimo utente di Replika in merito a ChatGPT ? e ancora quanto tempo dovrà passare prima che la nostra Autorità Garante si occupi anche di questo algoritmo ?
Da queste brevi considerazioni emergono temi sociali ed etici delicati che non possono essere demandati ad algoritmi prodotti da imprenditori, che mirano (ovviamente) al profitto, ma richiedono una regolamentazione seria ed affidabile, come si propone di fare la bozza di regolamento europeo sull’intelligenza artificiale proposta ad aprile 2021 dal Parlamento Europeo.
FONTE: Federprivacy – Avv. Marco Soffientini, avvocato esperto di protezione dei dati personali, Data Protection Officer di Federprivacy.