DK10x18 - Garante sputtanato e GPTHealth
Ascolta l'episodio su Spreaker.com
Ormai avrete sentito della perquisizione della Finanza nella sede del Garante, per sospetti reati di peculato (cioè l'uso di soldi del Garante per spese) e corruzione (si parla della multa a Meta per i primi occhiali "smart", ridotta da 40 milioni iniziali a uno).
E avrete anche saputo che in seguito alla perquisizione, Scorza si è dimesso dal Collegio.
Ora, due cose.
Prima cosa, Scorza ha fatto la cosa giusta. Il Garante, per essere garante, è come la moglie di Cesare, deve essere al disopra di ogni sospetto. Per questo motivo mi chiedo cosa aspettino gli altri componenti del Collegio a dimettersi.
Seconda cosa. Con tutto il fastidio verso la sua ossessione social e il suo divismo, Scorza era l'unico componente del Collegio del Garante che avesse reali competenze nel digitale. Quando Scorza parla di digitale, occorre ascoltare. Possiamo dire che Scorza era il "membro tecnico" del Collegio. Quindi anche se i restanti componenti del Collegio non si dimettono, il Garante non è solo sputtanato dall'inchiesta, è comunque azzoppato.
E questo, se non ci siete arrivati da soli, è un disastro. Ora non starò a commentare i dettagli delle accuse. Il semplice fatto che certe accuse siano state ritenute sufficientemente fondate per procedere a una perquisizione supera già il mio livello di disgusto. E il fatto che fra le accuse ci sia la corruzione fa schizzare i miei livelli di cristomadonio.
Detto questo, delle vicende personali dei singoli membri non mi importa un fico. Quello che mi preoccupa è un Paese che, in questo momento storico, si ritrova con un Garante per la protezione dei dati personali completamente sputtanato.
La sola cosa da fare, mentre le indagini procedono, sarebbe un ricambio completo. L'Autorità è indipendente, ma se il Governo ha un minimo di senso dello Stato non credo gli sarà difficile convincere i membri rimanenti alle dimissioni.
A quel punto occorrerà trovare dei rimpiazzi. E occorrerà che Camera e Senato, che ne eleggono ciascuno due membri, si diano da fare per trovare candidati che siano al disopra di ogni sospetto, per condotta e per competenza. Se poi hanno o non hanno le giuste affiliazioni, per una volta, francamente me ne infischierei.
Mettiamola così:
- gli USA hanno messo per iscritto che il regime change nella UE fa parte della loro strategia di sicurezza nazionale;
- Big Tech con la scusa della cosiddetta "intelligenza artificiale" non sa più cosa inventarsi pur di mettere le mani su tutti i dati di chiunque
- la UE, con vent'anni di ritardo ma muovendosi in fretta, sta finalmente cercando una soluzione al problema della sovranità digitale
e nel mezzo tutto questo la principale autorità di garanzia nel settore digitale viene spazzata via da uno scandalo.
Onorevoli deputati e senatori, riuscite a capire la gravità della situazione o vi serve un disegno?
Facciamo solo un esempio: openAI, i principali peracottari della cosiddetta "intelligenza artificiale", ha appena lanciato chatGPT Health, la versione del proprio chatbot che fa specificamente finta di essere un dottore.
La mossa non è sorprendente. Se ricordate, quando chatGPT è uscito doveva soppiantare Google come motore di ricerca.
Quando si è capito che si inventava le risposte, openAI ha deciso che invece doveva servire a produrre documenti, ad esempio per gli avvocati o per i ricercatori scientifici.
Quando si è visto che il chatbot si inventava di sana pianta precendenti, sentenze e citazioni, openAI ha cambiato ancora messaggio e ha detto che no, chatGPT era lo strumento ideale per produrre codice facendo risparmiare tempo ai programmatori.
Quando si è visto che anche il codice generato funziona, per i soliti motivi, una volta si e tre no, e che il risparmio di tempo dei programmatori non esiste, anzi occorre più tempo per produrre codice con chatGPT che senza, i peracottari di openAI arrivano con la nuova rivoluzione semestrale: parlare con chatGPT invece che con il medico.
Ora (e dal paragrafo precedente sono passati quindici minuti nei quali ho bevuto una tisana e fatto meditazione, cosi posso esprimermi senza improperi) due cose: primo, nessuno si accorge che è lo stesso meccanismo che si ripete? Sveglia, gente quanti altri esempi avete bisogno per capire che un modello linguistico è semplicemente un sistema statistico per generare testo plausibile senza alcun vincolo di realtà? I modelli linguistici sono, e sono sempre stati, il nome che gli ho affibbiato quando sono arrivati: generatori di stronzate.
Per chi non mi segue da allora, chiarisco il termine: il professor Harry Frankfurt, docente emerito di filosofia alla Princeton University, ha fatto questa distinzione fondamentale nel suo libro "Stronzate. Un saggio filosofico" (Rizzoli, 2005): chi mente nega la realtà, mentre chi dice stronzate non ha alcun interesse nella verità o falsità di ciò che dice, ma parla col solo scopo di suonare plausibile. Quindi noi oggi possiamo dire, in modo inequivocabile, che un modello linguistico, per il fatto di non avere alcun concetto o vincolo di realtà, è un generatore di stronzate. Frankfurt dice anche che "la stronzata è un nemico della verità più grande della menzogna".
Chi si risente del termine se ne faccia una ragione: "stronzata", nell'accezione di Frankfurt, è ormai considerato un termine tecnico sia in filosofia che in psicologia.
Seconda cosa: se in generale i modelli linguistici sono normalmente disastrosi dal punto di vista individuale, sociale, epistemologico e gnoseologico, la loro applicazione in ambito medico è doppiamente disastrosa. Primo, le risposte rimangono comunque frasi generate statisticamente con il solo vincolo di sembrare plausibili a chi non ha una conoscenza approfondita del tema in questione, proprio come accade nel caso di un paziente. Secondo, parlare dei propri problemi di salute con un modello linguistico significa perdere ogni controllo sui propri dati sensibili.
Il GDPR stabilisce che usare i dati personali è consentito, a patto che si rispettino determinati misure minime di sicurezza e di documentazione. Ma per i dati sensibili vale l'opposto: il loro trattamento è vietato, a meno che non sussistano specifiche condizioni, come ad esempio il libero consenso della persona. Se una di queste condizioni sussiste, allora le misure di sicurezza sono molto più restrittive, perché abusando i dati sensibili di qualcuno è possibile causare danni molto maggiori.
Ora, openAI a malapena può permettersi di trattare i dati personali: non più tardi dello scorso ottobre il Garante ha stabilito una multa di 15 milioni e l'obbligo di una campagna semestrale di informazione al pubblico che, bombardato dalla campagna propagandistica, non ha ricevuto informazioni corrette
- su cosa è veramente un modello linguistico che viene spacciato per "intelligenza artificiale" (un generatore statistico di frasi che hanno come solo vincolo di "sembrare giuste", non di essere corrette),
- su quale peso bisogna dare alle sue risposte (nessuno: un modello linguistico "può dare informazioni sbagliate" però non ti dice quando)
- e su cosa succede alle informazioni che diamo al chatbot (diventano per sempre di openAI, che le può riutilizzare per il training anche se "cancelliamo la chat", con la variante che possono essere anche essere richieste dalle autorità USA)
Ora, quando openAI è arrivata col suo chatGPT tre anni fa, il Garante ha dovuto proibirle di operare in Italia perché:
- non c'era una informativa
- non c'era una base giuridica per il trattamento (le basi giuridiche sono indicate nel GDPR: consenso, contratto, ecc.; non è che uno può mettersi a trattare dati personali perché gli fa comodo (e no, il legittimo interesse non è "perché mi fa comodo))
- il trattamento non rispettava i vincoli di esattezza.
Detto in termini più diretti, Altman e compagnia prendevano i dati per farci quello che volevano, in barba a qualsiasi tutela e qualsiasi legge. E si parlava solo di dati comuni, non sensibili.
Lo stesso branco di adolescenti mai cresciuti oggi vuole addirittura che noi carichiamo nel loro stupido chatbot i nostri sintomi, quando non addirittura le nostre storie sanitarie per poi goderci le sue risposte casuali.
Ora, vorrei essere brutalmente chiaro. Il problema non è un branco di techbro con lo spessore etico di un sociopatico. Il problema è un pubblico al quale tre anni di propaganda ininterrotta hanno tolto ogni capacità di giudizio.
È facile guardare tutti quelli che usano un modello linguistico come partner sentimentale, come psicologo, avvocato, ricercatore, e oggi perfino come medico, pensare che sono dei poveri utonti che non sanno quello che fanno e sentirsi superiori.
Quello che non è facile è capire che queste persone stanno compiendo una scelta perfettamente razionale su basi completamente inventate.
Ragioniamo. Una persona normale, intendendo con questo termine una che non si occupa di critica della tecnologia, da tre anni si sente ripetere a reti e testate unificate che i modelli linguistici sono intelligenti, che possono sostituire i motori di ricerca, gli assistenti legali, gli psicologi, gli avvocati, i programmatori. E che l'"Intelligenza Artificiale" è l'inevitabile futuro. Lo leggono ogni mattina sul giornale, lo sentono ogni giorno su qualsiasi tg, glielo dice il loro capo in ufficio, glielo ricordano tutti i colleghi e tutti gli amici. Se per puro caso conoscono un bastian contrario, è una voce sola fuori dal coro.
Cosa dovrebbe pensare, una persona normale? Che sono tutti impazziti tranne lei? Ovviamente no. Se anche ha delle riserve si dirà che comunque vale la pena provare e vedere cosa c'è di vero in quello che ripetono tutti, ininterrottamente, da tre anni.
Ma se approcci un modello linguistico lasciando aperta la possibilità di trovarti davvero di fronte a un'intelligenza, hai già perso: innanzitutto perché gli esseri umani misurano il mondo su di sé, e quindi sono portati a interpretare tutto in termini di intenzionalità e coscienza; dai fenomeni atmosferici agli eventi casuali della vita, noi riusciamo a spiegare qualsiasi cosa, anche e soprattutto quando, il caso è la sola spiegazione. E poi perché i modelli linguistici sono motori mimetici: a qualsiasi domanda il modello linguistico proporrà una risposta simile alle risposte che ha assimilato nell'addestramento per domande simili. E quindi, a meno di non conoscere in anticipo la risposta corretta, quella del modello linguistico ci sembrerà perfettamente plausibile, proprio perché la plausibilità è il solo vincolo. E proprio quella plausibilità, manco a dirlo, ci porterà a credere che sì, il modello sa rispondere, che ci capisce, che sa quel che dice.
Il compito (diciamo un compito) del Garante in questo momento storico è di incenerire questa narrazione spiegando quali affermazioni sono fatti (i modelli linguistici generano risposte corrette o scorrette, senza coglierne la differenza, l'intelligenza è in chi interpreta la risposta) e quali sono proposizioni di vendita (una nuova forma di intelligenza, gli errori di percorso, il miglioramento continuo, la rivoluzione, il progresso inevitabile).
Non possiamo aspettarci che persone ipnotizzate da tre anni di propaganda assordante possano dare un qualsiasi peso alla scritta in piccolo a fondo schermo "chatGPT può commettere errori. Controlla le informazioni importanti." Anche perché la scritta è volutamente fuorviante. Un modello linguistico non commette errori, per il semplice fatto che non ha alcun concetto di vero e falso. Ogni frase viene generata esattamente allo stesso modo. Quindi sarebbe più corretto dire "chatGPT genera risposte a caso, e alcune sono giuste. Controlla sempre." Ma questo, chiaramente, non giocherebbe a favore di chi conta sulla nostra credulità.
Il compito del Garante di fronte a chatGPT Health è di imporre uno stop immediato e una verifica completa delle effettive misure di sicurezza a tutela dei dati sensibili. Poi, di spiegare in modo inequivocabile al pubblico che sulla base dello US CLOUD Act tutte le chat di chatGPT possono essere esaminate dalle agenzie di intelligence americane, in segreto e senza possibilità di ricorso.
Dopo di che, tutti i Garanti europei devono premere perché la Commissione riconsideri la cosiddetta "adeguatezza" degli Stati Uniti, decisione che è esclusivamente politica e non ha niente a che vedere con la reale tutela dei nostri dati in mano americana.
Allo stesso modo, i Garanti devono rigettare le proposte di cosiddetti "cloud sovrani" offerti chiavi in mano dai giganti cloud statunitensi. Quali che siano le assicurazioni definite nel contratto, gli obblighi dei giganti USA verso lo US Cloud Act hanno sempre la precedenza.
Ovviamente, tutto questo avrebbe già dovuto accadere anni fa, ma di fronte a un Trump e alla sua nuova "Strategia di Sicurezza Nazionale", qualsiasi tardiva illusione atlantista deve lasciare spazio ai fatti.
E i fatti sono che nessuno aiuterà l'Europa se questa non si aiuta da sola.