Home Notizie recenti Semplici soluzioni per preservare la privacy in un mondo abilitato all’intelligenza artificiale...

Semplici soluzioni per preservare la privacy in un mondo abilitato all’intelligenza artificiale di frigoriferi intelligenti e fitbit

148
0

Credito: Shutterstock

La seconda legge della termodinamica afferma che l’entropia totale di un sistema – la quantità di disordine – aumenta sempre e solo. In altre parole, l’importo dell’ordine diminuisce sempre e solo.

La privacy è simile all’entropia. La privacy è sempre e solo in diminuzione. La privacy non è qualcosa che puoi ritirare. Non posso portarti via la consapevolezza che canto male le canzoni degli Abba sotto la doccia. Così come non puoi togliermi il fatto che ho scoperto come voti.

Esistono diverse forme di privacy. C’è la nostra privacy online digitale, tutte le informazioni sulle nostre vite nel cyberspazio. Potresti pensare che la nostra privacy digitale sia già persa. Ne abbiamo dato troppo ad aziende come Meta e Google. Poi c’è la nostra privacy offline analogica, tutte le informazioni sulle nostre vite nel mondo fisico. C’è speranza che manterremo la nostra privacy analogica?

Tostapane, serrature e orologi

Il problema è che stiamo collegando noi stessi, le nostre case e i nostri luoghi di lavoro a molti dispositivi abilitati a Internet: smartwatch, lampadine intelligenti, tostapane, frigoriferi, bilance, macchine da corsa, campanelli e serrature delle porte d’ingresso. E tutti questi dispositivi sono interconnessi, registrando attentamente tutto ciò che facciamo.

Nostra posizione. Il nostro battito cardiaco. La nostra pressione sanguigna. Il nostro peso. Il sorriso o il cipiglio sul nostro viso. La nostra assunzione di cibo. Le nostre visite alla toilette. I nostri allenamenti.

Questi dispositivi ci monitoreranno 24 ore su 24, 7 giorni su 7 e aziende come Google e Amazon raccoglieranno tutte queste informazioni. Perché pensi che Google abbia acquistato di recente sia Nest che Fitbit? E perché pensi che Amazon abbia acquisito due società di smart home, Ring e Blink Home, e abbia costruito il proprio smartwatch? Stanno facendo una corsa agli armamenti per conoscerci meglio.

I vantaggi per le aziende sono ovvi. Più sanno di noi, più possono indirizzarci con annunci e prodotti. C’è uno dei famosi “volani” di Amazon in questo. Molti dei prodotti che ci venderanno raccoglieranno più dati su di noi. E quei dati ci aiuteranno a indirizzarci per fare più acquisti.

Anche i vantaggi per noi sono evidenti. Tutti questi dati sulla salute possono aiutarci a vivere più sani. E le nostre vite più lunghe saranno più facili, poiché le luci si accendono quando entriamo in una stanza e i termostati si spostano automaticamente alla nostra temperatura preferita. Più queste aziende ci conoscono, migliori saranno i loro consigli. Consiglieranno solo i film che vogliamo guardare, le canzoni che vogliamo ascoltare e i prodotti che vogliamo acquistare.

Ma ci sono anche molte potenziali insidie. E se i premi dell’assicurazione sanitaria aumentassero ogni volta che perdi una lezione di ginnastica? O il tuo frigorifero ordina troppo comfort food? O il tuo datore di lavoro ti licenzia perché il tuo smartwatch rivela che hai fatto troppe pause in bagno?

Con i nostri sé digitali, possiamo fingere di essere qualcuno che non siamo. Possiamo leggere le nostre preferenze. Possiamo connetterci in modo anonimo con VPN e account di posta elettronica falsi. Ma è molto più difficile mentire sul tuo sé analogico. Abbiamo poco controllo sulla velocità del battito del nostro cuore o sulla dilatazione delle pupille dei nostri occhi.

Abbiamo già visto i partiti politici manipolare il modo in cui votiamo in base alla nostra impronta digitale. Cosa potrebbero fare di più se capissero davvero come abbiamo risposto fisicamente ai loro messaggi? Immagina un partito politico in grado di accedere al battito cardiaco e alla pressione sanguigna di tutti. Nemmeno George Orwell è andato così lontano.

Peggio ancora, stiamo fornendo questi dati analogici a società private che non sono molto brave a condividere i loro profitti con noi. Quando invii la tua saliva a 23AndMe per i test genetici, stai dando loro accesso al nucleo di chi sei, il tuo DNA. Se 23AndMe dovesse usare il tuo DNA per sviluppare una cura per una malattia genetica rara che possiedi, probabilmente dovrai pagare per quella cura.

I termini e le condizioni di 23AndMe lo rendono molto chiaro:

“Comprendi che fornendo qualsiasi campione, facendo elaborare le tue informazioni genetiche, accedendo alle tue informazioni genetiche o fornendo informazioni auto-segnalate, non acquisisci alcun diritto su alcuna ricerca o prodotto commerciale che potrebbe essere sviluppato da 23andMe o dai suoi partner che collaborano. L’utente in particolare comprendi che non riceverai alcun compenso per qualsiasi ricerca o prodotto commerciale che includa o risulti dalle tue informazioni genetiche o dalle informazioni auto-segnalate.”

Un futuro privato

In che modo, quindi, potremmo mettere in atto misure di salvaguardia per preservare la nostra privacy in un mondo abilitato all’intelligenza artificiale? Ho un paio di semplici correzioni. Alcuni sono regolamentari e potrebbero essere implementati oggi. Altri sono tecnologici e sono qualcosa per il futuro, quando avremo un’IA più intelligente e più capace di difendere la nostra privacy.

Le società tecnologiche hanno tutte termini di servizio e politiche sulla privacy lunghi. Se hai molto tempo libero, puoi leggerli. I ricercatori della Carnegie Mellon University hanno calcolato che l’utente medio di Internet dovrebbe trascorrere 76 giorni lavorativi all’anno solo per leggere tutte le cose che hanno concordato online. Ma allora? Se non ti piace quello che leggi, quali scelte hai?

Tutto quello che puoi fare oggi, a quanto pare, è disconnettersi e non utilizzare il loro servizio. Non puoi pretendere una privacy maggiore di quella che le aziende tecnologiche sono disposte a fornire. Se non ti piace che Gmail legga le tue email, non puoi usare Gmail. Peggio ancora, è meglio non inviare e-mail a nessuno con un account Gmail, poiché Google leggerà tutte le e-mail che passano attraverso il sistema Gmail.

Quindi ecco una semplice alternativa. Secondo il mio piano, tutti i servizi digitali devono fornire quattro livelli mutevoli di privacy.

Livello 1: non conservano informazioni su di te oltre a nome utente, e-mail e password.

Livello 2: conservano le informazioni su di te per fornirti un servizio migliore, ma non condividono queste informazioni con nessuno.

Livello 3: conservano informazioni su di te che potrebbero condividere con società sorelle.

Livello 4: considerano pubbliche le informazioni che raccolgono su di te.

Puoi modificare il livello di privacy con un clic dalla pagina delle impostazioni. E qualsiasi modifica è retrospettiva, quindi se selezioni la privacy di livello 1, l’azienda deve eliminare tutte le informazioni che attualmente ha su di te, oltre a nome utente, e-mail e password. Inoltre, è necessario che tutti i dati oltre il livello 1 di privacy vengano eliminati dopo tre anni, a meno che non si acconsenta esplicitamente alla loro conservazione. Pensa a questo come a un diritto digitale all’oblio.

Sono cresciuto negli anni ’70 e ’80. Le mie numerose trasgressioni giovanili, per fortuna, si sono perse nella notte dei tempi. Non mi perseguiteranno quando farò domanda per un nuovo lavoro o mi candiderò a una carica politica. Temo, tuttavia, per i giovani di oggi, i cui post sui social media sono archiviati e in attesa di essere stampati da qualche potenziale datore di lavoro o oppositore politico. Questo è uno dei motivi per cui abbiamo bisogno di un diritto digitale all’oblio.

Più attrito può aiutare. Ironia della sorte, Internet è stato inventato per eliminare gli attriti, in particolare per semplificare la condivisione dei dati e comunicare in modo più rapido e semplice. Comincio a pensare, però, che questa mancanza di attrito sia la causa di molti problemi. Le nostre autostrade fisiche hanno velocità e altre restrizioni. Forse anche l’autostrada di Internet ha bisogno di qualche limitazione in più?

Uno di questi problemi è descritto in un famoso cartone animato: “Su Internet, nessuno sa che sei un cane”. Se invece introducessimo un attrito insistendo sui controlli di identità, alcuni problemi relativi all’anonimato e alla fiducia potrebbero scomparire. Allo stesso modo, le restrizioni alla ricondivisione sui social media potrebbero aiutare a prevenire la distribuzione di notizie false. E i filtri volgarità potrebbero aiutare a prevenire la pubblicazione di contenuti che infiammano.

D’altra parte, altre parti di Internet potrebbero trarre vantaggio da un minor numero di attriti. Perché Facebook può farla franca comportandosi male con i nostri dati? Uno dei problemi qui è che non c’è una vera alternativa. Se ne hai abbastanza del cattivo comportamento di Facebook e ti disconnetti, come ho fatto alcuni anni fa, allora sei tu a soffrire di più.

Non puoi portare tutti i tuoi dati, il tuo social network, i tuoi post, le tue foto a qualche servizio di social media rivale. Non c’è una vera concorrenza. Facebook è un giardino recintato, che trattiene i tuoi dati e imposta le regole. Dobbiamo aprire questi dati e quindi consentire una vera concorrenza.

Per troppo tempo all’industria tecnologica sono state concesse troppe libertà. Cominciano a formarsi i monopoli. I cattivi comportamenti stanno diventando la norma. Molte attività su Internet sono scarsamente allineate con il bene pubblico.

Qualsiasi nuova regolamentazione digitale è probabilmente implementata al meglio a livello di stati-nazione o blocchi commerciali affiatati. Nell’attuale clima di nazionalismo, è improbabile che organismi come le Nazioni Unite e l’Organizzazione mondiale del commercio raggiungano un consenso utile. I valori comuni condivisi dai membri di tali grandi organismi transnazionali sono troppo deboli per offrire molta protezione al consumatore.

L’Unione Europea ha aperto la strada nella regolamentazione del settore tecnologico. Il regolamento generale sulla protezione dei dati e l’imminente legge sui servizi digitali e la legge sul mercato digitale sono buoni esempi della leadership dell’Europa in questo settore.

Le leggi nazionali stabiliscono dei precedenti

Anche alcuni stati-nazione hanno iniziato a fare il loro gioco. Il Regno Unito ha introdotto una tassa di Google nel 2015 per cercare di far pagare una giusta quota di tasse alle aziende tecnologiche. E poco dopo le terribili sparatorie a Christchurch, in Nuova Zelanda, nel 2019, il governo australiano ha introdotto una legislazione per multare le aziende fino al 10% delle loro entrate annuali se non riescono a rimuovere abbastanza rapidamente materiale violento ripugnante. Non sorprende che multare le aziende tecnologiche una frazione significativa del loro fatturato annuo globale sembra attirare la loro attenzione.

È facile respingere le leggi in Australia come in qualche modo irrilevanti per le multinazionali come Google. Se sono troppo irritanti, possono semplicemente ritirarsi dal mercato australiano. Gli account di Google difficilmente noteranno il calo delle loro entrate mondiali. Ma le leggi nazionali spesso stabiliscono precedenti che vengono applicati altrove. L’Australia ha continuato con la propria tassa di Google solo sei mesi dopo il Regno Unito.

La California ha introdotto la propria versione del GDPR, il California Consumer Privacy Act, appena un mese dopo l’entrata in vigore del regolamento in Europa. Tali effetti a catena sono probabilmente la vera ragione per cui Google ha argomentato così apertamente contro il nuovo Media Bargaining Code australiano. Temono molto il precedente che tramonterà.

Questo mi lascia con una soluzione tecnologica. Ad un certo punto in futuro, tutti i nostri dispositivi conterranno agenti di intelligenza artificiale che ci aiutano a connetterci e possono anche proteggere la nostra privacy. L’IA si sposterà dal centro verso il bordo, lontano dal cloud e sui nostri dispositivi. Questi agenti di intelligenza artificiale monitoreranno i dati in entrata e in uscita dai nostri dispositivi. Faranno del loro meglio per garantire che i dati su di noi che non vogliamo condivisi non lo siano.

Forse oggi siamo al minimo tecnologico. Per fare qualcosa di interessante, dobbiamo inviare i dati nel cloud, per attingere alle vaste risorse di calcolo che si possono trovare lì. Siri, ad esempio, non funziona sul tuo iPhone ma sui vasti server di Apple. E una volta che i tuoi dati lasciano il tuo possesso, potresti anche considerarli pubblici. Ma possiamo aspettarci un futuro in cui l’IA è abbastanza piccola e intelligente da funzionare sul tuo dispositivo stesso e i tuoi dati non devono mai essere inviati da nessuna parte.

Questo è il tipo di futuro abilitato all’intelligenza artificiale in cui la tecnologia e la regolamentazione non solo aiuteranno a preservare la nostra privacy, ma addirittura la miglioreranno.


Questo articolo è stato ripubblicato da The Conversation con licenza Creative Commons. Leggi l’articolo originale.La conversazione

Articolo precedenteSpinta per batterie migliori nell’elettronica di consumo
Articolo successivoIl rumore e le vibrazioni sono i principali fattori di disagio dei passeggeri a bordo degli aerei ad elica