Questo articolo è stato scritto da Davide Chiarini. Dottore in Web Marketing e imprenditore nel digitale dal 2014. SEO, digital marketer e copywriter con un background nel branding e nello sviluppo front-end di siti web.

Da sempre sono affascinato dalla tecnologia e mi piace sfruttarla per trovare soluzioni creative. Amo collaborare con le persone per scoprire nuove prospettive e per innovare insieme in ogni ambito, anche in cucina, ma non provate a fare una carbonara coi Bitcoin.


Entri in una caffetteria e dopo aver fatto un acquisto il barista ti segue. Entri in un taxi ed il tuo percorso è condiviso e tracciato da molte altre persone per sapere dove vai. Apri un piano d’accumulo in banca e i tuoi dati vengono forniti a terzi. Ti rifugi in un supermercato e ogni prodotto che acquisti viene analizzato per capire il tuo pattern di comportamento.
Così l’ultima pubblicità di Apple per iOS 15 ci presenta attraverso la personificazione dei cookie una realtà che rischia di sfuggirci di mano.
È il momento di riprendere il controllo su che dati cediamo, ma soprattutto è necessario informare chiaramente ciò che cediamo cliccando sul pulsante “accetta”.

Proteggere i propri dati

La mercificazione delle ICT (information and communication technologies) digitali avviata negli anni Settanta e la conseguente diffusione di una società dell’informazione globale a partire dagli anni Ottanta, stanno progressivamente mettendo in discussione il diritto alla privacy.

Come persone che abitano l’infosfera, ci stiamo abituando all’idea che il flusso dell’informazione sia pervasivo e capace di attraversare ogni limite. Tuttavia, come Virginia Woolf scriveva in un saggio su Montaigne che pubblicò nel 1925 nel testo Il lettore comune: «Noi […] abbiamo una vita privata e la consideriamo di gran lunga il più prezioso dei nostri beni».
Nel presente, è difficile proteggere questo bene prezioso in un ambiente sociale sempre più dipendente dalla tecnologia.
Il problema è urgente ed è diventato una delle questioni che caratterizza il nostro tempo.

Quando si raccolgono dati sulle persone, derivano automaticamente delle responsabilità.
Se si vogliono prendere decisioni data-driven, è necessario rispettare delle leggi che tutelano la privacy.
Gli entusiasti dei big data sono sempre alla ricerca di una migliore qualità dei dati e di nuovi database, ma la privacy dell’utente finale è un diritto umano e va rispettato.
Le rivelazioni fatte da Edward Snowden hanno allargato il dibattito ad un pubblico molto più ampio.
Per un pubblico generico, il tracciamento dei visitatori di un sito web per scopi commerciali è indifferente rispetto a quello fatto dalle agenzie governative.
Il risultato è una percezione di paura e invasività quando si parla di questo argomento. In particolare, si ha la sensazione che un giorno quei dati saranno usati contro di noi.
Le parole di Snowden hanno generato un maggiore senso di consapevolezza e stanno piano piano riportando bilanciato il rapporto tra l’azienda e le persone.
D’altronde usare Internet porta inevitabilmente alla creazione di una scia di informazioni, la differenza sta in quali dati decidiamo di cedere, sapere come verranno trattati e conoscere cosa avremo in cambio.


Quale tipo di informazioni vengono raccolte?

Se leggiamo un libro sul Kindle di Amazon, sull’iPad, o su Google Books stiamo producendo dati molto precisi su quanto tempo impieghiamo a leggere una pagina, in quale punto ci fermiamo per prendere una pausa e quali passaggi sottolineiamo. Se invece lo acquistiamo in un negozio fisico il GPS nel nostro telefono potrebbe condividere la posizione oppure se collegati ad un Wi-Fi ci penserebbe la Wi-Fi triangulation a capirlo. Se abbiamo pagato con la carta di credito o con quella di addebito, l’acquisto è stato registrato nella cronologia delle transazioni. La banca collegata venderà quell’informazione agli aggregatori di big data e a vari compratori che la rivenderanno non appena possibile.

Quando si tratta di data collection ci sono diversi tipi di informazioni sui clienti che possono essere raccolte.

Esistono le informazioni anonime ovvero quelle raccolte sulle visite alle pagine online senza l’uso di alcuna tecnologia invasiva. Tipicamente esse rappresentano i dati standard inviati con qualsiasi richiesta web o Internet.
Tali informazioni includono l’indirizzo IP, il tipo di dominio, la versione e il tipo di browser, il sistema operativo, la lingua del browser e l‘ora locale.

Ci sono poi le informazioni personali non identificabili. Con questo termine ci si riferisce a quegli insight che presi da soli non possono essere utilizzati per identificare o localizzare un individuo.
Sono dati come età, data di nascita, sesso, occupazione, istruzione, reddito e codice postale senza indirizzo.
Anche interessi e hobby rientrano in questa categoria.
Chi naviga in Internet deve avere la possibilità di esprimere in modo esplicito il permesso per divulgare questi dati. Inoltre, le informazioni personali non identificabili spesso comportano anche l’uso di tecnologie di tracciamento come i cookie.
Tali tecniche, sebbene non si riferiscano ad un cliente individualmente, consentono di delineare il suo profilo in modo molto efficace, la cosiddetta profilazione.

Esistono infine le informazioni di identificazione personale, quelle che possono essere utilizzate per identificare o localizzare un individuo. Questi dati includono indirizzi e-mail, nome, indirizzo dell’abitazione, numero di telefono, numero di fax, numero di carta di credito, numero di previdenza sociale e così via.
Tali informazioni sono quasi sempre raccolte in modo esplicito e in genere vengono prese quando gli utenti si registrano su siti web o effettuano transazioni finanziarie.


Il valore del dato sul mercato

Una delle sfide delle organizzazioni che gestiscono i dati personali è che quando sfruttano il valore di tali dati, le norme sociali e quelle di mercato possono entrare in conflitto.
Ad esempio, condivido ogni tipo di informazione su di me con il mio medico e sebbene possa aspettarmi che venga utilizzata per il bene degli altri (norme sociali) non mi aspetto che venga venduta alle compagnie di assicurazione (norme di mercato).
Allo stesso modo, potrei condividere informazioni che rendono più facile per i marchi fare affari con me (norme sociali), ma potrei non aspettarmi che le utilizzino per pubblicità mirata (norme di mercato).
I marchi devono essere quindi consapevoli del contesto in cui le informazioni vengono condivise, poiché ci sono presupposti impliciti sull’uso ragionevole e sulla condivisione dei propri dati.

Con i big data che promettono informazioni preziose a chi li analizza, tutti i segnali sembrano indicare un’ulteriore impennata nella loro raccolta, archiviazione e utilizzo.
Il punto essenziale è che un cambiamento di scala porta a un cambiamento di stato. Questa trasformazione non solo rende la protezione della privacy molto più difficile, ma presenta anche una minaccia completamente nuova: le sanzioni basate sulle propensioni.
È la possibilità di utilizzare le previsioni sulle persone ricavate dai big data per giudicarle e punirle ancor prima che abbiano agito. Così facendo si negherebbero le idee di equità, giustizia e libero arbitrio. Oltre alla privacy e alla propensione, c’è un terzo pericolo.
Rischiamo di cadere vittima di una dittatura dei dati, per cui si feticizzano le informazioni, l’output delle analisi, e si finisce per abusarne.

Gestiti in modo responsabile, i big data sono uno strumento utile per prendere decisioni razionali. Usati incautamente, possono diventare uno strumento dal potere sbilanciato.
Adam Alter nel suo libro Irresistibile sottolinea l’ascesa delle dipendenze comportamentali nella società contemporanea. Molte persone trovano sempre più difficile spegnere alcuni aspetti di Internet.
È il caso degli A/B test sfruttati nell’industria dei videogiochi come World of Warcraft. I progettisti possono sottoporre a campioni diversi di giocatori missioni diverse. Per esempio, si potrebbe scoprire che la missione che chiedeva di salvare una persona ha spinto gli utenti a tornare a giocare più spesso del 30%. Se si testano molte missioni e si trovano nuovi campioni vincitori, i miglioramenti del 30% si sommano, finché non si ottiene un gioco che cattura le persone per sempre più tempo.

Perchè condividere le nostre attività sul web?

Prima di addentrarci nelle derive negative a cui potremmo arrivare con i big data, guardiamo ai pro e contro che possono derivare dalla condivisione dei propri dati con le aziende.

Dalla parte dei pro, rinunciando ad una parte di privacy le persone possono accedere a contenuti e servizi gratuitamente come quelli offerti da Google e Facebook; si possono personalizzare meglio tali servizi come le raccomandazioni di Amazon; si riducono le spese di ricerca, come Google che ci permette ogni giorno di accedere facilmente alle informazioni che vogliamo; infine, si hanno interazioni più efficienti coi venditori e i loro siti.

Dall’altro lato, nei contro, ci sono costi che i consumatori possono dover pagare sia per la violazione della privacy sia per la divulgazione dei dati.
Si possono distinguere danni alla privacy soggettivi e oggettivi. Quelli soggettivi sono relativi alla perdita di controllo: ansia, paura, disagio psicologico nel sentirsi sorvegliati o imbarazzo associato all’esposizione pubblica. I danni oggettivi, invece, sono ad esempio il furto d’identità.
L’altro punto critico è rappresentato dalla divulgazione dei dati. Si distinguono tre modi in cui i consumatori possono vedere diffuse le proprie informazioni:

  • le persone possono commettere errori poiché non comprendono appieno cosa potrebbe accadere se rivelano troppo su sé stessi;
  • il ciclo di vita in cui operano i dati personali è ora così complesso che è impossibile capire quando è meglio divulgare i dati e quando no;
  • anche se fossimo in grado di accedere a informazioni complete, i bias cognitivi porteranno a comportamenti che sono sistematicamente diversi da quelli previsti dalla teoria della scelta razionale.

GDPR o come proteggere le nostre identità online

Il 2019 si è aperto con un’importante conferenza ospitata a Bruxelles da Margrethe Vestager, commissaria europea alla Concorrenza, nella quale si sono levate molte voci critiche rispetto a una visione priva di vincoli nel capitalismo digitale. In particolare, il premio Nobel Jean Tirole ha proposto una revisione delle norme antitrust per evitare uno strapotere da parte delle principali aziende digitali.
Queste norme colpiscono non la dominanza, ma gli abusi di posizione dominante ovvero quei particolari comportamenti posti consapevolmente in essere da imprese dominanti con il fine di sfruttare la propria posizione di forza verso i consumatori (abuso da sfruttamento) o verso le imprese concorrenti (abuso da impedimento).

Per evitare il rischio che al monopolio a monte corrisponda una dominanza a valle, questo tipo di industrie è spesso soggetta a una forma di regolazione pro-concorrenziale delle posizioni dominanti, volta a disciplinare le condizioni di accesso alla rete, quali prezzi e qualità, nonché le tutele accordate ai consumatori.
Le grandi piattaforme online data-driven sono spesso descritte come dominanti, a causa della loro rilevanza, della loro dimensione globale e della loro capacità di analizzare e usare enormi fonti di dati per influenzare sia la domanda sia l’offerta.
Tali norme servono per prevenire esiti irreversibili nella concorrenza e nei diritti delle persone.

In quest’ottica, la commissione europea ha cercato di tutelare maggiormente i consumatori con l’entrata in vigore del Regolamento generale per la protezione dei dati personali 2016/679, chiamato GDPR (General Data Protection Regulation). L’obiettivo del GDPR è fornire un quadro normativo unico che offra ai clienti più diritti, accresca l’impegno per la conformità e semplifichi lo scambio di dati personali all’interno dell’UE, ma stabilisca anche regole e procedure per il controllo dei danni e le situazioni di recupero. Questo nuovo regolamento prevede:

  • maggiore tutela delle persone attraverso regole più chiare in materia di informativa e consenso sul trattamento dei dati;
  • maggiore trasparenza e chiarezza sia nel trattamento dei dati sia nell’esercizio dei diritti da parte dell’utente;
  • il consenso al trattamento deve essere esplicito, preventivo e inequivocabile;
  • limitazioni nell’uso di sistemi automatizzati per la profilazione (anche se tramite il consenso esplicito dell’utente si possono fare);
  • il diritto all’oblio ovvero la possibilità di ottenere la cancellazione dei propri dati da parte del titolare del trattamento;
  • il divieto a trasferire i dati personali verso paesi fuori dell’Unione Europea o verso organizzazioni internazionali che non rispondono agli standard di adeguatezza;
  • in caso di violazione dei dati (data breach) l’interessato e l’autorità di controllo devono esserne informati tempestivamente;
  • l’introduzione della figura del Data Protection Officer (DPO) che deve vigilare sul corretto trattamento dei dati da parte dell’azienda.

L’arma dei consumatori: la propria opinione

L’introduzione del GDPR ha posto maggiore attenzione sull’utilizzo dei dati, ma due sono ancora i pericoli da affrontare: le corporation e i governi potenziati.
I ricercatori Oded Netzer, Alain Lemaire e Michal Herzenstein hanno cercato dei metodi per predire le probabilità di restituzione di un prestito da parte di un contraente. Utilizzando i dati di Prosper, un sito di prestiti peer-to-peer, hanno guardato al linguaggio dalle persone nel chiedere un prestito. È risultato che chi fornisce spiegazioni su un piano di rientro dettagliato e cita impegni mantenuti in passato ha più probabilità di restituire un prestito. Invece, chi nomina parole come “pagherò”, “ospedale” o “prometto” non lo farà.
Nell’immediato futuro, un cliente in cerca di un prestito potrebbe doversi preoccupare non solo della propria storia finanziaria, ma anche della propria attività online o delle parole che dice.

Da tempo le persone vengono giudicate secondo parametri non direttamente collegati all’azione che si deve compiere.
Ad esempio, in un colloquio di lavoro si guarda alla stretta di mano o agli abiti indossati.
Tuttavia, il pericolo di una rivoluzione dei dati è che questi giudizi si facciano sempre più invadenti. Infatti, previsioni migliori possono portare a una discriminazione più sottile e crudele.

È legittimo avere il timore che alcune aziende abbiano aumentato i poteri sulle persone con l’avvento del digitale, ma dall’altra parte i consumatori hanno un’arma importante da poter sfruttare per difendersi: la loro opinione. Gli aggregatori di recensioni come Yelp, o quelli di assicurazioni come Facile.it, permettono ai clienti di decidere quali aziende evitare e quali scegliere.
In ogni caso è importante che vi sia e si mantenga un equilibrio nello scambio di valore.

Esiste poi il rischio dei governi potenziati per cui si potrebbe agire sugli intenti delle persone in modo preventivo.
Esiste infatti una correlazione tra le ricerche su Google riguardanti l’argomento crimine e i crimini commessi nella realtà.
Tuttavia, perseguire qualcuno perché ha cercato un determinato termine su un motore di ricerca sarebbe una grande violazione della privacy: c’è un forte scarto etico tra un governo che possiede i dati relativi alle ricerche di migliaia di persone e la polizia che possiede i dati di un determinato individuo.
Sicuramente, la prevenzione di crimini o altre attività basata sulle informazioni personali di un singolo utente non è eticamente corretto, anche perché su molte persone che cercano la parola crimine, la maggior parte non ne commetterà mai uno.
Una soluzione potrebbe essere utilizzare tali dati su base geografica per stanziare fondi per aumentare la consapevolezza e l’informazione relativa ad un tema.

La strada verso un ambiente digitale etico

La trasformazione digitale porta le aziende a concentrarsi maggiormente sull’aumento del coinvolgimento dei clienti per rimanere competitivi e offrire una customer experience più personalizzata.
Le nuove tecnologie ci consentono di raccogliere, archiviare ed elaborare enormi quantità di dati personali per vari scopi, ma offrono anche diversi modi per tutelare i diritti delle persone.
Serve seguire i giusti principi, come la trasparenza nei confronti degli utenti riguardo le informazioni che si andranno a raccogliere, chiedere sempre il permesso e anonimizzare gli indirizzi IP per mandare un segnale positivo ai clienti e allo stesso tempo tutelare l’azienda da eventuali cambi di legge sulla privacy.

Ovviamente, se non ci si posiziona nel modo giusto nella relazione coi consumatori con livelli appropriati di autorizzazione e possibilità di rilevare i dati in qualsiasi momento, allora c’è la possibilità di essere percepiti come invasivi.
Ma se i consumatori traggono vantaggio da tali concessioni e sperimentano uno scambio di valore equo, si sentirebbero meno a disagio sulla condivisione dei dati.

L’idea della privacy e della restituzione del potere alle persone sui propri dati è un punto chiave di quest’epoca.
Lo stesso inventore del World Wide Web Tim Berners-Lee ha dichiarato più volte che la rete non funziona più da diversi anni e serve un cambio di rotta.
Una start-up da lui creata chiamata Inrupt sta sostenendo un progetto open source chiamato Solid, progettato per permetterci di mantenere il controllo sui nostri dati. Inoltre, lo stesso Berners-Lee ha proposto l’istituzione del Contract for the Web, un documento, pubblicato sotto forma di sito web, che riassume una serie di princìpi che tutti dovremmo impegnarci a seguire.

D’altronde il web è stato progettato per riunire le persone e rendere la conoscenza liberamente disponibile ed è necessario che ciascuno si impegni per lo sviluppo di un ambiente digitale etico.