Sei in: Home » Ricerca » Big Data » Fabiana Di Porto, docente diritto dell’Economia Univer. del Salento

Fabiana Di Porto, docente diritto dell’Economia Univer. del Salento

di Luigi Crimella

I giuristi davanti alla rivoluzione dei Big Data: problemi aperti e novità interpretative
L’avvio dell’utilizzo, su una scala sempre più vasta, dei Big Data come fonti primarie di informazione coinvolge non solo il mondo delle tecnologie e dell’informatica ma anche, con questioni inedite e trasversali, il campo del diritto. I giuristi devono fare i conti con nuove relazioni che si instaurano nel mercato digitale e con inediti diritti potenzialmente confliggenti. Nell’intervista che segue alla prof.ssa Fabiana Di Porto, docente di diritto dell’economia nell’Università del Salento, con cui la LUMSA ha una convenzione di ricerca sui temi della regolazione pubblica, e nel cui ambito è consulente scientifica del Progetto LUMSA Big Data, si prendono in considerazione temi quali le “5 V” dei Big Data (Volume, Varietà, Velocità, Veracità e Valore), il diritto della concorrenza e le sue distorsioni, i rischi di monopolio, lo scambio tra i “consumatori iper-connessi” che usano gratis le app cedendo i propri dati personali.

Professoressa, cosa la colpisce di più, quale docente di diritto dell’economia, del fenomeno dei Big Data e perché?
DI PORTO - «Sappiamo che l’informazione da sempre costituisce il motore dell’economia. Lo insegnava Adam Smith coi suoi studi sulla capacità dei mercati di auto-regolarsi attraverso l’informazione; e anche Von Hayek, con pagine memorabili sulla impossibilità degli stati di processare enormi quantità di informazioni, capacità invece riservata al mercato. Ma oggi le cose sono cambiate, e di molto, sia in senso quantitativo, sia qualitativo. Grazie alla diffusione del digitale e al crescere esponenziale delle capacità delle banche dati di immagazzinare informazioni, siamo arrivati alla presenza dei Big Data. Bene ne spiega la loro natura poliedrica una nuova formula sintetica: quella delle “5 V”. Si tratta di Volume, Varietà, Velocità, Veracità e Valore economico dell’informazione. Comprendiamo che non si tratta di pura speculazione concettuale. Le 5 V sono tutte componenti dei Big Data. Anzi, esse sono “i” Big Data stessi».ì

C’è di che averne paura?
DI PORTO – «Di per sé, no. In fondo, si tratta di informazioni molto più grandi, anzi incommensurabilmente più grandi rispetto a quanto finora siamo stati capaci di concepire. Già oggi in una chiavetta USB da un Terabyte riusciamo a stipare tutto il contenuto del nostro personal computer. Con i Big Data il termine Terabyte quasi scomparirà. Infatti dovremo imparare un nuovo lessico, alquanto ostico: quello dei Petabyte, Exabyte, Zettabyte e Yottabyte. Sono termini che ci parlano di dimensioni esponenziali di memorie stipate in uno spazio, sia esso un server, il cloud di una società multinazionale, gli archivi di organi statali. Tutti quei dati contengono porzioni di vita di milioni di uomini, racchiusi in archiviazioni pubbliche o private. Questi e molto altro sono i Big Data».

Si direbbe che siamo davanti non solo a un’importante novità ma anche a inedite possibilità. È così?
DI PORTO – «Certo. I dati appaiono sempre più spaventosamente grandi e mobili, sia per il loro immagazzinamento o spostamento, sia per la loro crescita esponenziale. Non è facile distinguere al loro interno ciò che può essere il bene, come la tele-medicina, rispetto al male: basti pensare al concetto di Grande Fratello o alle possibilità di predizione che le tecniche di big data analytics e di data mining consentono. Qui però registriamo un elemento in più: l’ubiquità, perché – si dice nel gergo degli analisti – data is everywhere. Pensiamo alla geo-localizzazione sui nostri smartphone: ogni istante della nostra vita, grazie alle tecnologie digitali, viene registrata, immagazzinata e successivamente può essere rianalizzata per finalità diverse, anche commerciabili».

Si può dire, come qualcuno sostiene, che sempre più saremo immersi in una società diretta dai Big Data (data driven)?
DI PORTO – «La pervasività del mondo digitale è sotto gli occhi di tutti. Oltre metà dell’umanità è connessa. Si pensi all’Internet delle cose (IoT) o all’Internet del sé (IoM), dove una pluralità di macchine interconnesse – come le automobili dotate di scatole nere - si scambia dati sulla geo-localizzazione dei veicoli, sulla comunicazione di incidenti stradali, ecc. Questo consente interazioni intelligenti come l’attivazione immediata dei servizi di emergenza 112, dei centri operativi degli ospedali più vicini, oltre alla pronta diversione del traffico stradale, le quali sono a loro volta oggetto di registrazione. Con l’avvento dell’economia digitale diviene possibile inferire statisticamente con grande rapidità e con relativo poco impegno economico una vasta quantità di informazioni dall’elevato valore commerciale, traendole da una massa gigantesca di dati forniti dagli utilizzatori di Internet, semplicemente registrando le loro esplorazioni in rete. È così che riceviamo i consigli commerciali ritagliati, o targetizzati sui nostri gusti».

Come è possibile questa targetizzazione?
DI PORTO – «Quando i dati da classificare hanno ordini di grandezza incommensurabili e riguardano non la realtà naturale ma quella sociale, storica, linguistica (fotografica, videografica, ecc.), i criteri tassonomici risentono dell’oggetto da classificare, per cui tendono a confondersi con i fatti sociali stessi. Ad esempio, discernere quali tra le migliaia di email che riceviamo ogni giorno siano spam e quali no è un fatto soggettivo, che richiede elevate capacità di analisi testuali e grafiche, oltre che molta disponibilità di tempo. Oggi queste funzioni o servizi sono svolte in maniera automatizzata, con sistemi di big data analytics che sfruttano le reti neurali mediante sistemi del cosiddetto deep learning. Questi programmi apprendono e migliorano in accuratezza fagocitando dati e sono oggi già impiegati, ad esempio dal motore di ricerca di Google, o nel tag automatico delle foto di Facebook, come pure nel riconoscimento vocale Siri dei telefonini Apple o nelle proposte di acquisto che ci appaiono su Amazon. Il fenomeno è già noto con l’appellativo di “determinismo dei dati”».

Se l’analisi e utilizzo dei Big Data comprime la libera concorrenza nel mercato cosa può succedere?
DI PORTO – «Già oggi, mentre il fenomeno è appena ai suoi albori, gli istituti tipici del diritto della concorrenza debbono declinarsi per cogliere lo specifico di questa nuova realtà. Pensiamo a nozioni consolidate come quella di mercato rilevante, di potere di mercato, delle vecchie e nuove theories of harm, come l’effetto di foreclosure o la discriminazione di prezzo, che attraverso i Big Data oggi si spinge sino al prezzo personalizzato. Una delle principali fonti di vischiosità è rappresentata dalla non rivalità dei Big Data: essi, cioè, sono suscettibili di raccolte ed elaborazioni illimitatamente ripetibili, dal momento che le fonti dei dati sono quasi sempre abbondanti e che i Big Data possono essere raccolti contemporaneamente da numerose imprese facilmente e a costi relativamente contenuti. Basti pensare agli acquisti online: tutte le volte che compriamo su un sito forniamo sempre gli stessi dati personali (nome, indirizzo, email, ecc.)».

Pare di capire che gli interessi in gioco siano già ora giganteschi?
DI PORTO – «Rimanendo in ambito strettamente commerciale, e quindi di libero mercato, è così. Da parte degli studiosi, sia economisti, sia giuristi, vi è concordia nel ritenere che il possesso di Big Data conferisca alle imprese che li detengono un vantaggio competitivo nei mercati digitali, dal momento che consente di offrire migliori servizi e prodotti più ritagliati sui bisogni dei consumatori. Ciò è confermato dagli impressionanti investimenti che le imprese dei mercati digitali stanno destinando ai Big Data; secondo la società di analisi di dati Quid, nel 2015 negli USA sono stati investiti 8,5 miliardi di dollari nel settore, quasi il quadruplo di quanto investito nel 2010 (The Economist, 25.6.2016)».

E nel caso un operatore in possesso di Big Data fosse dominante, cosa succederebbe?
DI PORTO – «La dinamicità del processo concorrenziale in questo mercato dovrebbe, anche in un caso come questo, restare forte, complice la ubiquità e non rivalità dei dati. Questo perché è possibile a nuove imprese di acquistare Big Data da intermediari terzi o di crearne di propri. Così ad esempio, un mercato caratterizzato dalla presenza di un operatore dominante può rimanere contendibile in quanto interessato dal fenomeno del cosiddetto multi-homing, per cui gli utenti si avvalgono di diversi fornitori per il medesimo servizio (come l’acquisto di mobili), ai quali, come detto, forniscono sempre gli stessi dati».

Ma se avviene che il possesso dei Big Data viene utilizzato non per indagini di massa, bensì per un singolo cliente, che valenza giuridica assume questa azione di mercato?
DI PORTO – «Qui ci potremmo trovare di fronte al fenomeno, in verità raro benché manifestatosi, dei cosiddetti prezzi personalizzati, resi possibili dai Big Data. Infatti, ben più che le vecchie indagini di mercato, la big data analytics consente oggi una clusterizzazione dei consumatori assai più granulare, tale da poter inferire non solo l’attitudine al consumo del singolo, ma anche le sue preferenze e la sua disponibilità a pagare per un determinato bene o servizio. Questa informazione può oggi essere impiegata dalle imprese per differenziare i prezzi, a prescindere dai costi del bene o servizio, a livello di singolo utente o di gruppo di utenti, con la conseguenza di praticare una discriminazione che può risultare in corrispettivi ritenuti eccessivi da coloro che pagano di più a causa del ricorso ai Big Data. Questo tipo di problematiche al momento non è molto diffuso, specie perché percepito dalla clientela come fortemente discriminatorio e dunque non praticato per ragioni di reputazione dalle imprese. Fa eccezione il mercato assicurativo ove, specie nel Regno Unito, da più parti si segnala l’esigenza di prevedere obblighi di trasparenza in capo alle imprese rispetto all’uso del big data analytics per la determinazione del prezzo profilato».

Quindi a suo avviso c’è al momento una certa cautela da parte delle autorità antitrust ad intervenire in questo nuovo mercato dei Big Data?
DI PORTO – «Direi di sì, per svariati motivi, che si possono riassumere in un esempio. La concentrazione tra due giganti come Microsoft e Yahoo! del 2010 fu autorizzata, tra le altre, sulla considerazione che all’entità post merger sarebbe stato possibile l’accesso ad una mole di dati talmente ampia (principio della scale effects defense) da rafforzare le capacità e la accuratezza delle reti neurali alla base degli algoritmi che fanno funzionare il motore di ricerca, e così di far concorrenza a Google. Sei anni sono quasi un’era geologica in campo digitale. La considerazione di fondo è che al momento l’ecosistema digitale è un precipitato di concorrenza dinamica, ove certamente possono sorgere applicazioni-killer e sono possibili comportamenti del tipo winner takes it all; ma dove, al tempo stesso, l’evoluzione dei processi concorrenziali rispetto ai differenti tipi di dati sono difficili da prevedere e, dunque, dal punto di vista della libera concorrenza, particolarmente promettenti».

Altra questione è che ciascuno di noi, in quanto consumatore di servizi digitali, è un po’ costretto a cedere la proprietà dei propri dati personali a chi ci eroga in rete un servizio gratuito?
DI PORTO – «Come utenti della rete ognuno di noi è un moderno Pollicino, che lascia dietro di sé delle minuscole tracce del proprio passaggio, e lo fa in maniera più o meno consapevole. Navigando, è osservato da almeno cinquanta entità che registrano a sua insaputa i suoi movimenti. Quando scarica una app gratuita accetta senza prestare troppa attenzione termini e condizioni contrattuali e acconsente ad un modello di gestione dei propri dati molto permissivo. Ciò che sta avvenendo, vale a dire la commodification dei Big Data, come sostenuto da alcuni, in un certo senso sta sgretolando la nobile tradizione che vede i dati personali appartenenti alla sfera del diritto morale della personalità, quindi non mercificabile. Però dobbiamo tenere conto dello scambio che avviene in rete tra utente-consumatore di servizi ed erogatore. Ormai sempre più spesso si tratta di un consumatore iper-connesso che acconsente a dare la disponibilità dei propri dati pur di utilizzare una determinata app. Avviene quindi uno scambio di tipo commerciale, basato su una finzione di cui entrambe le parti sono edotte: la gratuità di molti servizi online, pagati invece col prezzo dei propri dati personali. C’è chi ritiene applicabile la disciplina dei contratti del consumatore, con la conseguente nullità di molte delle clausole previste nei terms and conditions delle app e dei social più diffusi. C’è anche chi auspica l’introduzione di compensazioni in bitcoin o in altri servizi digitali a coloro che acconsentono a concedere l’utilizzo dei propri dati e preferenze. Certo è che va definito ancora a chi appartenga la traccia, l’impronta elettronica che Pollicino lascia e che altri registra, raccoglie, elabora e rielabora, analizza e rende commercializzabile. O anche se una siffatta commercializzazione sia sempre ammissibile o si debba escludere per determinati soggetti, come ad esempio quelli pubblici. Ma qui il discorso si fa più vasto e complesso, e riguarda i limiti tra la privacy e il diritto dello Stato di conoscere nel dettaglio le condizioni socio-economiche dei suoi cittadini ed avvalersene, e per quali fini».

Se dovesse, in conclusione, dare una definizione di Big Data, cosa direbbe?
DI PORTO – «Senza cadere in facili entusiasmi o, al contrario, in premature demonizzazioni, mi pare che si possa dire che i Big Data non sono una moda, né semplicemente dei dati un po’ più grandi, ma pur sempre dati. Essi appaiono – uso un termine impegnativo – ontologicamente differenti dagli small data, e questo non in ordine solo alla loro grandezza, ma soprattutto alle loro potenzialità circa le decisioni che gli uomini possono assumere in ordine al commercio, alla cooperazione, alla scienza e alla conoscenza in senso lato. Mi pare che i Big Data posseggano una doppia potenzialità: di conoscere più a fondo la grande storia (Benjamin direbbe che consentono di cogliere lo Jetztzeit, il tempo-istante), attraverso la lettura intelligente e sempre più approfondita dei grandi numeri, e di conoscere in maniera finora quasi nemmeno immaginabile, la micro storia di ciascuno. La condizione di base è che, però, ciascuno di noi ne sia consapevole e decida di conseguenza».

(11 dicembre 2016)


Documenti rilevanti

Corsi di Laurea Master e Post Laurea