Close

Not a member yet? Register now and get started.

lock and key

Sign in to your account.

Account Login

Forgot your password?

Il lato oscuro delle elezioni USA e il significato per la rete

16 Nov Posted by in Uncategorized | 1 comment

Si è scritto moltissimo delle novità introdotte nella strategia online della campagna USA da entrambi i candidati rispetto a quelle di quattro anni fa. Per esempio, dell’uso dei big data per segmentare accuratamente e coinvolgere ogni singolo elettore – probabile o indeciso – all’interno di questi enormi dataset, incrociati tra loro.

Pur condividendo gli enormi vantaggi che in determinate condizioni potrebbero derivare dall’utilizzo di big data, quindi auspicandone crescenti comprensione e diffusione, raramente ho però letto – anche in lingua inglese – delle insidie nascoste dietro queste pratiche, cominciando dai rischi per la privacy (per i quali valgono comunque le solite considerazioni verso qualsiasi dato di pubblico dominio presente in rete) e proseguendo con il cosiddetto “lato oscuro della rete” come strumento di sorveglianza e repressione, per dirla alla Eugeny Morovoz.

Cosa sono i Big Data

Si tratta di enormi volumi di dati provenienti da fonti eterogenee e sotto vari formati, che spesso necessitano di trattamenti particolari per essere estratti e messi in relazione tra loro; perché siano di reale valore aggiunto è però fondamentale ottenere questi dati in tempo reale.

Abbiamo quindi familiarizzato con termini astrusi come competitive intelligence, predictive modeling, predictive analytics, wisdom of crowds e datacrunching.

Il potere dei Big Data

La campagna presidenziale USA ha offerto a tutto il mondo una potente dimostrazione delle enormi potenzialità di queste soluzioni, utilizzabili negli ambiti più disparati come appunto la propaganda politica, il marketing, il mercato azionario, i servizi verso la cittadinanza, la riduzione dei costi governativi, nuovi business per le imprese e chi più ne ha più ne metta.

Il potere della Big Data Analytics risiede nella contestualizzazione delle informazioni, cioè nella capacità di separare il segnale dal rumore e attribuirvi un senso.

C’è per esempio un interessante report dal titolo ‘The Big Data Opportunity’ che ben spiega perché i Big Data sono strategici per il settore pubblico. Realizzato da Policy Exchange in collaborazione con EMC Corporation (colosso dello storage), stima addirittura in 33 milioni di sterline il risparmio che il governo UK potrebbe ottenere solo utilizzando meglio (e sottolineo che non dice “introducendo“, ma proprio “utilizzando meglio” di quanto faccia già ora) i Big Data.

Facciamo però un passo indietro per capire il motivo di tutto questo interesse da parte dei media online intorno alle pratiche introdotte da questa campagna politica, che molti hanno chiamato “The First Big Data Election“.  Il New York Times per esempio, grazie al sondaggista Nate Silver divenuto improvvisamente popolare a livello planetario proprio in questa occasione, ha previsto il risultato delle elezioni in ognuno dei 50 Stati USA.

In realtà i Big Data non sono una novità: solamente per anni non siamo riusciti a fruire delle preziose informazioni che contenevano perché solo ora abbiamo la mentalità e la tecnologia per comprenderli. Utilizzando strumenti e metodi nuovi, è infatti possibile utilizzare queste informazioni come sistema previsionale e a supporto delle decisioni (DSS) in ambiti commerciali, finanziari e politici.

In sintesi, sono in grado di trasformare un business.

Non a caso Obama per le elezioni del 2012 ha messo insieme un team di analisi cinque volte più grande di quello del 2008.

I Big Data non hanno soltanto rivelato come la campagna poteva trovare gli elettori e ottenere la loro attenzione, ma ha anche consentito test predittivi su quali tipi di persone sarebbero rimasti persuasi da certi tipi di appelli. Sono state stilate liste di cittadini in ordine di predisposizione a essere persuasi e di rispondenza alle priorità della campagna. A partire dai dati si è cercato di costruire modelli predittivi per capire quali persone sarebbero andate online e per creare i profili dei volontari.

Come si vede, si tratta di qualcosa di ancora più sofisticato della sentiment analysis.

Il lato oscuro

L’altro giorno ho descritto le caratteristiche di Recorded Future, un potentissimo servizio di ricerca e analisi semantica degli articoli in rete sia su base geografica che temporale – eventi futuri compresi – sulla base dei contenuti.

Quello che non ho scritto, invece, è il nome degli investitori che stanno dietro a questo progetto, a cui finora hanno contribuito con la bellezza di 20 milioni di dollari.

Il primo si chiama Google, entrato nel 2010 alla ricerca di qualcosa che possa offrire risultati più pertinenti alle ricerche effettuate col proprio motore di ricerca.

Il secondo si chiama CIA, proprio quell’agenzia governativa di cui parecchi fra testate e blog stanno parlando in questi giorni ma solo in riferimento a elementi di gossip.

Tra gli utilizzi di Recorded Future abbiamo certamente la prevenzione attività terroristiche oppure il monitoraggio delle prossime manifestazioni anti-americane in Medio Oriente, in Sud America o in Nord Africa, quindi una serie di pratiche a supporto della conservazione dell’establishment: non a caso tra i suoi clienti vi sono alcune delle principali agenzie governative e delle imprese commerciali mondiali.

Bene, ma cosa c’entra Recorded Future con la campagna USA?

Da vari documenti che ho trovato in rete, sembra che lo staff di Obama stia utilizzando strumenti con queste caratteristiche già da alcuni anni e che nulla sia lasciato al caso, inclusi i viaggi all’estero. Anche l’NSA è da anni coinvolta nella Big Data analytics e nelle analisi predittive.

Il monitoraggio delle proteste nel mondo a partire da testi non strutturati è oggi strategico.

Già in precedenza le strade di Google, CIA e NSA si erano incrociate.

La Open Source intelligence è esplosa in tempi recenti, anche in virtù di quel che accadde il 9/11.

Nel 2008 Michael Hayden, direttore della CIA, disse:

“Open-source intelligence contributes to national security in unique and valuable ways virtually every day”

Stephen Mercado, un analista al servizio della CIA, stima che l’80% di tutta l’intelligence oggi proviene da sistemi open source.

Nel gennaio del 2011, Sir Gus O’Donnell, responsabile del servizio Civile UK, disse a proposito dell’inchiesta sull’invasione dell’Iraq:

“I have strongly and always been of the view that we probably underestimated open source [intelligence]”

Il direttore della National Intelligence (DNI), Jim Clapper, ha detto il mese scorso alla conferenza annuale dei professionisti di intelligence:

“If people do not emit or discuss their behavior, it’s hard to find out what they are going to do”

Sempre nel 2008 viene fondata Recorded Future e due anni dopo ritroviamo in veste di investitori alcuni dei soggetti appena citati.

Solo un anno fa, nel novembre 2011, il suo motore interno elaborava 300.000 pagine web ogni ora, provenienti da 40.000 a 50.000 fonti Internet: oggi le fonti sono oltre 150 mila, comprese quelle in lingua cinese o araba.

Recentemente Recorded Future ha anche pubblicato alcune interessanti analisi sui linguaggi utilizzati durante la campagna elettorale dai due candidati presidenziali.

Per fare ciò, ha analizzato 37.591 citazioni su Romney raccolte dal primo gennaio 2011 al 28 agosto 2012 e 124.419 citazioni su Obama raccolte dal primo gennaio 2011 al 10 settembre 2012.

In base a questi dati, Obama avrebbe ricevuto online il triplo delle citazioni di Romney “a parità di periodo analizzato”, omettendo però un dettaglio fondamentale: i dati su Obama sono stati raccolti per ulteriori 13 giorni rispetto a quelli di Romney. In questo periodo – per la precisione il 7 di settembre – è avvenuta la convention democratica dove Obama ha raccolto addirittura un terzo in più delle mention di quando fu diffusa la notizia dell’uccisione di Osama Bin Laden, come si può notare dall’enorme picco sulla destra del grafico.

Una svista madornale e poco spiegabile, per una società che certamente possiede conoscenze avanzate sui modelli statistici; quanto meno, andavano evidenziati i motivi di questa scelta anziché sottolineare le performance positive alterate di Obama.

Alla luce di tutto questo, cioè degli intrecci Google-CIA-Recorded Future, degli interessi di NSA e DNI, delle caratteristiche della campagna di Obama, è plausibile pensare che tra gli strumenti utilizzati da quest’ultima ci sia proprio Recorded Future?

Con tutta probabilità un altro servizio simile è TrapWire, come riferisce anche Carola Frediani nel suo libro “Dentro Anonymous. Viaggio nelle legioni dei cyberattivisti”. Negli States viene utilizzato, tra gli altri, dal Pentagono e da strutture militari statunitensi, come risulta da files trafugati da Anonymous e pubblicati da Wikileaks; network di questo tipo risultano essere presenti anche altrove, in particolare in UK.

In quanti e quali altri casi questi servizi sono stati utilizzati durante la presidenza di Obama, in particolare dagli organi di investigazione federali e di spionaggio internazionale, oltre che per garantire l’incolumità alle persone, per la valutazione delle fonti, per la gestione delle perdite di informazioni, per mappare le minacce informatiche e per mappare la concorrenza?

 

Per approfondimenti:

18 feb 2010 BOSTON: Recorded Future: It’s like Google Meets Nostradamus

25 feb 2010 YOUTUBE: Social Network Analysis – Obama In The Media

28 lug 2010 WIRED: Exclusive: Google, CIA Invest in ‘Future’ of Web Monitoring

10 nov 2011 WIRED: The news forecast: Can you predict the future by mining millions of web pages for data?

17 nov 2011 NY TIMES: Crushing the Cost of Predicting the Future

29 nov 2011 FORBES: Recorded Future — Big Data From The Internet Sees Into The Future

25 mag 2012 MASS HIGH TECH: Recorded Future raises $12M to push its prediction tech

20 set 2012 HUFFINGTON POST: The Campaign Language of Obama and Romney

05 ott 2012 AL JAZEERA: Predicting the future through online data mining

05 ott 2012 CHE FUTURO! La strana censura che fa chiudere gli occhi sul lato oscuro della rete

09 ott 2012 AOL GOVERNMENT: DNI Clapper Defends Intel Handling of Benghazi Attacks; Ducks Commercial Imagery Question

19 ott 2012 SEMANTIC COMMUNITY: Recorded Future User Conference: Next Gen Intelligence Infrastructure

06 nov 2012 WASHINGTON POST: Pakistani militants hiding in Afghanistan

07 nov 2012 TIME: Inside the Secret World of the Data Crunchers Who Helped Obama Win

08 nov 2012 INFORMATION WEEK: Nate Silver’s Big Data Lessons For The Enterprise

13 nov 2012 HARVARD BUSINESS REVIEW: 2012: The First Big Data Election

13 nov 2012 CLOUDAVE: Big Data : In Election And In Business Creates Big Impact

Sul Progetto ORCA:

20 ott 2012 What is Project ORCA

01 nov 2012 Romney Campaign Incorrectly Trains Iowa Poll Watchers To Check For Photo ID

01 nov 2012 Project ORCA: Mitt Romney Campaign Plans Massive, State-Of-The-Art Poll Monitoring Effort

08 nov 2012 Inside ORCA: How the Romney Campaign Suppressed Its Own Vote

08 nov 2012 Romney’s fail whale: ORCA the vote-tracker left team ‘flying blind’

09 nov 2012 Obama’s Tech Team Was Firing On All Cylinders While Romney’s Was Still In Beta 

fonte immagine iniziale

 

One comment


Leave a comment