I dati siamo noi

Si approssima l’autunno, pare sarà molto caldo, e non per questioni climatiche. Pare anche che il dibattito sul giornalismo abbia ripreso vigore in queste prime settimane di rientro al lavoro dopo le vacanze estive. Sulle bacheche dei principali social rimbalzano da qualche giorno notizie di vario tipo dedicate al nostro comparto professionale. E come tutti i giornalisti sanno bene,  quando una cosa fa notizia, difficilmente è positiva. Dunque si torna a parlare della crisi del giornalismo suggerendo a vario titolo ricette e soluzioni. Qui a bottega come sapete bene, non crediamo molto alla crisi, anzi  in più di un’occasione abbiamo  provato a spiegare quanto la “presunta crisi dovuta all’avvento della rivoluzione digitale” potesse essere in realtà una bellissima opportunità per tutti noi, per il rilancio della professione. Una convinzione che continuiamo a sostenere su queste colonne ogni volta che riusciamo a trovare esempi e contenuti degni di nota. Molti stimoli e conferme abbiamo trovato  ad esempio nella lettura delle relazioni di fine anno dei presidenti delle Autorità Garanti per la privacy, per le comunicazioni e della concorrenza e del mercato. Nelle parole di Soro, Cardani e Pitruzzella abbiamo identificato  molti dei temi salienti che proprio nell’ultimo anno avevamo  provato a proporvi da queste pagine. Abbiamo dunque analizzato le tre relazioni e ne abbiamo estrapolato alcuni dei passaggi a nostro avviso più significativi.  Cominciando con la relazione del Presidente dell’Autorità garante per la privacy Antonello Soro vorremmo sottoporveli,  reimpaginati secondo un ordine di uscita diverso dall’originale e che ricalca le tematiche di cui ci occupiamo su queste pagine. In calce ad alcuni dei passaggi che abbiamo estratto dalle relazioni  e che riportiamo di seguito abbiamo aggiunto, in alcuni casi,  ulteriori nostre riflessioni che speriamo possano arricchire il dibattito. Grazie dell’attenzione e buona lettura!

 

Estratti dalla relazione di fine anno  del Presidente del Garante per la protezione dei dati personali Antonello Soro  presentata il 12 luglio 2018

 

Le questioni

 

“Molte sono le questioni aperte. Fake news, hate speech, cyberbullismo, eterna memoria della rete, ma anche minacce cibernetiche, algoritmi predittivi, uso massivo dei big data, persuasione occulta e social engineering funzionale ad attacchi informatici. Questi ultimi in Italia, nel solo mese di maggio, hanno toccato la soglia di 140 al giorno. Dal 25 maggio sono aumentate di oltre il 500% le comunicazioni di data breach al Garante, che hanno interessato, assieme a quelli notificati a partire da marzo, oltre 330.000 persone.

D’altra parte, in un mondo dove tutto di noi sarà sempre più connesso, saremo sempre più vulnerabili, perché ogni oggetto con cui veniamo a contatto può diventare il canale di accesso per un attacco informatico, per una violazione della nostra persona. Per questo è indispensabile fare della protezione dei dati una priorità delle politiche pubbliche”.

 

Le notizie false, i profili social appositamente creati per veicolare false informazioni e/o confutare o peggio screditare il lavoro di professionisti seri, l’uso dei ro(bot) e dell’intelligenza artificiale per realizzare strategie di disinformazione e/o di destabilizzazione; sono temi che hanno molto a che vedere con la professione giornalistica così come la difficoltà di gestione dei cosiddetti “discorsi d’odio”, che rivelano una carenza profonda proprio del comparto dell’informazione professionale. Un gap da colmare al più presto come rivelano anche i dati raccolti  nel corso della ricerca sull’hate speech che abbiamo realizzato assieme al Cospe in sei diversi paesi dell’Unione Europea.  La gestione dei commenti  da parte delle redazioni degli organi di informazione sulle proprie bacheche social  – in ogni caso – e in particolar modo quando la discussione degenera a causa di commenti violenti e inappropriati; non è un fatto esterno al giornalismo.  Spesso “gli odiatori” si inseriscono sulle bacheche più frequentate per  distogliere l’attenzione dai problemi reali, diffondere confusione e malanimo, alimentare falsi miti collettivi e notizie inventate; il tutto  a scapito della corretta informazione.

 

I padroni degli algoritmi

 

“Il web di cui facciamo esperienza non è, dunque, la rete, ma soltanto la sua parte selezionata da algoritmi che, analizzando le nostre attività e preferenze, ci espongono a contenuti il più possibile affini ad esse, per esigenze di massimizzazione dei ricavi da parte dei gestori, legate al tempo di permanenza e al traffico online.

Siamo dunque soggetti – più di quanto ne siamo consapevoli – a una sorveglianza digitale, in gran parte occulta, prevalentemente a fini commerciali e destinata, fatalmente, ad espandersi anche su altri piani, con effetti dirompenti sotto il profilo sociale“.

 

Il caso Cambridge Analytica e le sue conseguenze sono la dimostrazione più evidente di quanto questo specifico passaggio dell’analisi del Presidente Soro sia importante. In particolare, a proposito di sorveglianza digitale, uno degli effetti dello scandalo Facebook/Cambridge Analytica è stata la revisione da parte dei vertici del social di Menlo Park  dei propri regolamenti di gestione e accesso per gli utenti. Revisione, come abbiamo sottolineato direttamente in un nostro post specifico, che ha portato in alcuni casi, ad un peggioramento di tali condizioni non – come sarebbe stato lecito attendersi – un miglioramento.  In particolare l’introduzione di uno strumento di controllo – con effetti dirompenti sotto il profilo sociale – per usare le parole della relazione dell’Autorità per la privacy, come il “controllo facciale”.

 

L’intelligenza artificiale

 

Indicativo il fatto che il 10 aprile scorso 25 governi abbiano sottoscritto un accordo volto a sancire l’Alleanza Europea per l’Intelligenza Artificiale, decuplicando gli  investimenti in ricerca, promuovendo una strategia per affrontarne l’impatto socio-economico e un codice etico fondato sul binomio responsabilità sicurezza. Sono infatti dirimenti le questioni etiche connesse alle varie applicazioni dell’intelligenza artificiale e al rapporto tra uomo e macchina: a partire dall’interrogativo se possa quest’ultima, del tutto indipendentemente dal suo creatore, assumere scelte proprie e imprevedibili, divenendo autonomo soggetto di diritto, centro di imputazione di responsabilità giuridica.

 

Dall’esattezza dei dati utilizzati e dalla logica del trattamento alla base della configurazione degli algoritmi dipende l’intelligenza delle loro scelte. Se è errata la classificazione delle casistiche di riferimento fornita all’algoritmo per decidere, ad esempio, la natura di una patologia o per valutare un marker, sarà poi la conseguente diagnosi ad essere sbagliata, con effetti potenzialmente anche fatali per il paziente.

 

Le possibili implicazioni, sul piano sociale, sono tutt’altro che marginali. Gli algoritmi non sono neutri sillogismi di calcolo, ma opinioni umane strutturate in forma matematica che, come tali, riflettono, in misura più o meno rilevante, le precomprensioni di chi li progetta, rischiando di volgere la discriminazione algoritmica in discriminazione sociale”.

 

Dopo Cambridge Analytica

 

“I primi accertamenti condotti, in cooperazione con le altre Autorità, sul caso Cambridge Analytica-Facebook, hanno messo in luce le implicazioni, spesso sottovalutate, del sistema di gestione delle inserzioni sulle grandi piattaforme del web. Esso determina, infatti, un flusso di dati degli utenti verso innumerevoli “terze parti” poco trasparente e, nella maggior parte dei casi, del tutto ignorato dagli interessati.

È, questa, una frontiera aperta su cui le Autorità di protezione dati interverranno, presumibilmente a lungo, avvalendosi dei nuovi strumenti loro riconosciuti – anche rispetto agli OTT – dal Regolamento generale e dal Regolamento e-privacy”.

 

Gig economy

 

Emergono nuovi tipi di lavoro, attratti nella categoria generale della gig economy e, come nel caso dei riders, sempre più inscritti in un rapporto strettissimo tra uomo e algoritmo, in cui è il secondo a impartire direttive al primo, privato persino della relazione interpersonale con un datore di lavoro, verso il quale esercitare i propri diritti.

In tale contesto, caratterizzato peraltro dalla sottoposizione del lavoratore a inedite quanto pervasive forme di controllo, la protezione dati assurge a presupposto necessario di libertà del lavoratore nell’esecuzione della prestazione, nonché fattore di riequilibrio di un rapporto di forza sempre più sbilanciato”.

 

Sicurezza informatica

 

“A fronte della necessità di ricorrere sempre più allo scambio telematico dei dati e all’interconnessione dei sistemi informativi pubblici, si riscontra l’esigenza di una maggiore consapevolezza e di competenze idonee a fronteggiare l’incremento dei rischi, suscettibili di derivarne, per i diritti dei cittadini.

All’aumento di tali rischi dovrebbe, infatti, corrispondere una costante attenzione nella gestione dei sistemi informativi e un crescente impegno nell’osservanza degli obblighi di sicurezza e di qualità dei dati, di cui i soggetti pubblici devono farsi carico.

In questo quadro, abbiamo sollecitato una forte iniziativa, da parte delle diverse istituzioni coinvolte nei processi decisionali relativi all’ innovazione tecnologica del Paese, per una verifica puntuale dello stato di sicurezza delle banche dati pubbliche e dei processi in corso di attuazione dell’ Agenda digitale”.

 

CONTINUA…

Leggi anche:

  • Verso una nuova immaginazione La querelle facebook / cambridge analytica indipendentemente da ogni valutazione, interpretazione o spiegazione più o meno scientifica cui è stata sottoposta, ha il pregio assoluto di aver […]
  • Facebook e Cambridge analytica, non è solo questione di privacy! Pubblichiamo un commento di Marco Dal Pozzo  sulla vicenda di Facebook e Cambridge Analytica.

     

     

    C’è un aspetto della vicenda di Facebook e Cambridge Analytica che, a […]

  • Del cyberbullismo e dell’oblio #digit16 Un contributo originale e un contributo condiviso da raccogliere, mixare e pubblicare al volo per provare ad informare su una questione delicata e difficile che ci investe in maniera […]
  • Diritto all’oblio #digit16 Il parere degli studenti di scienze della comunicazione:
    Si è mai veramente dimenticati in rete? È possibile esercitare il proprio diritto all’oblio? E se si, in che […]
  • Prevedere non significa comprendere Il nostro Marco Dal Pozzo ci regala una sua nuova riflessione sul concetto di  “trasparenza degli algoritmi”. Lo studioso spulciando come al solito dentro alcuni articoli e saggi inerenti […]

Tratto da: www.lsdi.it
I contenuti originali di questo sito sono rilasciati in base alla licenza Creative Commons Attribuzione – Non commerciale 3.0 (escluso ove diversamente indicato e/o riguardo le specifiche fonti citate).

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *