skip to Main Content
DALL’AUTORITA’ PER LA PROTEZIONE DEI DATI DEL CANADA: Tecnologie Per Il Miglioramento Della Privacy Per Le Aziende

DALL’AUTORITA’ PER LA PROTEZIONE DEI DATI DEL CANADA: tecnologie per il miglioramento della privacy per le aziende

This post is also available in: English Español Français

La tua azienda potrebbe fare affidamento sul cloud o su tecnologie abilitate per Internet, come tablet, telefoni cellulari e dispositivi intelligenti (parte dell’Internet of Things) per fornire i tuoi servizi, analizzare i tuoi dati e informare le tue decisioni aziendali.

Garantire che i dati della propria organizzazione e dei clienti rimangano privati ​​e protetti è della massima importanza. Esistono numerosi strumenti che puoi utilizzare per proteggere i dati che crei e raccogli. Questi strumenti sono noti come “tecnologie per il miglioramento della privacy” o PET .

Dalla pubblicazione della nostra ultima relazione sulle PET, ci sono stati diversi sviluppi tecnici significativi nel campo. Nei prossimi mesi, concentreremo alcuni dei nostri blog Tech-Know su alcuni dei PET emersi da quel rapporto, tra cui:

  • apprendimento federato
  • privacy differenziale
  • crittografia omomorfica
  • calcolo sicuro multipartitico

Questo post esamina l’apprendimento federato e la privacy differenziale. Questi PET sono ancora in fase di perfezionamento e sviluppo per un uso diffuso e pochissime organizzazioni li hanno implementati.

I nostri prossimi post sul blog offriranno alle aziende alcune informazioni di base su questi nuovi PET e su come potrebbero essere utili per una migliore privacy dei dati. Se speri di implementare questi PET emergenti nella tua azienda, ti consigliamo di seguirne lo sviluppo in occasione di eventi accademici e di settore.

Apprendimento federato (noto anche come analisi federata)

Molte aziende hanno deciso di automatizzare alcuni dei loro processi e servizi, spesso affidandosi a tecniche provenienti dal campo dell’intelligenza artificiale. L’apprendimento automatico è una delle tecniche più popolari per analizzare i dati e prendere decisioni o previsioni basate su tali dati.

Le organizzazioni hanno utilizzato l’apprendimento automatico per il riconoscimento di immagini e testo, tra molti altri usi.

I modelli di apprendimento automatico vengono solitamente addestrati utilizzando grandi quantità di dati, che vengono spesso distribuiti su diversi sistemi o dispositivi di archiviazione dati. Tali sistemi e dispositivi possono essere di proprietà di diverse persone o organizzazioni situate in giurisdizioni distinte, rendendo difficile, se non impossibile, lavorare direttamente con loro. L’apprendimento federato è una tecnica che può aiutare la tua azienda ad addestrare un modello attraverso le sue origini dati distribuite preservando la privacy.

Nell’apprendimento federato, i dati originali non vengono mai condivisi o spostati. Piuttosto, i dati rimangono nella loro posizione originale (cioè la sua fonte). Ogni sistema di apprendimento federato analizza i dati locali a modo suo, ma molti sistemi seguono passaggi simili a quelli descritti nel documento fondamentale sul concetto. Viene creato un modello o algoritmo centralizzato e le versioni duplicate di tale modello vengono inviate a ciascuna origine dati distribuita.

Il modello duplicato esegue il training su ciascuna origine dati locale e restituisce l’analisi generata. Tale analisi è sintetizzata con l’analisi di altre fonti di dati e integrata nel modello centralizzato. Questo processo si ripete ad una velocità determinata dal modello centralizzato, al fine di affinare e migliorare costantemente il modello.

L’apprendimento federato è considerato tutela della privacy per alcuni motivi. I dati originali non vengono mai condivisi e gli approfondimenti aggregati sono generalmente difficili da decodificare. La maggior parte della condivisione tra i modelli locale e centralizzato coinvolge anche metodi di crittografia avanzati. Sebbene questi passaggi offrano una protezione significativa della privacy, l’apprendimento federato non è una soluzione perfetta per tutti i progetti di analisi dei dati.

Una delle principali sfide che impediscono l’adozione diffusa dell’apprendimento federato è il costo computazionale del trasferimento regolare di informazioni aggregate al modello centralizzato. Può essere estremamente costoso trasferire anche piccole quantità di dati tra milioni di dispositivi. A complicare ulteriormente questa sfida è la diversità dei dati sui dispositivi. Non tutti i dati possono essere facilmente analizzati e sintetizzati in un modello centrale.

Ad esempio, un’azienda che vende telefoni Android potrebbe avere difficoltà a sintetizzare i dati dai propri dispositivi vecchi e nuovi perché il sistema operativo o l’hardware sottostante è cambiato in modo significativo.

I ricercatori e le organizzazioni stanno lavorando per affrontare queste sfide. Ad esempio, per affrontare la questione dei costi elevati, hanno ridotto la frequenza dei trasferimenti di dati al modello centralizzato. Per affrontare diversi tipi di dati, hanno creato modelli che non si basano sulla ricezione di dati da tutti i dispositivi in ​​tutti gli scenari. Alcune organizzazioni hanno scelto di migliorare i propri sistemi di apprendimento federati integrando ulteriori tecniche di calcolo, come la tolleranza ai guasti e la privacy differenziale.

Privacy differenziale

Cominciamo con un esempio. Immagina che la tua azienda desideri personalizzare alcuni dei suoi servizi in base ai comportamenti dei suoi clienti. Hai raccolto alcune informazioni personali sulle loro abitudini di acquisto e di utilizzo dei servizi. Si desidera utilizzare queste informazioni per prevedere le tendenze generali nelle visite e negli acquisti futuri in modo da poter assumere il giusto numero di dipendenti, immagazzinare i prodotti appropriati e utilizzare annunci pubblicitari mirati per vendere i propri prodotti.

Tu non vuoi che il tuo personale di essere in grado di prevedere che specificamente si recherà in visita, quando si recherà in visita, o ciò che vogliono acquistare. Un modo per preservare la privacy per affrontare questa sfida è la privacy differenziale.

La privacy differenziale offre alle organizzazioni un metodo formale per preservare una certa quantità di privacy. È un concetto emerso nel campo della crittografia e molti dei suoi termini e metodi sono radicati nella matematica avanzata. Fondamentalmente, la privacy differenziale implica l’aggiunta di una quantità matematicamente definita di “rumore”, o dati falsi, a un set di dati.

Il rumore viene aggiunto utilizzando un’equazione che rende molto difficile, se non impossibile, dire chi o cosa c’era nel set di dati originale. Anche i valori anomali nel set di dati vengono considerati matematicamente e oscurati. Ciò rende il set di dati resistente a una serie di minacce alla privacy, inclusi il collegamento dei dati e gli attacchi di ricostruzione.

L’implementazione e il raggiungimento di un auspicabile meccanismo di privacy differenziale non è un processo semplice, né è una soluzione a tutte le sfide alla privacy dei dati. Ogni set di dati è unico; la quantità e i tipi di rumore che possono essere aggiunti a ciascun set di dati dipendono da ciò che include tale set di dati, nonché da ciò che la sua analisi intende rivelare.

Ad esempio, nel 2014, i ricercatori hanno dimostrato quanto potesse essere dannoso applicare una privacy differenziale a un set di dati che aveva lo scopo di informare i trattamenti medici. Affinché i pazienti mantengano la loro privacy nel set di dati, sarebbero effettivamente “esposti a un aumento del rischio di ictus, eventi emorragici e mortalità”. Altri studi hanno rivelato risultati simili e hanno ispirato i ricercatori a continuare a perfezionare i loro approcci per implementare la privacy differenziale.

L’integrazione della privacy differenziale in un sistema di apprendimento federato può introdurre ulteriori livelli di complessità. Di conseguenza, pochissime aziende hanno implementato con successo entrambi gli approcci. I pochi casi d’uso esistenti si trovano nelle principali società tecnologiche, tra cui Google, Apple e Microsoft. Tuttavia, entrambe le PET offrono approcci molto promettenti per la tutela della privacy per le imprese. Altri esempi emergeranno sicuramente da attività diverse nei prossimi anni.

Aspetti chiave

  • L’apprendimento federato può aiutare le aziende a intraprendere analisi dei dati a tutela della privacy su più dispositivi e origini dati.
  • La privacy differenziale è uno dei tanti strumenti che possono essere utilizzati per ridurre in modo significativo la probabilità di collegamento dei dati e attacchi di ricostruzione.
  • C’è stato molto sviluppo teorico nell’analisi federata e nella privacy differenziale, ma ci sono pochi casi d’uso nelle aziende a causa della complessità di questi PET. Guarda per altri casi d’uso che emergono nel prossimo decennio.

 

FONTE: AUTORITA’ PER LA PROTEZIONE DEI DATI DEL CANADA 

Back To Top