¿Aplicaciones en el mundo real de la privacidad diferencial?

3
  

Las técnicas diferencialmente privadas garantizan la privacidad mientras que a menudo   permitiendo respuestas precisas

... esto es algo que he estado leyendo últimamente como una forma de preservar la privacidad / anonimato del usuario. Hasta ahora, sin embargo, no he encontrado ningún ejemplo de que se haya aplicado en un entorno del mundo real. En cambio, lo estoy viendo en trabajos académicos y discutido matemáticamente.

¿Alguien sabe cómo se aplicaría exactamente esto a los datos del mundo real o, de hecho, sabe de algún ejemplo? Me resulta muy difícil hacer la transición de leer sobre esto, a cómo podría realmente aplicarla. Si nadie más lo está aplicando, dudo que tenga las habilidades para ser el primero y no quiero perder mi tiempo azotando a un caballo muerto.

    
pregunta Philip O'Brien 01.09.2014 - 16:24
fuente

3 respuestas

3

Aquí hay un artículo de Scientific American a fines de 2012 que menciona un ejemplo del mundo real: 'OnTheMap' y hace referencia a la investigación en otros:

enlace

"Una aplicación del mundo real ya usa privacidad diferencial: un proyecto de la Oficina del Censo llamado OnTheMap , que brinda a los investigadores acceso a los datos de la agencia. Además, los investigadores de privacidad diferencial han recibido consultas preliminares de Facebook y el gobierno federal El centro iDASH financiado en la Universidad de California, San Diego, cuyo mandato en gran parte es encontrar formas para que los investigadores compartan datos biomédicos sin comprometer la privacidad ".

    
respondido por el Jeff Clayton 01.09.2014 - 16:33
fuente
3

Se han implementado mecanismos diferencialmente privados en prototipos. Estos prototipos generalmente toman un conjunto de registros (por ejemplo, una tabla de base de datos) y una consulta, y luego devuelven el resultado de la consulta en la tabla con una pequeña cantidad de ruido agregado para garantizar la privacidad diferencial. Si bien la prueba de que un mecanismo es diferencialmente privado es matemáticamente exigente, la implementación de mecanismos es generalmente sencilla e implica simplemente agregar ruido al resultado de la consulta desde una distribución bien definida.

El proyecto PINQ de Microsoft Research le permite definir consultas en una sintaxis similar a LINQ, y las ejecutará y protegerá los resultados utilizando un mecanismo privado diferente. El tutorial está aquí: enlace

El sistema Airavat utiliza el mecanismo privado privado de muestra y agregación para proteger los resultados de la consulta y reducir el mapa mediante la privacidad diferencial. El código de prototipo se puede encontrar en la parte inferior de la página del proyecto: enlace

Un par de sistemas más (con código disponible) incluyen Fuzz (UPenn) y GUPT (Berkeley).

    
respondido por el gdanezis 24.09.2014 - 01:06
fuente
0

El mayor despliegue de privacidad diferencial, hasta la fecha (de lo que cualquiera está hablando públicamente), es el proyecto RAPPOR de Google, que se utiliza para informar las estadísticas de uso de Google Chrome.

Puede leerlo aquí: enlace

    
respondido por el Aaron 07.01.2016 - 20:32
fuente

Lea otras preguntas en las etiquetas