Clicky

Google lanza el módulo de prueba de privacidad TensorFlow

Categoría: Noticias de Internet
Visitas: 743
TensorFlow

Puede establecer un puntaje que revela cuán vulnerable es un modelo a la información filtrada

Google lanzó esta semana un accesorio de conjunto de herramientas que permitirá a los desarrolladores que trabajan con modelos de aprendizaje automático controlar mejor las filtraciones de datos privados.

El módulo de privacidad TensorFlow aplica un medio más nuevo de prueba de vulnerabilidades en conjuntos de datos masivos que contienen información utilizada para fines tales como atención médica, reconocimiento facial y vigilancia.

 

Google estableció la Biblioteca de Privacidad TensorFlow hace un año para ayudar a los desarrolladores a lograr una mayor precisión en los proyectos de aprendizaje automático y reducir el riesgo de comprometer los datos personales de los sujetos contenidos en las bases de datos.

Google declaró en ese momento: "El aprendizaje automático moderno se aplica cada vez más para crear nuevas tecnologías sorprendentes y experiencias de usuario, muchas de las cuales incluyen máquinas de entrenamiento para aprender de manera responsable datos confidenciales, como fotos personales o correo electrónico. Tenemos la intención de que TensorFlow Privacy se convierta en un centro de las mejores técnicas para entrenar modelos de aprendizaje automático con fuertes garantías de privacidad".

En su lanzamiento en 2019, TensorFlow Privacy se basó en un concepto conocido como privacidad diferencial, en el que los patrones de grupos dentro de los conjuntos de datos se comparten en público, mientras que los enlaces a las personas que comprenden los conjuntos de datos están protegidos. En las aplicaciones de aprendizaje profundo, los desarrolladores generalmente buscan codificar patrones generalizados en lugar de detalles específicos que ayudan a identificar a los participantes y amenazan el anonimato.

Una forma de lograr esto es mediante la introducción de un "ruido" limitado que ayuda a proteger las identidades de los usuarios. Tal ruido, sin embargo, conlleva el riesgo de degradar la precisión.

Google adoptó un nuevo enfoque con el módulo TensorFlow anunciado esta semana. Aplicando una prueba llamada 'ataque de inferencia de membresía', TensorFlow Privacy puede establecer un puntaje que revela cuán vulnerable es un modelo a la información filtrada.

ataque de membresía

Imagen: Descripción general de un ataque de inferencia de membresía. Un atacante intenta averiguar si ciertos ejemplos fueron parte de los datos de entrenamiento.

"Los ataques de inferencia de membresía rentables predicen si se utilizó un dato específico durante el entrenamiento", declaró Google en su blog TensorFlow el miércoles. Si un atacante puede hacer una predicción con alta precisión, es probable que logre averiguar si se utilizó una pieza de datos en el conjunto del entrenamiento. La mayor ventaja de un ataque de inferencia de membresía es que es fácil de realizar y no requiere ningún tipo de reentrenamiento".

"En última instancia", dijo Google, "estas pruebas pueden ayudar a la comunidad de desarrolladores a identificar más arquitecturas que incorporan principios de diseño de privacidad y opciones de procesamiento de datos".

Google ve esto como un punto de partida para "un conjunto de pruebas de privacidad robusto" que, debido a su facilidad de uso, puede ser utilizado por desarrolladores de aprendizaje automático de todos los niveles de habilidad.

A medida que más instituciones confían en proyectos masivos de aprendizaje de máquinas hambrientos de datos, aumentan las preocupaciones de privacidad. El año pasado, Microsoft se vio obligado a eliminar más de 10 millones de imágenes de su programa de entrenamiento de reconocimiento facial MS Celeb distribuido a nivel mundial después de que no se les pidió permiso a los sujetos de aprendizaje antes de su publicación. Google abandonó apresuradamente un proyecto de intercambio de datos de salud con Ascension debido a la creciente preocupación de que las radiografías de tórax pudieran exponer información personal.

Y Apple y Google han generado críticas sobre las débiles protecciones de privacidad que rodean el uso por parte de decenas de millones de usuarios de agentes de inteligencia artificial como Siri y Google Assistant en los que, según los informes, las grabaciones de audio de los teléfonos de las personas y dentro de sus hogares se almacenaron y se accedió sin autorización.