Seamos realistas: cuando descargue una nueva aplicación, probablemente no se moleste en leer primero su política de privacidad. Escribo sobre privacidad como periodista e incluso rara vez me molesto en leer esas políticas.

Teniendo en cuenta que están llenos de trucos y palabras legales intencionalmente oscuras, no sorprende que casi nadie se moleste en leerlos, simplemente hemos aceptado que estamos renunciando a nuestros datos y, con ellos, nuestro sentido de privacidad.

¿Quién puede culparnos por apresurarnos a marcar esa pequeña casilla que dice que estamos de acuerdo con los términos del servicio?

Ahora, una nueva herramienta llamada Guard promete leer las políticas de privacidad de varias aplicaciones para nosotros. Aprovecha el poder de la inteligencia artificial para analizar resmas de texto, desglosando cada oración por el nivel de riesgo que representa para nuestra privacidad.

Guard actualmente toma la forma de un sitio web gratuito con análisis de ciertas aplicaciones populares como Twitter, Instagram, Tinder, Whatsapp, Netflix, Spotify, Reddit y Duolingo. Todavía no ha analizado todas las aplicaciones, ni siquiera cerca, pero puede sugerir nuevas aplicaciones para que las revise. (Me viene a la mente Facebook). Desafortunadamente, Guard no puede inspeccionar una aplicación determinada inmediatamente a pedido, al menos todavía no.

El plan es lanzar una aplicación descargable que escaneará todas las demás aplicaciones que use y lo alertará sobre amenazas a la privacidad incrustadas en ellas. La aplicación de Guard está en la fase de prueba beta. Todavía no está disponible para el público, pero puedes registrarte para unirte a la versión beta.

Por ahora, la versión del sitio web ya ofrece información útil. Le indica cuántas amenazas se detectan en una aplicación y si son leves o preocupantes. También le dice en cuántos escándalos de privacidad ha estado involucrada la aplicación. Y le da a cada aplicación un puntaje general y una calificación de letra.

Twitter, por ejemplo, obtiene un puntaje general del 15 por ciento y una calificación de “D”. Ouch. Así es como Guard explica algunos escándalos de privacidad en los que Twitter se ha visto envuelto.

No se garantiza que Guard atrape todas y cada una de las amenazas a la privacidad, por lo que todavía no confiaría demasiado en él. Pero lo que es especialmente interesante es que nos invita a todos a ayudar a entrenar a la IA para que, con el tiempo, mejore y detecte mejor los tipos de problemas de privacidad que preocuparían a los seres humanos reales. No necesita tener ningún conocimiento especializado para hacer esto, solo necesita un par de minutos de sobra.
¿Cómo se enseña a una máquina el significado de la privacidad?

Javi Rameerez, el desarrollador madrileño que creó el software Guard, está interesado en los sistemas de IA dedicados al procesamiento del lenguaje natural (PNL). También está claramente interesado en la ética de la inteligencia artificial.

Rameerez describe a Guard como un experimento académico: en realidad es su tesis en curso sobre IA y NLP ( Natural Language Processing). Él dice que el objetivo es enseñar a las máquinas cómo piensan los humanos sobre la privacidad. Para hacer eso, Guard necesita aportes de muchos y muchos humanos.

No necesita ayudar a entrenar a la IA para usar Guard, pero si acepta dedicarle un par de minutos, Guard lo dirigirá a un cuestionario en su sitio web. Le muestra dos fragmentos de diferentes políticas y le pide que juzgue cuál cree que es más respetuoso con la privacidad. Esos datos pueden ayudar a construir una IA cuya perspectiva sobre la privacidad se alinee con la de los humanos reales. (Sin embargo, una trampa potencial de este enfoque es que los humanos no siempre sabemos qué es lo mejor para nosotros y no necesariamente podemos anticipar los riesgos que ciertas políticas pueden plantearnos en el futuro).

“Cada punto de datos ayuda a la IA a comprender lo que es aceptable y lo que no se refiere a la privacidad humana”, dice el sitio web. “El objetivo final es enseñar a las máquinas para que puedan mantenernos seguros en un Internet cada vez más peligroso”.

Aquí hay un ejemplo de un dilema:

Opción A: “Está prohibido el uso de sistemas automatizados para” extraer “grandes cantidades de datos de Games Press sin obtener nuestro consentimiento previo”.

Opción B: “Al proporcionarnos sus datos, usted acepta la transferencia de dichos datos”.

Esto está bastante claro, ¿verdad? La opción A se ve más amigable con la privacidad. Pero algunos de los dilemas son mucho más difíciles.

Una vez que haya resuelto algunos dilemas lo mejor que pueda, puede verificar sus resultados. Guard le permite saber si su capacidad para seleccionar la opción más ética está por encima o por debajo del promedio de otros participantes.

Además de la diversión de tomar un cuestionario y ver cómo te comparas con otras personas, ¿qué hay para ti? El sitio web de Guard dice que al entrenar a su inteligencia artificial, “se convertirá en un pionero” al ser “uno de los primeros humanos en enseñar privacidad a las máquinas”. Además, “descubrirá sus prejuicios cognitivos al tomar decisiones relacionadas con la privacidad”.

También te pide dos favores adicionales, pero con un buen propósito. Primero, solicita información demográfica sobre usted, como edad, origen étnico y nivel educativo. Luego dice: “Estamos tratando de evitar éticamente cualquier tipo de sesgo en los datos que recopilamos, así que si conoces a alguien que forme parte de minorías subrepresentadas (particularmente en tecnología, como mujeres o grupos étnicos minoritarios), comparte esto con ellos para que podamos enseñar a las computadoras de la manera más ética posible humanamente ”.

Proporcionar su información e invitar a sus amigos es totalmente opcional, y Guard promete que todos los datos serán completamente confidenciales, no identificables y anónimos.

El hecho de que Guard tenga el objetivo explícito de diversificar su conjunto de datos es loable, porque con demasiada frecuencia los sistemas de IA están entrenados en un subconjunto de la población (generalmente hombres blancos) que conduce al problema bien documentado de sesgo de AI (por ejemplo, reconocimiento facial. La alta tasa de error de la tecnología cuando se trata de identificar mujeres y personas de color).

Y con demasiada frecuencia, los sistemas de IA que se especializan en NLP conllevan riesgos aterradores, como la posibilidad de que se utilicen para generar noticias falsas y sembrar información errónea.

Sin embargo, en el caso de Guard, tenemos un ejemplo de un sistema de NLP que puede ayudarnos, tanto al alertarnos sobre las políticas de privacidad problemáticas de nuestras aplicaciones como al darnos la oportunidad de aprender desarrollando una IA desde cero.

Por Ángel Leonardo Torres

Todo evolucionana ¿te vas a quedar atras? Electrónica y Telecomunicaciones.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *