El CEO de Google, Sundar Pichai, publicó ayer las nuevas reglas de su empresa que rigen el desarrollo de la inteligencia artificial. En el transcurso de siete principios, establece una política amplia (e inútil) que deja más margen de maniobra que un par de pantalones de payaso.

Si cuentas la historia de la participación de Google en la construcción de inteligencia artificial para el ejército de EE. UU. Al revés, tiene mucho sentido. En tal caso, la historia comenzaría con la compañía Mountain View creando una política para desarrollar IA, y luego usaría esos principios para guiar sus acciones.

Desafortunadamente, la realidad es que la compañía ha estado desarrollando IA durante todo el tiempo que ha existido. Es difícil pasar por alto el hecho de que solo ahora, una vez que la ética de la compañía se ve cuestionada por un contrato militar, al CEO le preocupa tener estas pautas.

Por supuesto, esto no es para sugerir que es una compañía que ha estado desarrollando tecnología de IA sin supervisión. De hecho, está claro que los ingenieros, investigadores y científicos de Google se encuentran entre los mejores del mundo y muchos de esos empleados son del más alto carácter ético. Pero a nivel de la compañía, parece que los abogados dirigen el espectáculo.

No, mi punto es sugerir que la publicación de Pichai en el blog no es más que una bagatela apenas disimulada dirigida a periodistas tecnológicos y otros expertos con la esperanza de que halaguemos las declaraciones declarativas como “Google no fabricará armas”. Desafortunadamente no hay sustancia en nada de eso.

Comienza con el primer principio de la nueva política de IA de Google: ser socialmente beneficioso. Esta parte establece el servicio de labios diciendo que se esforzará por desarrollar IA que beneficie a la sociedad, pero no discute lo que eso significa o cómo logrará tal principio abstracto.

Curiosamente, la última frase del principio uno es “ Y continuaremos evaluando atentamente cuándo hacer que nuestras tecnologías estén disponibles de forma no comercial”. Esa es solo una palabra que no tiene más profundidad que la frase “Google es un negocio que mantendrá haciendo cosas de negocios ”.

En lugar de “ser socialmente beneficioso”, hubiera preferido ver algo más parecido a “negarse a desarrollar IA para cualquier entidad que no tenga un conjunto claro de pautas éticas para su uso”.

Desafortunadamente, como muestran los correos electrónicos filtrados, los superiores de Google estaban más preocupados con las certificaciones del gobierno que con las consideraciones éticas cuando firmaban un contrato con el gobierno de los EE. UU., una entidad sin directrices éticas formales sobre el uso de la inteligencia artificial.

En apariencia, cada uno de los siete principios establecidos por Pichai son puntos generales que se leen como declaraciones de “cuídate tu mismo”. Y, cada uno corresponde con una preocupación muy legítima que la compañía parece estar evitando discutir. Después del primer principio antes mencionado, simplemente se vuelve más insulso:

2. “ Evitar crear o reforzar un sesgo injusto”. Esto, en lugar de un compromiso con el desarrollo de métodos para luchar contra el sesgo.

3. Construido y probado con seguridad”. Pichai dice: “Continuaremos desarrollando y aplicando sólidas prácticas de seguridad y protección para evitar resultados involuntarios que creen riesgos de daño”. Es interesante que la gente de Pichai no parezca pensar que exista riesgo de consecuencias no intencionadas para enseñar a los militares cómo desarrollar IA de procesamiento de imágenes para drones.

4. “Sé responsable ante las personas”. En lugar de “desarrollar IA con transparencia”, lo cual sería genial, esto solo dice que Google finalmente responsabilizará a un ser humano por crear su IA.

5. “ Incorporar principios de diseño de privacidad”. Apple acaba de presentar una tecnología diseñada para evitar que las grandes empresas de datos recopilen sus datos. Google acaba de decir que se preocupa por la privacidad. Las acciones hablan más que las palabras.

6. “ Mantener altos estándares de excelencia científica”. La investigación de Google ocurre dentro de una cámara interna de eco científico. Los números 4, 5 y 6 deben reemplazarse por “ser transparente”.

7. “ Estar disponible para usos que estén de acuerdo con estos principios”. En este mismo documento, Pichai señala que Google hace que gran parte de su trabajo en IA esté disponible como código de fuente abierta. Es fácil decir que solo desarrollará IA con las mejores intenciones y lo usará solo para bien, siempre y cuando no se responsabilice de cómo se usa una vez que los genios de su compañía terminen de inventarlo.

La publicación de Pichai sobre los principios de Inteligencia Artificial de Google sirve un poco más de propósito que, tal vez, eventualmente termine como una referencia hipervinculada en una futura disculpa.

Si Google quiere arreglar su recientemente empañada reputación, debería considerar el problema del desarrollo de IA lo suficientemente serio como para llegar a un conjunto de principios realistas que guíen el desarrollo futuro, uno que aborde las preocupaciones éticas de frente. Su intento actual no es más que siete tonos de área gris, y eso no ayuda a nadie.

Por Ángel Leonardo Torres

Todo evoluciona ¿te vas a quedar atrás? Hablo un poco de inteligencia artificial y tecnología Electrónica y Telecomunicaciones.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *