Las máquinas en realidad no tienen sesgo. La IA no quiere que algo sea verdadero o falso por razones que no se pueden explicar a través de la lógica. Lamentablemente, existe un sesgo humano en el aprendizaje automático, desde la creación de un algoritmo hasta la interpretación de los datos, y hasta ahora casi nadie ha intentado resolver este gran problema.

Un equipo de científicos de la República Checa y Alemania realizó recientemente una investigación para determinar el efecto que tiene el sesgo cognitivo humano en la interpretación del resultado utilizado para crear reglas de aprendizaje automático.

La investigacióndel equipo explica cómo 20 diferentes sesgos cognitivos podrían alterar potencialmente el desarrollo de las reglas de aprendizaje automático y propone métodos para “desvelarlas”.

La mejor manera de hablar de Machine Learning (traducción de Andreas Kretz)

Este artículo es una traducción de un artículo por Andreas Kretz titulado “Best way to talk about Machine Learning”…

planetachatbot.com

Sesgos como “sesgo de confirmación” (cuando una persona acepta un resultado porque confirma una creencia previa) o “sesgo de disponibilidad” (poniendo mayor énfasis en información relevante para el individuo que información igualmente valiosa de menos familiaridad) pueden interpretar la máquina aprendiendo datos sin sentido.

Cuando estos tipos de errores humanos se cocinan en partes de una IA, lo que significa que nuestro sesgo es responsable de la selección de una regla de entrenamiento que da forma a la creación de un modelo de aprendizaje automático, no estamos creando inteligencia artificial: solo estamos ofuscando nuestras propias observaciones defectuosas dentro de una caja negra.

Según el documento, este es un territorio nuevo:

Debido a la falta de investigaciones previas, nuestra revisión transfiere los resultados generales obtenidos en psicología cognitiva al dominio del aprendizaje automático. Necesita ser sucedido por estudios empíricos específicamente dirigidos al dominio de la máquina de aprendizaje

El panorama de la responsabilidad personal está cambiando a medida que se conectan más sistemas con inteligencia artificial. Pronto, la mayoría de los vehículos serán operados por máquinas y robots, llevarán a cabo una gran cantidad de cirugías y procedimientos médicos. Eso pondrá a los desarrolladores de Inteligencia al frente y al centro cuando ocurra una tragedia y la gente busque a alguien a quien culpar.

Los investigadores proponen una solución de desvinculación para cada sesgo cognitivo que examinarón. Para muchos de los problemas, la solución fue tan simple como cambiar la forma en que se representan los datos. El equipo formula la hipótesis de, por ejemplo, que cambiar la salida de los algoritmos para usar números más naturales que las proporciones podría reducir sustancialmente la posibilidad de malinterpretar ciertos resultados.

Desafortunadamente no hay una solución fácil para el problema general. La mayoría de las veces no sabemos que estamos siendo parciales. Creemos que estamos siendo inteligentes o intuitivos, o simplemente no pensamos en eso. Y hay mucho más que solo 20 sesgos cognitivos diferentes que los programadores de aprendizaje automático deben preocuparse.

Incluso cuando los algoritmos son perfectos y las salidas son inmutables, nuestros sesgos cognitivos hacen que nuestra interpretación de datos no sea confiable en el mejor de los casos. Todos tienen estos sesgos en un grado u otro, lo que hace que sea preocupante que haya habido tan poca investigación sobre cómo afectan la interpretación de los datos.

De acuerdo con el equipo:

Hasta donde sabemos, los sesgos cognitivos aún no se han discutido en relación con la interpretación de los resultados del aprendizaje automático. Así iniciamos esta revisión de la investigación publicada en ciencia cognitiva con la intención de dar una base psicológica a los cambios en los algoritmos de aprendizaje de reglas inductivas, y la forma en que se comunican sus resultados. Nuestra revisión identificó veinte sesgos cognitivos, heurísticos y efectos que pueden dar lugar a errores sistemáticos cuando se interpretan las reglas de aprendizaje inductivo.

Es importante que los investigadores de todo el mundo se basen en este trabajo y descubran métodos para evitar por completo el sesgo cognitivo en el aprendizaje automático. De lo contrario, la IA no es más que un amplificador para BS humano. Y la mala ciencia está destinada a crear malos robots.

Por Ángel Leonardo Torres

Todo evolucionana ¿te vas a quedar atras? Electrónica y Telecomunicaciones.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *