Si bien es cierto que los chatbots y los sistemas IVR conversacionales han avanzado mucho en su capacidad de ofrecer un servicio de calidad, sin embargo, tienden a adoptar los sesgos de sus diseñadores humanos. Si los responsables de los centros de contacto quieren confiar plenamente en esta tecnología, no pueden ignorar este problema. Por lo tanto, ¿cómo podemos mitigar el sesgo?

La IA conversacional está cambiando nuestra forma de hacer negocios.

En 2018, IBM declaró audazmente que los chatbots ya podían gestionar el 80% de las consultas rutinarias de los clientes. Ese informe incluso pronosticó que los bots tendrían una tasa de éxito del 90% en sus interacciones para 2022. A medida que estudiamos el panorama de las empresas que utilizan IA conversacional, parece que se está desarrollando de esa manera.

Sin embargo, no muchos clientes están encantados con estos avances. Según una investigación reciente de UJET, el 80% de los clientes que interactuaron con bots afirmaron que aumentaron sus niveles de frustración. El 72% incluso lo calificó de «pérdida de tiempo».

Si bien es cierto que los chatbots y los sistemas IVR conversacionales han avanzado significativamente en su capacidad para ofrecer un servicio de calidad, aún presentan serias limitaciones. La más notable es que tienden a adoptar los prejuicios de sus diseñadores humanos, a veces incluso amplificándolos. Si los responsables de los centros de contacto quieren confiar plenamente en esta tecnología, no pueden ignorar este problema.

¿Qué son los sesgos de los chatbots y la IA conversacional?

A primera vista, la idea de que un ordenador tenga prejuicios puede parecer paradójica. Es una máquina, podría decirse, así que ¿cómo puede tener una actitud o disposición a favor o en contra de algo?

Pero recuerda que la inteligencia artificial ha sido creada por humanos. Como tal, su programación refleja a sus creadores humanos, incluidos sus prejuicios. En muchos casos, esos prejuicios pueden incluso amplificarse porque quedan profundamente codificados en la IA.

Ha habido algunos ejemplos extremos (y bien conocidos) de esto. Tay, el chatbot de Microsoft, se cerró después de sólo 24 horas cuando empezó a tuitear comentarios racistas y de odio. Blender, el chatbot de Facebook, también aprendió lenguaje vulgar y ofensivo a partir de los datos de Reddit.

Por muy preocupantes e importantes que sean estos ejemplos extremos, eclipsan el problema más generalizado y persistente de la parcialidad de los chatbots. Por ejemplo, el motor de procesamiento del lenguaje natural (NLP) que impulsa la IA conversacional no suele reconocer bien las variaciones lingüísticas, lo que suele provocar que los bots no reconozcan los dialectos regionales o no tengan en cuenta la lengua vernácula de todos los grupos culturales y étnicos que utilizarán los chatbots.

Más sutil es la tendencia de los chatbots y otras formas de IA conversacional a adoptar características femeninas, reforzando los estereotipos sobre la mujer y su papel en una economía de servicios. En ambos casos, está claro que estos bots reflejan prejuicios presentes en sus autores humanos. La pregunta es: ¿qué se puede hacer al respecto, especialmente en los centros de contacto?

Afrontar el problema

Muchas de las soluciones a la parcialidad de los chatbots están en manos de los desarrolladores y de los procesos que utilizan para crearlos. Y lo que es más importante, los equipos de desarrollo necesitan un conjunto diverso de puntos de vista en la mesa para garantizar que esos puntos de vista estén representados en la tecnología.

También es crucial reconocer las limitaciones de la IA conversacional y crear soluciones teniendo en cuenta esas limitaciones. Por ejemplo, los chatbots tienden a funcionar mejor cuando sus conjuntos de tareas no son tan amplios como para introducir demasiadas variables. Cuando un bot tiene un trabajo específico, puede centrar más sus parámetros para un público determinado sin arriesgarse a ser parcial.

Sin embargo, los desarrolladores no operan en el vacío y es fundamental tener en cuenta la perspectiva del usuario final a la hora de diseñar y evaluar los chatbots. Los comentarios de los clientes son un componente esencial del desarrollo y rediseño de los chatbots para eliminar mejor los prejuicios.

Un enfoque eficaz para afinar los algoritmos de los chatbots implica todo lo anterior, y más. Para acelerar el proceso y profundizar en él, es necesario aprovechar el poder de la IA no sólo para crear chatbots, sino también para probarlos.

Profundizar para desarraigar los prejuicios

Sin embargo, éstas no son las únicas formas de enseñar a los robots a hacerlo mejor. Una de las opciones más eficaces es dejar que la IA haga el trabajo por ti. En otras palabras, en lugar de limitarse a esperar las diversas perspectivas de tu equipo de desarrollo o de tus clientes, ¿por qué no ser proactivo para desarraigar los prejuicios lanzando diversos escenarios a tus bots?

Una solución eficaz de pruebas de IA conversacional debe ser capaz de realizar una serie de pruebas que ayuden a exponer los prejuicios. Por ejemplo, la IA le permite añadir «ruido» a las pruebas que ejecuta para tu IVR conversacional. Este ruido puede ser literal, pero también puede incluir cambios orientados a la parcialidad, como presentar el IVR a diferentes acentos, géneros o variaciones lingüísticas para ver si responde adecuadamente.

En cuanto al chatbot, la IA le permite probar tus bots con una amplia gama de alternativas y variaciones en la redacción y las respuestas. Piensa en las posibilidades, por ejemplo, si pudieras generar inmediatamente una larga lista de opciones potenciales sobre cómo alguien podría formular una petición. Por ejemplo, reformular una pregunta o parafrasear una consulta más larga. Con estas alternativas, puedes probar tu bot con las que tengan más posibilidades de provocar una reacción sesgada.

Las pruebas pueden llevarte aún más lejos en tu búsqueda para mitigar el sesgo. Los datos de entrenamiento son uno de los componentes más críticos para enseñar a tu bot a responder adecuadamente, y puedes utilizar las pruebas de NLP para analizar los datos de entrenamiento que estás utilizando y determinar si están infundiendo sesgo en tus chatbots. Incluso puedes utilizar funciones de prueba basadas en IA para ampliar el conjunto disponible de datos de prueba y poner sobre la mesa ángulos de conversación más diversos. En efecto, esto le permite diversificar la perspectiva de tu bot, incluso si tu equipo de desarrollo aún no es tan diverso como podría ser.

Las soluciones de pruebas basadas en IA son capaces de realizar este tipo de pruebas y muchas más. Y, cuando utiliza la IA, acelera rápidamente tu capacidad para probar tus sistemas de IA conversacional, ya sea para detectar sesgos o muchos otros problemas.

No tienes que esperar hasta haber reunido el equipo perfecto de desarrolladores o acumulado un conjunto diverso de datos de clientes para eliminar los sesgos en tus chatbots e IVR conversacional.

Por Nikolett Török

Recién graduado, estudiante de doctorado que apoya diligentemente a Botium en todo tipo de tareas de marketing o relación con el cliente.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *