En este edición especial de la columna @BuildActions para el TEDxPuraVidaJoven 2019, les compartimos el paso a paso en como entrenar a su propio asistente virtual para que comprenda lenguaje natural, voz y texto.

Entrevista para Sinart sobre Cómo crear su propio asistente virtual || Periodista: María Fernanda MurilloTEDx Pura Vida 2019

¡A entrenar robots se ha dicho! El primer paso es ingresar a la consola de Actions on Google: http://console.actions.google.com desde donde pueden crear un nuevo proyecto o seleccionar uno de los proyectos en el que ya estén trabajando.

Una vez creado o seleccionado el proyecto en el que van a trabajar, podrán iniciar con la configuración de la acción. En esta sección vamos a incluir:

  1. Cómo se invoca la acción: Estas son las maneras en las que el usuario le indicará al Asistente como invocar a su aplicación, con frases como “Hey Google, hablar con {$invocacion}”. Por ejemplo: “Tropical Tours” o “Emprendiendo con Iria”.

2. Crear la accion: Una vez que ingresan a esta sección podemos agregar las áreas de entrenamiento de nuestro asistente virtual.

3. Entrenamiento: Para poder crear una acción debemos conocer los siguientes conceptos que rodean a esta herramienta de Procesamiento de Lenguaje Natural:

i) Intents o Intenciones, son las formas en las que el usuario puede activar a su asistente y sus respectivas respuestas. Por ejemplo, podría crear un agente que reconozca y responda a los intereses de los usuarios sobre una agencia de tour o hoteles. Si un usuario dijera algo como “Quiero reservar un tour de Canopy” o “Consígueme una noche de hotel en Tulum”, el agente comparará esta entrada con las intenciones en las que ha sido entrenado e identifica el diálogo con el que debe continuar.

En este caso al usuario estar solicitando la reserva de un tour, el agente es entrenado para capturar los parámetros obligatorios requeridos en esta conversación, para poder efectuar esta acción por completo, por ejemplo: Qué tour desea reservar?, Ciudad de la reserva, Cantidad de personas, Fecha de ingreso, Fecha de salida y por último su correo electrónico.

Y finalmente, en cada intención el asistente debe ser entrenado en la respuesta final que debe brindar al finalizar cada diálogo, y en este caso utilizaremos el Fulfillment para que se comunique de manera dinámica con las respuestas, por lo que debemos habilitar las llamadas al webhook:

ii) Entities o Entidades, son el mecanismo de Dialogflow para identificar y extraer datos útiles de las entradas de lenguaje natural realizadas por los usuarios. Existen entidades predefinidas del sistema para extraer fechas, horas y ubicaciones de las conversaciones, pero también podemos crear nuestra propias entidades, por ejemplo, podemos crear el tipo de entidad @tours para reconocer un conjunto único de servicios o productos que ofrecemos y sus respectivos sinónimos como: Canopy, Zip Line y Tirolesa.

iii) El Fulfillment es el código que se implementa como un webhook para permitirle al agente de Dialogflow a su lógica en base a cada intent. Durante una conversación, el Fulfillment permite utilizar la información extraída en la entidades para generar respuestas dinámicas o desencadenar acciones en su back-end.

Una vez entrenado el asistente virtual con Dialogflow, vamos a regresar a la consola de AoG a probar nuestra acción en el simulador.

Los próximos mil millones de usuarios lo esperan, el futuro es ahora. El asistente cuenta con más de mil millones de dispositivos disponibles en más de 80 países en 30 idiomas, incluidos el Español de América Latina y España.

Por Leo Camacho

AI Developer & Certified Educator 🤖 Passionate about NLP & Voice Assistants 🏆 Hackathon Winner/Finalist NASA, MIT, IMF, TechCrunch DisruptSF & SW Korea💡

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *