Escrito por Daniel Cerdas Mendez en Planeta Chatbot.

1.1 Inicios de la Inteligencia artificial

El17 de mayo de 1990, se publica el primer libro del autor Lyman Frank Baum llamado: El Maravillo Mago de Oz que, por primera vez en la literatura moderna, hace referencia a máquinas autónomas tal como El hombre de Hojalata y Tik-Tok en el libro Ozma de Oz [41].

En 1950, Allan Turing publica un artículo de Investigación llamado: Computing Machinery and Intelligence [15]; en la investigación, se cuestiona si las computadoras podrían pensar, a aprender e interactuar con el usuario y además define la inteligencia de computadoras como: “una computadora humana capaz de procesar instrucciones y tener conciencia”.

Debido a investigación de Turing, se inicia las bases científicas para realizar las primeras investigaciones sobre inteligencia artificial y la comunicación entre humano computadora de una forma natural. A Turing, se le considera el padre de la computación moderna, debido al diseño de la maquina con el mismo nombre [42], creada con el objetivo de resolver cualquier tipo de problema (Maquina Universal).

Ramas de la Inteligencia Artificial

En 1958, John McCarthy crea un lenguaje de programación llamado LISP que se convertirá en el lenguaje más utilizado para programar software para Inteligencia Artificial [4]. La diferencia con los otros lenguajes existentes, es que su enfoque no fue manipular los datos numéricos, sino que, se basa en la representación de estructuras simbólicas.

En 1968, se estrena la película Odisea en el espacio, referente de la inteligencia de artificial y los asistentes virtuales de la actualidad. En esta película, un agente inteligente llamado HAL es el encargado de controlar la nave y manipular a los humanos [43].

En 1976, D.R Reddy plantea la necesidad de comunicarse con la computadora de otra forma que no fuera un teclado, por lo tanto, publica un articulo de investigación relacionado con el reconocimiento de la voz humana y de la conversación. Además, plantea preguntas como: ¿Para que es bueno el dialogo y que tan bueno es?

En 1980, ya existen los tres primeros lenguajes de desarrollo para los agentes virtuales[5] tales como: NIAL, LISP y PROLOG.

En 1990, se crea un concurso llamado: Loebner Prize, para impulsar el desarrollo de la inteligencia artificial; dicho concurso se basa en la prueba de Turing y cada año se realiza se entrega un premio de $10000 y una medalla de bronce para la computadora que parezca mas humana [33].

1.2 La prueba de Turing (La prueba real de la Inteligencia Artificial)

Allan Turing [3], como propuesta de su articulo, presenta un juego de imitación que permitía identificar si una computadora podia pensar. En el juego presentado, deben de permanecer tres personas: un hombre, una mujer y un interrogador, el interrogador debe determinar cual de los dos es la mujer, y tanto el como ella, deben de confundirlo.

Para incorporar la inteligencia artificial, una computadora debe asumir el papel de la persona A, el punto es como la computadora trata de engañar al interrogador de ser la persona B. [6]. El test de Turing, debido a su sencillez puede ser ejecutado en diferentes escenarios con diferentes actores y preguntas, esto permite estar seguro de que una computadora responda con todo el conocimiento adquirido en tres ejes principales: entendimiento, razonamiento y el aprendizaje.

Turing predijo, que al final del siglo, el uso de las palabras y las opiniones educadas podrían alterarse tanto que se iba lograr hablar con las computadoras, estas maquinas lograrían pensar sin esperarse una contradicción [6]. Este test, gracias al concurso de Loebner Prize, permite medir la inteligencia de los Bots y sus capacidades de Deep Learning [33], por lo tanto, el hecho de lograr pasar este test, es el mayor avance de esta tecnología.

 

1.3 El Lenguaje de comunicación con la Inteligencia Artificial: NPL (Procesamiento de lenguaje natural)

Este lenguaje, también es conocido como computación lingüística y le permite a la computadora interpretar el lenguaje humano basado en el razonamiento, aprendizaje y entendimiento.

El NLP, fue transformado por investigadores para poder construir un modelo exitoso en la traducción humano-computadora con lenguajes empíricos de datos.

El procesamiento del lenguaje natural, desarrolla técnicas computacionales con el propósito del aprendizaje, entendimiento, y producción de contenido humano [7].

Para entender el lenguaje humano se han desarrollado tres técnicas :

  • Machine Traslation: Es la forma como la computadora traduce lenguajes humanos y logra descomponerlos en una estructura semántica entendida por una computadora. Según Hirschberg, esta tecnología ha avanzado gracias al Deep Learning, que consiste en entrenar un modelo con diferentes representaciones para optimizar un objeto final en este caso, las traducciones [7], además, permite el uso de tecnologías actuales como: Google Traslate y Skype Traslator
  • Speech Recognition: Es el proceso de convertir una señal del dialogo en una secuencia de palabras, esto por medio de un algoritmo implementado por un programa de computadora [5]. La tecnología de speech recognition, ha hecho posible al computador responder por comandos de voz y entender el lenguaje de la computadora como lo hacen los asistentes virtuales de los teléfonos y los parlantes como Alexa. Existen tres formas del speech recognition: palabras insoladas, palabras conectadas, y dialogo espontaneo [5]
  • Speech Synthesis: Es la forma en que el computador pasa de texto a dialogo, y el software debe comprender la entonación, pronunciamiento y duración del dialogo. Un ejemplo de esto, es la computadora utilizada por Stephen Hawking.

La evolución de la inteligencia artificial y su entrenamiento, es posible con la gran cantidad de información disponible gracias a la web 2.0. Estos servicios web, permiten extraer información usando la minería de datos para entrenar a sus sistemas en el reconocimiento del lenguaje del humano, por ejemplo: identificando los textos, imágenes , emociones, personas, audios, videos y movimientos. Estos sistemas entrenados, se pueden utilizar en dispositivos para ayudar a personas con ceguera a descubrir el mundo, los objetos y personas alrededor de ellos [39].

1.4 Primeros lenguajes de programación de IA

Para 1984, ya exista una variedad de lenguajes de programación para uso en inteligencia artificial [5], estos lenguajes se desarrollaron para facilitar mecanismos que permitieran manipular el conocimiento del mundo real. J Glasgow, publicó un articulo con las principales características de los lenguajes de la Época [5].

Estos lenguajes tienen 4 propiedades importantes:

  • Son lenguajes interpretados en vez de basado en compilados.
  • No se encuentran basados en el estilo de computación de Von Neumann.
  • Se encuentran desarrollados en framework con bases solidas en matemáticas.
  • Tienen ambientes de programación amigables e interfaces de usuario.

Además, en la investigación se mencionan los tres lenguajes:

LISP: Este lenguaje, potencia la investigación de la inteligencia artificial en los años de 1960–1980 [5], fue pensado como un lenguaje para la expresión y manipulación de formulas matemáticas, su versatilidad permite que la interpretación sea modificada según el desarrollador.

PROLOG: Se convertía en una herramienta ideal para resolver problemas, basado en la programación lógica. Este utiliza la lógica como una herramienta para resolver problemas en la Inteligencia artificial, el conocimiento acerca de un problema, puede ser almacenado como un axioma en el lenguaje, además,, es usado en aplicaciones NPL, sistemas expertos y diseño de arquitectura.

NIAL: Es un lenguaje de programación, que tiene estructura de datos similar al LISP, cada arreglo representa objetos del mundo real y sus manipulaciones.

1.5 Hitos de la ultima década

En 1996, la computadora de IBM llamada: Deep Blue logra vencer al campeón mundial de ajedrez Kasparov. Esta computadora fue configurada para aprender las mejores 70000 jugadas en la historia del ajedrez [17].

En 2011, IBM crea su primer super computador para participar en el juego americano llamado: JeoPardy, que se caracteriza por preguntas y respuestas en formas de preguntas. El potencial desarrollado por Watson, es utilizado actualmente por los científicos debido a las capacidades de interpretar el lenguaje natural y autoaprendizaje del entorno [14].

En el 2014, un bot conversacional logra ganar el test de Turing por primera vez en la historia, el cual es considerado un gran avance en la historia científica para la inteligencia artificial. El bot llamado: Eugene Goostman, simulaba ser un niño de Ucrania de 13 años de edad y fue capaz de engañar al 33% de los jueces que era un humano [18], fue desarrollado por el ruso Vladimir Veselov, el ucraniano Eugene Demchenko y el ruso Sergey Ulasen.

En el 2016, Google crea una super computadora llamada: DeepMind [16] capaz de jugar GO ( un juego de mesa chino), la primera mención de este juego fue 548 a.c, y es similar al ajedrez, sin embargo, es un tablero de 19×19.

El 18 Octubre de 2016, Microsoft indica que ha logrado vencer la barrera del reconocimiento de la voz humana, ellos mencionaron que su sistema de reconocimiento tuvo una tasa de errores palabra (WER) de 5,9 [19]. Esto significa, que una computadora puede reconocer una conversación como lo realizan las personas.

Microsoft desarrolló su propio motor encargado del Deep Learning: llamado Satori [13], ha indexado un billon de objetos en 4 años y corre diariamente para capturar y aprender hasta 28000 DVD de contenido, con esta información, Microsoft Bing muestra datos predictivos sobre: política, futbol y olimpiadas, por otra parte, IBM tiene su propio motor llamado: Watson.

Referencias

[1] Abu Shawar, B., & Atwell, E. (2007). Chatbots: are they really useful? LDV-Forum: Zeitschrift für Computerlinguistik und Sprachtechnologie22(1), 29–49. https://doi.org/10.1.1.106.1099

[2] Augello, A., Gentile, M., Weideveld, L., & Dignum, F. (2016). A model of a social chatbot. En Smart Innovation, Systems and Technologies (Vol. 55, pp. 637–647). https://doi.org/10.1007/978-3-319-39345-2_57

[3] Brunette, E. S., Flemmer, R. C., & Flemmer, C. L. (2009). A review of artificial intelligence. En ICARA 2009 — Proceedings of the 4th International Conference on Autonomous Robots and Agents (pp. 385–392). https://doi.org/10.1109/ICARA.2000.4804025

[4] Turing, A. M. (2009). Computing machinery and intelligence. En Parsing the Turing Test: Philosophical and Methodological Issues in the Quest for the Thinking Computer (pp. 23–65). https://doi.org/10.1007/978-1-4020-6710-5_3

[5] Glasgow, J., & Browse, R. (1985). Programming languages for artificial intelligence. Computers & Mathematics with Applications11, 431–448. https://doi.org/10.1016/0898-1221(85)90049-5

[6] Reddy, D. R. (1976). Speech recognition by machine: a review. Proceedings of the IEEE64(4), 501–531. https://doi.org/10.1109/PROC.1976.10158

[7] Saygin, A., Cicekli, I., & Akman, V. (2000). Turing Test: 50 years later. MINDS AND MACHINES10(4), 463–518.

[8] Hirschberg, J., & Manning, C. D. (2015). Advances in natural language processing. Science349(6245), 261–266. https://doi.org/10.1126/science.aaa8685

[9] Augello, A., Gentile, M., Weideveld, L., & Dignum, F. (2016). A model of a social chatbot. En Smart Innovation, Systems and Technologies (Vol. 55, pp. 637–647). https://doi.org/10.1007/978-3-319-39345-2_57

[10] Watters, A. (2016). Clippy and the History of the Future of Educational Chatbots. Hack Education Weekly News. Recuperado a partir de http://hackeducation.com/2016/09/14/chatbot

[11] Aron, J. (2011). How innovative is Apple new voice assistant, Siri? New Scientist212(2836), 24. https://doi.org/10.1016/S0262-4079(11)62647-X

[12] Jo-Foley, M. (2013). Cortana: More on Microsoft’s next-generation personal assistant. ZDNet. Recuperado a partir de http://www.zdnet.com/cortana-more-on-microsofts-next-generation-personal-assistant-7000020602/

[13] Gallagher, S. (2012). How Google and Microsoft taught search to understand the Web. Ars Technica. Recuperado a partir de http://arstechnica.com/information-technology/2012/06/inside-the-architecture-of-googles-knowledge-graph-and-microsofts-satori/

[14] High, R. (2012). The Era of Cognitive Systems: An Inside Look at IBM Watson and How it Works. International Business Machines Corporation1(1), 1–14. Recuperado a partir de http://www.redbooks.ibm.com/redpapers/pdfs/redp4955.pdf

[15] Alan, M. (1950). Turing. Computing machinery and intelligence. Mind59(236), 433–460. https://doi.org/http://dx.doi.org/10.1007/978-1-4020-6710-5_3

[16] Clark, J. (2016). Google Computers Defeat Human Players at 2,500-Year-Old Board Game. Recuperado 28 de marzo de 2017, a partir de https://www.bloomberg.com/news/articles/2016-01-27/google-computers-defeat-human-players-at-2-500-year-old-board-game

[17] Espeso, P. (2016). Deep blue el ordenador con una sola misión ganar al humano. Recuperado 30 de marzo de 2017, a partir de https://www.xataka.com/otros/deep-blue-el-ordenador-con-una-sola-mision-ganar-al-humano

[18] BBC. (2014). Computer AI passes Turing test in world first. Recuperado a partir de http://www.bbc.com/news/technology-27762088

[19] Linn, A. (2016). Historic Achievement: Microsoft researchers reach human parity in conversational speech recognition. Recuperado a partir de http://blogs.microsoft.com/next/2016/10/18/historic-achievement-microsoft-researchers-reach-human-parity-conversational-speech-recognition/#sm.0000yiw0tgaondlbpwx2n98ro0h1j

[20] Allison, D. (2012). Chatbots in the library: is it time? Library Hi Tech, 30(1), 95–107. https://doi.org/10.1108/07378831211213238

[21] Wilks, Y. (2005). Artificial companions. Interdisciplinary Science Reviews, 30(2), 145–152. https://doi.org/10.1179/030801805X2594

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *