La Inteligencia Artificial y las diferentes tecnologías asociadas a la misma han experimentado un crecimiento exponencial a lo largo de los últimos años. Con el objetivo de entender cómo lo ha hecho y cómo está impactando en el día a día de las empresas y la sociedad, hemos entrevistado a Juan-Carlos Pérez-Cortés, Director del Área de Percepción, Reconocimiento, Aprendizaje e Inteligencia Artificial en ITI. Además, Pérez-Cortes, que cuenta con años de experiencia en el sector, nos presenta al ITI, Centro Tecnológico privado dedicado a la Investigación y centrado en impulsar la implementación de estas tecnologías en las compañías.
Tabla de contenidos
¿Qué es ITI?
ITI es un Centro Tecnológico privado dedicado a la Investigación, Desarrollo e Innovación en Tecnologías de la Información y las Comunicaciones (TIC), que forma parte de la Red de Institutos Tecnológicos de la Comunidad Valenciana (REDIT) y a la Federación Española de Centros Tecnológicos (FEDIT).
Desde su nacimiento en 1994, el trabajo de ITI ha estado íntimamente ligado a tecnologías que posibilitan realizar un análisis inteligente de la información. Machine Learning, Reconocimiento de patrones o Sistemas de información distribuidos fueron las primeras líneas de investigación del centro que hoy han derivado en lo que conocemos como Inteligencia Artificial, Big Data o Cloud Computing y Computación de Alto Rendimiento (HPC).
Actualmente, con una plantilla de más de 250 personas trabajando en torno a la explotación de datos, ITI es el Centro Tecnológico de Referencia a nivel nacional y uno de los líderes a nivel europeo en estas tecnologías, que se confieren como las grandes revolucionarias de la economía y sociedad presentes y futuras.
¿Cuál es su papel dentro de ITI?
Dirijo el área de investigación de Percepción, Reconocimiento, Aprendizaje e Inteligencia Artificial. Trabajamos desde principios de los 90 en el ámbito del “Machine Learning” (algoritmos de aprendizaje automático) y, por lo tanto, tenemos bastante experiencia en unas técnicas que hoy en día están muy de moda, pero que, sin la exposición mediática actual, han ido evolucionando, generando avances teóricos y resultados prácticos durante varias décadas.
Aplicamos estas técnicas a problemas de diversa índole, incluyendo diferentes sectores industriales y de servicios. En este momento gran parte de los proyectos que tenemos en marcha tienen que ver con el mundo de la sanidad y la medicina. Muchos de ellos buscan ayudar a predecir la respuesta a tratamientos, el diagnóstico basado en diferentes parámetros clínicos, genómicos y de otros tipos, el pronóstico a largo plazo, la optimización de tratamientos, la medicina personalizada, etc.
Desde hace más de treinta años analiza tecnologías que están dentro del paraguas de la Inteligencia Artificial ¿Podría contarnos cómo ha evolucionado el mundo de la IA?
Ha habido dos procesos de cambio continuo en paralelo. Por un lado, la mejora en los sistemas de cómputo ha sido constante y muy clara, tanto de propósito general (la CPU de los ordenadores) como especializados (las GPUs y otros procesadores dedicados a los cálculos más pesados y frecuentes en los algoritmos de Machine Learning e IA). Actualmente, tenemos una potencia de cálculo disponible en los sistemas portátiles, de escritorio y también en la nube, que unida a canales de comunicación de baja latencia y gran ancho de banda, ofrecen unas posibilidades con las que no podíamos soñar siquiera en los años 90.
Por otra parte, los algoritmos también han evolucionado. La IA simbólica, que mantenía dos aproximaciones, la deductiva, ejemplarizada sobre todo con los Sistemas Expertos y los Sistemas de Reglas, y la inductiva, que se basaba en la teoría de lenguajes y autómatas y la inferencia gramatical, ha quedado más estancada, aunque sigue teniendo áreas de aplicación.
La IA subsimbólica, basada en la Teoría de la Decisión, en los Espacios de Representación numéricos y la conexionista, que ahora se conoce bajo el nombre de Redes Neuronales, ha tenido más desarrollo. En los últimos años se han popularizado algunos algoritmos muy potentes basados en combinar elementos clásicos de forma casi masiva, como los árboles de decisión para formar bosques de árboles (“Random Forests”) y formas más sofisticadas de estos, también algoritmos en cascada, algoritmos de búsqueda aproximada en espacios vectoriales aplicados de forma también masiva y, finalmente, los más famosos, los algoritmos de aprendizaje de Redes Neuronales Profundas (“Deep Learning”).
Ahora el reto está muchas veces en cómo aplicar los algoritmos evitando sesgos, sobre generalizaciones, errores en la concepción del entrenamiento o del análisis de prestaciones, etc., más que en desarrollar métodos más potentes.
¿En qué sector considera que está teniendo una mayor implantación?
La implantación más generalizada está dándose en los dispositivos de consumo, como móviles, asistentes domésticos y ordenadores de uso personal. Pero los ámbitos en los que está generando más avances importantes, creo que son los de tipo científico en general, la medicina en particular y también en algunos sectores industriales, en el control de calidad y la optimización de procesos.
Uno de sus campos de especialización es el reconocimiento de la voz, ¿qué le parece el auge de los asistentes virtuales? ¿Qué futuro les augura, más allá de la domótica?
La voz es una de las formas de interacción más naturales y versátiles. Reúne las ventajas del texto, que subyace a su estructura, la inmediatez y velocidad, superando a teclados, reconocimiento de la escritura, etc., y además contiene información biométrica que permite distinguir quién está interactuando. Sin duda, irá reemplazando el resto de métodos de introducción de datos y combinándose con ellos de manera cada vez más natural. Será paulatino y apenas nos daremos cuenta, pero en 10 o 15 años tendremos una forma de comunicación con las máquinas muy diferente a la actual, más ágil y natural.
Al margen de esa evolución y ese uso diario que hacemos de ella, en la sociedad existe la falsa creencia de que la IA es algo nuevo, pero esa percepción dista mucho de la realidad. Además, hay que sumar la desconfianza que viene aparejada a su uso, ¿cómo combatir esta desinformación? ¿son estas percepciones un problema para su evolución?
Las bases iniciales de la IA se remontan a mitad del siglo XX, efectivamente. De hecho, el criterio que todavía se considera universal para juzgar la inteligencia aplicable a un sistema automático es el test de Turing, el célebre matemático inglés. La desconfianza en la tecnología tampoco es nueva. En el siglo XIX los médicos describían con horror los problemas sobre el cuerpo humano que podrían acarrear los viajes en tren.
Ahora, una vez más, tememos lo que pueda ocurrir en el futuro con los sistemas de IA. Siempre es interesante mantener presente el principio de precaución. La confianza ciega no es buena y un sano sentido crítico nunca está de más, pero en este momento los sistemas que podemos desarrollar son simplemente herramientas y están lejos de ser otra cosa. Eso sí, son herramientas muy potentes y por tanto hay que mantener un control público de su uso para evitar que se utilicen contra las personas.
Precisamente esa vigilancia, esas garantías y esa transparencia que debe llevar asociadas el control público del uso de las tecnologías a gran escala, no solo de la IA sino también de otras herramientas susceptibles de condicionar nuestras vidas, son los mejores argumentos para evitar el problema de la desconfianza.