¿Podemos acabar con el término “inteligencia artificial”?

Estamos profundizando la crisis de credibilidad en la ciencia de datos.

-

TL; DR — Los científicos de datos tienen la responsabilidad de sacar el término inteligencia artificial del mundo. Necesitamos mostrar madurez al retroceder en la promesa casi inalcanzable incrustada en esta frase mal utilizada.

Antecedentes

“Esa es una pronunciación realmente extraña del aprendizaje automático, amigo”.

Desarrollo de ChatBots para empresas

Creamos chatbots en WhatsApp, Facebook Messenger, Telegram...

Contáctanos en nuestra web

Esta es mi respuesta al uso que hizo un colega científico de datos de las palabras inteligencia artificial durante una llamada telefónica a mitad de semana sobre cómo podríamos hacer crecer nuestro negocio.

Hace una pausa y, consciente de que las interrupciones sarcásticas no son una herramienta de enseñanza eficaz, respiró hondo y explicó: “Digamos que el aprendizaje automático que describe con mayor precisión el proceso de enseñar modelos matemáticos para generar conocimientos al proporcionarles ejemplos de entrenamiento”.

A medida que profundizo en mi comprensión de la ciencia de datos, descubrí cada vez más que la frase inteligencia artificial brilla con una falsa promesa:

  • El término induce a error a los responsables de la toma de decisiones a invertir en análisis avanzados antes de que su organización haya alcanzado la madurez de datos suficiente. Después de todo, la inteligencia debería poder hacer frente a un poco de complejidad de datos, ¿verdad?
  • Confunde muchísimo a los estudiantes jóvenes, que podrían haber prestado un poco más de atención en su clase de estadística si entendieran que ese era el camino hacia una carrera prometedora en ciencia de datos.
  • Distrae de las metodologías probadas y verdaderas dentro de la ciencia de datos.

Estoy listo para matar la inteligencia artificial.

Historia de la inteligencia artificial

La disciplina académica se inició en 1955 con el objetivo de crear máquinas capaces de imitar la función cognitiva humana. Aprender, resolver problemas, aplicar el sentido común, operar en condiciones de ambigüedad: en conjunto, estos rasgos forman la base de la inteligencia general, el objetivo de larga data de la inteligencia artificial.

Desde sus inicios, la investigación de la IA ha experimentado ciclos de auge y caída, alimentados por una abundancia de optimismo seguido de un colapso de la financiación. Estos reveses han sido tan dramáticos y tan endémicos en el campo que recibieron su propio neologismo: el invierno de la IA. Los dos inviernos más dramáticos ocurrieron a mediados y finales de los 70 y mediados de los 80 a mediados de los 90. La falta de manejo apropiado de la exageración es la causa comúnmente citada de este desafortunado antipatrón.

En palabras del científico jefe de datos del Laboratorio de Inteligencia Artificial Estratégica, T. Scott Clendaniel:

“Estoy realmente preocupado de que vayamos a entrar en un tercer invierno de IA … porque creo que el campo ha sido tan sobrevalorado que no hay forma de que pueda estar a la altura de las expectativas”.

Últimamente, la comunidad de aprendizaje automático ha estado respondiendo muchas consultas periodísticas sobre IA. En mayo de 2020, OpenAI lanzó su modelo GPT-3 para el procesamiento del lenguaje natural. El costo para entrenar inicialmente el modelo fue de $ 4.6 millones, requiriendo 355 años de GPU de potencia computacional. A partir de ahora, OpenAI ha lanzado el modelo a través de un punto de acceso API controlado en lugar de hacer que el código esté disponible gratuitamente para los investigadores.

Dejando a un lado las preocupaciones de impracticabilidad e inaccesibilidad por un momento, GPT-3 ha producido algunas hazañas impresionantes. Y, sin embargo, lo que es más importante, este desarrollo sobrevalorado no nos acerca a la inteligencia artificial.

Si avanzar en la investigación de AGI es análogo a enviar una nave espacial para explorar Marte, entonces el desarrollo de GPT-3 es más o menos análogo a invertir 4,6 millones de dólares en un cohete que crea una hermosa nube de fuego de escape sin salir de la plataforma de lanzamiento.

Límites del aprendizaje automático

El consenso general de la comunidad de investigadores es que AGI no se logrará mediante la profundización de las técnicas de aprendizaje automático.

La creación de inteligencia natural cuesta en promedio $ 125,000 y muchas noches sin dormir, pero en última instancia es muy satisfactoria. Foto de Shirota Yuri en Unsplash.

Las capacidades de aprendizaje automático son limitadas. Un algoritmo de aprendizaje automático puede lograr un rendimiento mejor que el humano, pero solo en tareas extremadamente específicas y solo después de una capacitación inmensamente costosa.

Las capacidades humanas son comparativamente amplias. Parece que somos excepcionalmente buenos en el aprendizaje de una sola vez: hacer inferencias y asignar categorías basadas en muy pocos ejemplos. Los niños pequeños dominan rápidamente las tareas de emparejar, clasificar, comparar y ordenar. Los bebés tienen un deseo innato de explorar la novedad y sacar conclusiones sobre el mundo en general.

Estas capacidades aún no son igualadas por la inteligencia artificial. Existe una paradoja en el hecho de que el aprendizaje automático puede vencer a un gran maestro en Go, pero un robot no puede vencer a un niño pequeño en la clasificación de bloques.

Parece poco probable que seguir el camino de las técnicas mejoradas de aprendizaje automático resulte en el logro de niveles humanos de razonamiento de sentido común o una solución versátil de problemas. Para citar al pionero del aprendizaje automático Stuart Russell:

“No creo que el aprendizaje profundo se convierta en AGI. La Inteligencia General Artificial no se logrará con solo tener redes de aprendizaje profundo más grandes y más datos … Los sistemas de aprendizaje profundo no saben nada, no pueden razonar, no pueden acumular conocimientos, no pueden aplicar lo que aprendido en un contexto para resolver problemas en otro contexto, etc. Y estas son solo cosas elementales que los humanos hacemos todo el tiempo”.

En otras palabras, las soluciones basadas en estadísticas son bastante buenas para la interpolación, es decir, para sacar conclusiones sobre ejemplos novedosos que se encuentran dentro de los límites de los datos que ya han visto. No son muy buenos para la extrapolación, es decir, usan lo que han aprendido para sacar conclusiones sobre el mundo en general.

Es posible que “el mayor truco que haya hecho la IA haya sido convencer al mundo de que existe”.

Next steps

Creo que es extremadamente importante que los investigadores de aprendizaje automático se pregunten si están resolviendo los desafíos correctos.

Aquí hay un video de YouTube sobre StarGAN v2, un modelo de aprendizaje automático que puede tomar una foto de un gato y usarla para crear un montón de imágenes similares inspiradas en fotos de perros. Mientras tanto, los problemas de calidad de los datos cuestan a las organizaciones estadounidenses 3,1 billones de dólares al año, según un análisis de IBM.

Quizás eliminar la IA de nuestro léxico ayudará a desacreditar la noción de que una herramienta artificialmente inteligente puede abordar fallas sustantivas en la gestión de datos. Lamentablemente, los datos de baja calidad son omnipresentes, y afectarán la función empresarial e impedirán la implementación de incluso las herramientas de análisis avanzadas más simples.

Matar la inteligencia artificial

Si eres un científico de datos o un ingeniero de aprendizaje automático, espero que tu conclusión de este artículo sea un sentido de responsabilidad para dejar de alimentar la publicidad en torno a la IA. A menos que esté en la vanguardia absoluta de la investigación de IA, su uso del término debe reservarse para la discusión del problema del control de superinteligencia y otras consideraciones orientadas al futuro.

Si no es una persona técnica, puede reemplazar con seguridad casi todos los usos de la inteligencia artificial con estadísticas muy, muy avanzadas. Esto ciertamente es cierto para cualquier herramienta disponible en el mercado hoy en día. Todavía hay espacio para la discusión filosófica en torno a cuestiones de inteligencia artificial general, pero esa tecnología aún está muy lejos.

Y si resulta que es un líder empresarial, en particular uno con IA en su título, esto es lo que Anil Chaudhry, director de implementaciones de IA en la GSA de EE. UU., Tiene que decir sobre su función:

“Describo la IA a las personas como inteligencia aumentada, no como inteligencia artificial”.

Incluso los líderes con IA en su título se están alejando de la IA.

En resumen, la visión futura de la inteligencia artificial no se logrará mediante métodos contemporáneos. La exageración en torno a modelos masivos y poco prácticos como GPT-3 revela una falta de comprensión sobre el estado actual de la inteligencia de las máquinas, o la falta de ella.

El uso excesivo de la inteligencia artificial no es solo una exageración caprichosa: es perjudicial para la comunidad científica de datos y corre el riesgo de llevar al campo a una crisis de confianza.

Pensamientos finales

Aquí hay tres tendencias que veo para la ciencia de datos en los próximos tres a cinco años.

  • Mayordomía del idioma utilizado en nuestro campo. Claramente, creo firmemente que es imperativo eliminar la IA del léxico.
  • Mayor dependencia del diseño centrado en el ser humano para identificar los riesgos asociados con la mala práctica del aprendizaje automático
  • No todos los errores deben tratarse como igualmente malos.

Para citar a Stuart Russell nuevamente:

“Algunos tipos de errores son relativamente baratos. Mientras que clasificar a un ser humano como gorila, como descubrió Google, es realmente caro, como en los miles de millones de dólares que se gastan en destruir su buena voluntad y reputación global. Estoy seguro de que fue una especie de error inocente, proveniente del uso de una función de pérdida uniforme “.

Identificar la gravedad de este posible error desde el principio del proceso de diseño podría haberle ahorrado muchos dolores de cabeza al equipo de ingenieros de ML de Google. La incorporación del diseño centrado en el ser humano en el proceso de creación del modelo no solo ayuda a seleccionar la función de pérdida óptima, sino que también ayuda a identificar posibles fuentes de sesgo (por ejemplo, datos de entrenamiento con desequilibrio racial) y otros riesgos.

Un regreso a los fundamentos, incluido un enfoque renovado en la comprensión del proceso de generación de datos de un extremo a otro.

Me encantaría ver a los científicos de datos desarrollar una amplia gama de habilidades que abarcan el proceso de generación de datos.

Citando de nuevo, esta vez al profesor de Harvard Gary King:

“Tienes que conocer todo el proceso de generación de datos del que surgen los datos … Siempre nos enfocamos en toda esa cadena de evidencia … Después de todo, estamos estudiando el mundo, no estamos estudiando un montón de datos”.

Por eso creo que es fundamental que los científicos de datos se familiaricen con los principios de la estrategia de datos de un extremo a otro. 

Entradas del mismo autor

Deja un comentario