La inteligencia artificial está aprendiendo más sobre cómo trabajar con (y sobre) humanos. Un estudio reciente ha demostrado cómo la IA puede aprender a identificar vulnerabilidades en los hábitos y comportamientos humanos y usarlos para influir en la toma de decisiones humanas.

Puede parecer un cliché decir que la IA está transformando todos los aspectos de la forma en que vivimos y trabajamos, pero es cierto. Varias formas de IA están funcionando en campos tan diversos como el desarrollo de vacunas, la gestión ambiental y la administración de oficinas. Y aunque la IA no posee inteligencia y emociones similares a las humanas, sus capacidades son poderosas y se desarrollan rápidamente.

No hay necesidad de preocuparse por la toma de control de una máquina por el momento, pero este descubrimiento reciente destaca el poder de la IA y subraya la necesidad de una gobernanza adecuada para evitar el mal uso.

Tabla de contenidos

Cómo la IA puede aprender a influir en el comportamiento humano

Un equipo de investigadores de Data61 de CSIRO, el brazo digital y de datos de la agencia científica nacional de Australia, ideó un método sistemático para encontrar y explotar vulnerabilidades en las formas en que las personas toman decisiones, utilizando una especie de sistema de inteligencia artificial llamado red neuronal recurrente y refuerzo profundo. aprendiendo. Para probar su modelo, llevaron a cabo tres experimentos en los que los participantes humanos jugaron contra una computadora.

  • El primer experimento involucró a los participantes haciendo clic en cuadros de color rojo o azul para ganar una moneda falsa, con la IA aprendiendo los patrones de elección de los participantes y guiándolos hacia una elección específica. La IA tuvo éxito alrededor del 70% del tiempo.
  • En el segundo experimento, los participantes debían mirar una pantalla y presionar un botón cuando se les muestra un símbolo en particular (como un triángulo naranja) y no presionarlo cuando se les muestra otro (digamos un círculo azul). Aquí, la IA se propuso organizar la secuencia de símbolos para que los participantes cometieran más errores y lograron un aumento de casi un 25%.
  • El tercer experimento consistió en varias rondas en las que un participante se haría pasar por un inversor que da dinero a un fideicomisario (la IA). La IA luego devolvería una cantidad de dinero al participante, quien luego decidiría cuánto invertir en la siguiente ronda. Este juego se jugó en dos modos diferentes: en uno, la IA buscaba maximizar la cantidad de dinero con la que acababa, y en el otro, la IA tenía como objetivo una distribución justa del dinero entre ella y el inversor humano. La IA tuvo mucho éxito en cada modo.

En cada experimento, la máquina aprendió de las respuestas de los participantes e identificó y apuntó vulnerabilidades en la toma de decisiones de las personas. El resultado final fue el aprendizaje automático para guiar a los participantes hacia acciones específicas.

Qué significa la investigación para el futuro de la IA

Estos hallazgos son todavía bastante abstractos e involucran situaciones limitadas y poco realistas. Se necesita más investigación para determinar cómo se puede poner en práctica este enfoque y utilizarlo en beneficio de la sociedad.

Pero la investigación avanza nuestra comprensión no solo de lo que puede hacer la IA, sino también de cómo las personas toman decisiones.Muestra que las máquinas pueden aprender a dirigir la toma de decisiones humana a través de sus interacciones con nosotros.

La investigación tiene una enorme gama de posibles aplicaciones, desde la mejora de las ciencias del comportamiento y las políticas públicas para mejorar el bienestar social, hasta comprender e influir en cómo las personas adoptan hábitos alimenticios saludables o energías renovables. La inteligencia artificial y el aprendizaje automático se pueden utilizar para reconocer las vulnerabilidades de las personas en determinadas situaciones y ayudarlas a evitar las malas decisiones.

El método también se puede utilizar para defenderse de los ataques de influencia. Se podría enseñar a las máquinas a alertarnos cuando estamos siendo influenciados en línea, por ejemplo, y ayudarnos a dar forma a un comportamiento para disfrazar nuestra vulnerabilidad (por ejemplo, al no hacer clic en algunas páginas o hacer clic en otras para dejar un rastro falso).

¿Qué sigue?

Como cualquier tecnología, la IA se puede usar para bien o para mal, y la gobernanza adecuada es crucial para garantizar que se implemente de manera responsable. El año pasado, CSIRO desarrolló un Marco de Ética de IA para el gobierno australiano como un primer paso en este viaje.

La inteligencia artificial y el aprendizaje automático suelen estar muy hambrientos de datos, lo que significa que es crucial garantizar que tenemos sistemas efectivos para la gobernanza y el acceso a los datos. Implementar procesos de consentimiento adecuados y protección de la privacidad cuando se recopilan datos es esencial.

Las organizaciones que utilizan y desarrollan IA deben asegurarse de saber lo que estas tecnologías pueden y no pueden hacer, y ser conscientes de los posibles riesgos y beneficios.

Fuente: The Conversation

Por Ángel Leonardo Torres

Todo evoluciona ¿te vas a quedar atrás? Hablo un poco de inteligencia artificial y tecnología Electrónica y Telecomunicaciones.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *