La Inteligencia Artificial es una herramienta que la humanidad está manejando con creciente temeridad. Decimos que es para nuestro bien común con la exageración del aprendizaje automático igual a las ganancias comerciales. ¿Pero qué sucede cuando no tenemos el código de ética, las leyes, la responsabilidad del gobierno, la transparencia corporativa y la capacidad de monitorear el espacio para poder alcanzar la regulación de la IA?
La regulación de la Inteligencia Artificial no es solo un terreno complejo, es un territorio inexplorado para una era que está pasando la batuta del liderazgo humano al surgimiento del aprendizaje automático, la automatización, la fabricación robótica y la profunda confianza en el aprendizaje.
La Inteligencia Artificial (IA) es un área de la informática que enfatiza la creación de máquinas inteligentes que funcionan y reaccionan como los humanos. Pero, ¿qué sucede cuando los humanos no pueden regular, controlar y monitorear cómo se desarrolla, integra y actualiza la IA? ¿Qué sucede cuando los estados extranjeros lo utilizan para lograr sus propias agendas políticas y programas económicos sin un seguimiento cuidadoso de lo que podría llegar a ser un día?
¿Qué sucede cuando los militares y DARPA desarrollan nuevas aplicaciones de inteligencia artificial que envalentonan las manifestaciones militares de IA de China? La inteligencia artificial se considera en gran medida como una herramienta comercial, pero se está convirtiendo rápidamente en un dilema ético para Internet con el aumento de la falsificación de la IA y una nueva clase de contenido en el que es más difícil detectar qué es real y qué no lo es en línea.
Los recientes desarrollos en inteligencia artificial apuntan a una época en la que no solo la humanidad se actualizará, sino la desinformación. Ahora sabemos que la IA contribuye a la falsificación de documentos, imágenes, grabaciones de audio, videos e identidades en línea que pueden ocurrir y se producirán con una facilidad sin precedentes. Estamos lanzando un conjunto de herramientas de código abierto de armas de ciberseguridad que complicarán nuestras interacciones en línea.
Para navegar por un mundo de inteligencia artificial cada vez mayor, los intermediarios de inteligencia mecánica requieren un mejor sistema. Un sistema que garantiza que aprovechamos las oportunidades que la IA está creando, en todas y en varias áreas, incluido el transporte, la seguridad, la medicina, el trabajo, la justicia penal y la seguridad nacional, a la vez que afronta con fuerza los desafíos éticos, incluido el potencial de sesgo social, la necesidad de la transparencia y los errores que podrían detener la innovación de la IA al tiempo que exacerban los problemas sociales y aceleran la desigualdad social y económica. La inteligencia artificial podría ser peligrosa para el capitalismo y para la democracia misma.
La Inteligencia Artificial puede impulsar el PIB y la productividad globales, pero tendrá un costo social. Mientras que los líderes de Silicon Valley afirman sus increíbles beneficios, académicos célebres del pasado también han advertido sobre su potencial. Una creciente ubicuidad de la implementación de la IA parece coincidir con una desigualdad de riqueza acelerada por las corporaciones tecnológicas que interrumpen el mundo de los negocios. Los creadores de la IA no están “empleando las mejores prácticas y la gestión efectiva” que alguien como Stephen Hawking hubiera querido ver.
Cuando se trata de la IA en áreas de confianza pública, la era de “moverse rápido y romper todo” ha terminado, sin embargo, los cuerpos globales para proteger a la humanidad de los peligros potenciales del aprendizaje automático están notablemente ausentes. Los empleados de las empresas tecnológicas hacen circular peticiones sobre la ética de sus productos, sin resultados significativos. Los accionistas de las empresas de tecnología continúan apoyando a las empresas que aceleran la desigualdad de riqueza y disminuyen la movilidad social en la clase media.
El control de armas de la IA podría ser imposible de regular a la perfección. Henry Kissinger, ex secretario de estado de Estados Unidos y un polémico gigante de la política exterior estadounidense, cree que puede ser mucho más difícil controlar el desarrollo de armas de IA que las nucleares. La Inteligencia Artificial tiene tanto entusiasmo por la adopción de negocios que rara vez nos detenemos a pensar en lo que podría convertirse en un mundo de malos actores y leyes obsoletas. Un mundo donde la rivalidad nacional creará manifestaciones de IA que pondrán en peligro a grupos minoritarios de humanos. Un mundo donde la militarización de la IA significará una guerra automatizada que podría ser provocada cada vez más por accidente o por medios encubiertos de amenazas de ciberseguridad.
La regulación de la inteligencia artificial puede ser imposible de lograr sin una mejor IA, irónicamente. Como seres humanos, debemos admitir que ya no tenemos la capacidad de regular un mundo de máquinas, algoritmos y avances que podrían llevar a tecnologías sorprendentes con sus propios riesgos económicos, sociales y humanitarios más allá del alcance del derecho internacional, la supervisión gubernamental y la responsabilidad corporativa. y la conciencia del consumidor.