Sobre la Inteligencia Artificial los investigadores deben tomar en cuenta la seguridad al desarrollar nuevas aplicaciones. Si no lo hacen, los delincuentes aprovecharan esta tecnología.

Revisas tu correo de voz — es tu hija, aterrada, confusa. Ella está viajando, lejos en su año sabático. Te han enviado una serie de correos electrónicos: ha perdido su teléfono y dinero, necesita ayuda. Ahora, eres experto en tecnología; no eres fácil de estafar. Pero esta es — su voz. Usted manda el dinero.

Sin embargo, en todo el mundo, otros mil padres han recibido sus propios correos electrónicos y mensajes de voz personalizados. El algoritmo de un criminal ha robado las redes sociales, videos y fotos de vacaciones y ha creado mensajes hechos a medida y personalizados. La voz en su teléfono fue sintetizada. Todo esto se hizo a bajo costo con un mínimo de trabajo humano, a través del uso de inteligencia artificial.

Recientemente, la IA ha progresado significativamente, lo que desafortunadamente también hace que los escenarios como el anterior sean cada vez más plausibles. En general, este progreso ha incluido avances de investigación impresionantes. El sistema AlphaZero de Google DeepMind tardó solo ocho horas en dominar el antiguo juego de tablero chino de Go al aprender de la experiencia; los enfoques subyacentes pueden aplicarse con el tiempo a los desafíos científicos y económicos, prometiendo grandes beneficios. Más allá de las hazañas técnicas, la IA está revolucionando nuestra vida cotidiana, como por ejemplo Alexa y Siri controlados por voz, hasta el diseño de nuevos medicamentos.

El desarollo relativo de AlphaZero : Fuente: DeepMind

Pero como deja claro un informe, publicado, donde alertan el “doble uso” que se le podria dar a esta tecnología. Si bien esta claro que se utilizará para beneficiar a la sociedad de muchas maneras, también se puede usar y se usará maliciosamente. Criminales, terroristas y estados delincuentes explotarán estas poderosas herramientas para dañar a las personas.

Debemos explorar formas de predecir, prevenir y mitigar de forma más sistemática estos usos maliciosos.

El uso malicioso de la inteligencia artificial no solo amenaza la propiedad y la privacidad de las personas: en algunos de los escenarios más preocupantes, también amenaza sus vidas. La proliferación de drones y otros ciber-sistemas físicos, como vehículos autónomos y dispositivos médicos conectados, presentan objetivos y herramientas tentadores para terroristas, hackers y delincuentes. Los posibles escenarios incluyen, vehículos autónomos para causar accidentes o provocar explosiones o convertir drones comerciales baratos en misiles de caza.

La inteligencia artificial también podría ser utilizada de una manera que amenaza nuestra capacidad de sostener debates públicos veraces. La acusación reciente del Asesor Especial de los Estados Unidos, Robert Mueller, alega que Rusia tenía un equipo profesional de más de 80 personas trabajando a tiempo completo para interrumpir las elecciones presidenciales estadounidenses de 2016.

¿Qué pasará cuando los trolls profesionales puedan lanzar videos falsos baratos y altamente creíbles?, Ya hay herramientas disponibles para crear videos falsos a partir de archivos de audio en bruto, y hay herramientas que nos permiten sintetizar audio falso que suena como si fuera real. Combina los dos, y pronto será posible crear videos de noticias completamente falsos. ¿Qué pasará cuando puedan controlar un ejército de bots semiautónomos usando técnicas basadas en el ‘aprendizaje de refuerzo’ y otros enfoques de la IA? ¿Qué sucederá cuando puedan con precisión apuntar a las personas con propaganda barata e individualizada? Un equipo de 80 personas en el futuro, aprovechando por completo la IA, podría parecer más bien como un equipo de 8.000 hoy.

No estamos indefensos frente a estos riesgos emergentes, pero debemos reconocer la gravedad de estos riesgos y actuar en consecuencia. Las autoridades deben colaborar estrechamente con los investigadores técnicos para investigar, prevenir y mitigar los posibles usos maliciosos de la IA.

Investigadores y compañías que desarrollan inteligencia artificial han sido considerados y responsables en lo que respecta a las implicaciones éticas de las tecnologías que están desarrollando. Miles de personas han firmado una carta abierta pidiendo una IA robusta y beneficiosa. Las empresas de IA están trabajando juntas a través de la Alianza en IA. Varias pautas éticas están emergiendo, como los Principios de IA de Asilomar y el Diseño éticamente alineado de IEEE. Esta cultura de la responsabilidad debe continuar y profundizarse en lo que respecta a la seguridad, yendo más allá de los problemas de daños no intencionales (como los accidentes de seguridad y los prejuicios) que han ocupado gran parte del debate hasta ahora.

Los investigadores de inteligencia artificial y las organizaciones que los emplean se encuentran en una posición única para dar forma al panorama de seguridad emergente. Esto requiere explorar una gama de soluciones, algunas de las cuales pueden ser incómodas en la cultura académica actual, como retrasar un pequeño número de publicaciones selectas sobre ciertas técnicas para que puedan desarrollarse las defensas, como es más común en la comunidad de ciberseguridad o la seguridad cibernética.

Necesitamos hacernos las preguntas más difíciles: ¿qué tipo de investigación con la inteligencia artificial es más susceptible de uso malicioso? ¿Qué nuevas tecnologías deben desarrollarse para defenderse mejor de ataques plausibles?¿Qué instituciones o mecanismos pueden ayudarnos a encontrar el equilibrio correcto entre maximizar los beneficios de la IA y minimizar sus riesgos de seguridad? Cuanto antes lidiemos con estas preguntas, es menos probable que el escenario de suplantación telefónica anterior se convierta en realidad.

By Ángel Leonardo Torres

Todo evoluciona ¿te vas a quedar atrás? Hablo un poco de inteligencia artificial y tecnología Electrónica y Telecomunicaciones.

Leave a Reply

Your email address will not be published. Required fields are marked *