Leonardo Núñez González

Regular la inteligencia artificial

EL ESPEJO

Leonardo Núñez González*Esta columna expresa el punto de vista de su autor, no necesariamente de La Razón.
Leonardo Núñez González
*Esta columna expresa el punto de vista de su autor, no necesariamente de La Razón.
Por:
  • Leonardo Núñez González

El pasado 30 de octubre el presidente de EU, Joe Biden, emitió una orden ejecutiva con las primeras políticas y acciones para la regulación de la inteligencia artificial que, en palabras del propio mandatario, es la “tecnología más trascendental de nuestro tiempo”.

Los posibles riesgos que la inteligencia artificial presenta en materia de seguridad nacional ya no son un asunto de ciencia ficción, sino que ya están entre nosotros, y hay que tomar nota de la seriedad con que el tema está siendo tratado desde la perspectiva gubernamental en otras latitudes.

La orden ejecutiva de Biden es un documento de más de 100 páginas que se emitió invocando la Ley de Producción de Defensa, un instrumento usado desde 1950 que le permite al Gobierno tener facultades extraordinarias para intervenir y regular algún sector específico en momentos de riesgo o peligro urgente. Desde que los primeros productos notables de inteligencia artificial aparecieron a finales del año pasado, como ChatGPT, inició un desarrollo vertiginoso de mejores y cada vez más sorprendentes aplicaciones en todos los terrenos, abriendo grandes posibilidades, pero también peligros inesperados.

Durante la presentación, Biden comentó rápidamente sobre uno de los tantos puntos de riesgo: “Los deepfakes usan audio y video generados por inteligencia artificial (IA) para manchar reputaciones, hablar, difundir noticias falsas y cometer fraudes. Con la IA, los estafadores pueden tomar una grabación de tres segundos —y todos ustedes lo saben— tres segundos de tu voz. He visto un par de videos míos donde me preguntaba: ‘¿Cuándo dije eso?’ Pero, bromas aparte, una grabación de tres segundos de tu voz puede generar una imitación lo suficientemente buena como para engañar —saben, iba a decir tu familia— engañarte a ti”.

En México apenas estamos comenzando a ver los estragos que puede generar en la discusión pública la duda sobre si lo que vemos o escuchamos con nuestros propios sentidos es real. El audio con la voz del Jefe de Gobierno de la Ciudad de México, Martí Batres, sea o no producto de una inteligencia artificial, es un ejemplo claro de lo difícil que será la discusión pública con estas nuevas herramientas. Así como una deepfake puede servir para diseminar noticias falsas, también existirá la posibilidad de que sea una excusa para sembrar duda sobre grabaciones o videos reales. En la era de la posverdad, esta clase de materiales son gasolina para la polarización y un área de riesgo enorme para las sociedades. Apenas estamos viendo la punta del iceberg.

La orden ejecutiva busca crear mecanismos para hacer identificables los productos de inteligencia artificial y para que la industria tecnológica colabore con las autoridades en el análisis y control de los peligros que podrían generarse con cada nueva aplicación. Igualmente, todo el Gobierno tiene como prioridad realizar un análisis de las vulnerabilidades para cada sector, pues las maneras en que la inteligencia artificial puede ser usada como un arma aumentan cada día. La discusión y la intervención regulatoria en esta materia han dejado de ser una preocupación hipotética, por lo que es indispensable observar con detalle cómo otros gobiernos comienzan a responder a los nuevos riesgos que ya están aquí.