Para los que crecimos viendo películas en las que la tecnología se revelaba y provocaba una guerra contra la humanidad, las noticias de los usos de la IA con propósitos militares son realmente perturbadoras.
Los sistemas de vigilancia masiva, los drones programados para búsqueda y aniquilación, las unidades de guerra terrestres autónomas… una guerra sin humanos en el campo y que no depende de instrucciones o decisiones nuestras para realizar sus acciones.
Como ha sucedido antes, la tecnología llega antes que la regulación nacional o internacional. Los ingenieros van por delante de los abogados, de los gobiernos y de las consideraciones éticas. Nuevamente nos enfrentamos al escenario en el que es más previsible un desastre que nos lleve a repensar nuestras acciones y aplicaciones tecnológicas que a pausas de reflexión previas al uso de bélico de los avances de nuestro tiempo.
Los tratados internacionales, derivados de la Convención de Ginebra sobre la guerra justa, no están preparados para este reto. Se centran en el proceso de toma de decisiones humanas, que ahora están ausentes, y en una clara adjudicación de la responsabilidad por los actos de guerra, que ahora está diluida entre los diferentes actores públicos y privados que inciden en la creación, programación e implementación de las tecnologías de guerra. Es un terreno inédito para el que no tenemos reglamentaciones que orienten ni sanciones que mantengan los abusos a raya.
En este escenario posturas como la de la empresa Anthropic destaca por su osadía. Con un contrato importante con el gobierno estadounidense, la empresa cuestionó el uso de su tecnología de IA en las recientes acciones del ejército en Venezuela y en los conflictos bélicos actuales. Recordó que se ha planteado dos líneas rojas éticas en el uso de sus productos: el uso de su tecnología para armas completamente autónomas y para la vigilancia masiva de ciudadanos estadounidenses (como se ha planteado para ayudar al ICE en las deportaciones masivas).
Ante esta osadía de su proveedor, el gobierno estadounidense se lanzó en contra de la empresa de forma agresiva, exigiendo la liberación absoluta de la herramienta para todos los fines que ellos consideren legales. Dado el vacío legal en torno a la IA, esto podría significa cualquier cosa. La escalada de tensión ha abierto un importante debate en el que el futuro de la humanidad está implicado. El apoyo que reciba Anthropic de sus empleados, de empresas competidoras y del público en general, podría motivar la tan necesaria reflexión ética y legal sobre el uso de la IA con fines policiales y militares. Esperemos que el clima de crispación global no ahogue esta pausa para salvaguardar la humanidad incluso en escenarios de guerra.