La IA y militares
La inteligencia artificial (IA) rebelde frente a la humanidad es un tema común en la ciencia ficción. Podría pasar, supongo. Pero una amenaza más inminente es la de seres humanos contra seres humanos, con la IA utilizada como arma letal por ambos bandos. Esa amenaza está creciendo rápidamente porque hay una carrera armamentista internacional en la IA militarizada.
Lo que hace que una carrera armamentista en inteligencia artificial sea tan aterradora es que reduce el papel del juicio humano. Los programas de ajedrez que reciben instrucciones para moverse rápido pueden completar un juego uno contra el otro en segundos; los sistemas de inteligencia artificial que leen los movimientos de los demás podrían pasar de la paz a la guerra con la misma rapidez.
Sobre el papel, los líderes militares y políticos mantienen el control. Están «al tanto», como les gusta decir a los informáticos. Pero, ¿cómo deberían reaccionar esos líderes conectados si un sistema de inteligencia artificial anuncia que un ataque del otro lado podría estar a unos minutos de distancia y recomienda un ataque preventivo? ¿Se atreven a ignorar el resultado de la inescrutable caja negra que gastaron cientos de miles de millones de dólares en desarrollar? Si presionan el botón solo porque la IA se lo indica, están en el bucle solo de nombre. Si lo ignoran por una corazonada, las consecuencias podrían ser igual de malas.
La intersección de la inteligencia artificial que puede calcular un millón de veces más rápido que las personas y las armas nucleares que son un millón de veces más poderosas que cualquier arma convencional es tan aterradora como las intersecciones.
La solución obvia es una moratoria en el desarrollo de la IA militarizada. La Campaña para Detener a los Robots Asesinos, una coalición internacional, argumenta: “Las decisiones de vida o muerte no deben delegarse en una máquina. Es hora de que una nueva ley internacional regule estas tecnologías”.
Pero la posibilidad de una moratoria es escasa. Gregory Allen, exdirector de estrategia y política del Centro Conjunto de Inteligencia Artificial del Pentágono, dijo a Bloomberg que los esfuerzos de los estadounidenses por comunicarse con sus homólogos en China no tuvieron éxito. Los estadounidenses no van a detener el desarrollo de la IA militarizada por su cuenta. “Si nos detenemos, adivinen quién no se detendrá: los posibles adversarios en el extranjero”, dijo el director de información del Pentágono, John Sherman, en una conferencia de seguridad cibernética este mes. “Tenemos que seguir moviéndonos”. El proyecto Schmidt no aboga por las armas autónomas. Pero el hecho es que el Pentágono ya tiene algunos. Como señaló David Sanger en The Times este mes, los misiles Patriot pueden dispararse sin intervención humana “cuando se ven abrumados por los objetivos que se aproximan más rápido de lo que un humano podría reaccionar”.
Georges Clemenceau, primer ministro de Francia hacia el final de la Primera Guerra Mundial, dijo que la guerra es demasiado importante para dejarla en manos de los militares. Quería decir que los líderes civiles deberían tomar las decisiones finales. Pero la carrera armamentista en inteligencia artificial podría algún día llevarnos al punto en que los líderes civiles no vean más remedio que ceder las decisiones finales a las computadoras. Entonces la guerra se considerará demasiado importante para dejarla en manos de los seres humanos.
Peter Coy es columnista de The New York Times.