El verdadero peligro de la IA
Los investigadores dedicados a la IA están obsesionados con el tema del ‘alineamiento’
En 2021, entrevisté a Ted Chiang, uno de los grandes escritores vivos de ciencia ficción. No me puedo quitar de la cabeza algo que me dijo en esa entrevista. “En general, pienso que la mayoría de los temores en torno a la inteligencia artificial (IA) se aclaran si los planteamos como miedo al capitalismo”, me dijo Chiang. “Creo que esta verdad se aplica por igual a la mayoría de los temores que despierta la tecnología. La mayoría de los miedos o ansiedades que sentimos con respecto a la tecnología se entienden mejor si los explicamos como temor o ansiedad por la forma en que el capitalismo utilizará la tecnología en nuestra contra. Lo cierto es que la tecnología y el capitalismo están tan conectados que es difícil separarlos”.
Al respecto, permítanme añadir algo: también es muy preocupante que el Estado controle la tecnología. Pensar en los fines para los que cada gobierno podría utilizar la inteligencia artificial —y, en muchos casos, ya la utiliza— es inquietante.
Pero podemos mantener dos ideas opuestas en la mente, espero. Mi punto es que la advertencia de Chiang hace notar un vacío central en nuestra perspectiva actual de la IA. Estamos tan obsesionados con la idea de descubrir qué puede hacer la tecnología, que no nos hemos detenido a considerar las preguntas más importantes: ¿cómo se utilizará? y ¿quién tomará esa decisión?
Los investigadores dedicados a la IA están obsesionados con el tema del “alineamiento”. Se trata de descubrir cómo lograr que los algoritmos de aprendizaje automático hagan lo que queremos que hagan. Sin embargo, existe un problema de alineamiento más banal, que quizá también sea más apremiante: ¿al servicio de quién estarán estas máquinas? No por mucho tiempo. Microsoft, al igual que Google, Meta y las demás empresas que quieren sacar estos sistemas al mercado lo más pronto posible, tiene las llaves que dan acceso al código. Llegará el momento en que logren remendar el sistema para que se amolde a sus intereses.
Hablamos tanto sobre la tecnología de la IA que hemos ignorado, casi por completo, los modelos de negocios que la operarán. Además, la publicidad no es el único tema que debe preocuparnos. ¿Qué pasará cuando estos sistemas estén al servicio de las estafas que desde siempre han llenado internet? ¿Y cuando respalden los intereses de campañas políticas o de gobiernos extranjeros? Los problemas de alineación no son una novedad. Siempre han sido una particularidad del capitalismo y de la vida humana. Gran parte del trabajo del Estado moderno consiste en aplicar los valores de la sociedad al funcionamiento de los mercados, de modo que estos últimos sirvan, en cierta medida, a los primeros. Lo hemos hecho extremadamente bien en algunos mercados —pensemos en los pocos accidentes aéreos que hay y en lo libres de contaminación que están la mayoría de los alimentos— y catastróficamente mal en otros.
En este sentido, un peligro es que un sistema político consciente de su ignorancia tecnológica se sienta intimidado y se tome su tiempo para observar a la IA. Es una actitud que muestra cierta sensatez, pero si esperamos mucho tiempo, los ganadores en la fiebre del oro de la IA tendrán suficiente capital y suficientes usuarios para resistir cualquier iniciativa seria de regulación. De alguna manera, la sociedad tendrá que decidir qué puede aceptar que haga la inteligencia artificial y en qué áreas no debe permitir su intervención, antes de que sea demasiado tarde para tomar esas decisiones.
Por esa razón, me atrevería a cambiar, una vez más, el comentario de Chiang: la mayoría de los miedos en torno al capitalismo se entienden mejor si se plantean como el miedo a nuestra incapacidad de regular el capitalismo.
Ezra Klein es columnista de The New York Times.