A quién me recuerda ChatGPT
El peligro real no es que las IA se vuelvan sensibles y nos destruyan a todos
Elizabeth Spires
Como madre de un niño de ocho años y como alguien que pasó el último año experimentando con IA generativa, he pensado mucho en la conexión entre interactuar con uno y con el otro. No estoy sola en esto. Un artículo publicado en agosto en la revista Nature Human Behavior explicaba cómo, durante sus primeras etapas, un modelo de inteligencia artificial intentará muchas cosas al azar, reduciendo su enfoque y volviéndose más conservador en sus elecciones a medida que se vuelve más sofisticado. Algo así como lo que hace un niño. «Los programas de IA funcionan mejor si empiezan como niños raros», escribe Alison Gopnik , psicóloga del desarrollo.
Sin embargo, me sorprende menos cómo estas herramientas adquieren hechos que cómo aprenden a reaccionar ante situaciones nuevas. Es común describir la IA como “en su infancia”, pero creo que eso no es del todo correcto. La IA se encuentra en la fase en la que los niños viven como pequeños monstruos energéticos, antes de que hayan aprendido a ser reflexivos sobre el mundo y responsables de los demás. Es por eso que he llegado a sentir que la IA necesita socializarse de la misma manera que lo hacen los niños pequeños: entrenarlos para que no sean idiotas, para que se adhieran a estándares éticos, para que reconozcan y eliminen los prejuicios raciales y de género. En resumen, necesita ser criada por los padres.
Lea también: El fin de la nieve
No basta simplemente con decirles a los niños cuál debería ser el resultado. Hay que crear un sistema de directrices (un algoritmo) que les permita llegar a los resultados correctos cuando también se enfrentan a diferentes entradas. Tratar de imbuir el código real con algo que parezca un código moral es en algunos aspectos más simple y en otros más desafiante. Las IA no son sensibles (aunque algunos dicen que sí), lo que significa que no importa cómo parezcan actuar, en realidad no pueden volverse codiciosas, caer presa de malas influencias o tratar de infligir a otros el trauma que han sufrido. No experimentan emociones, que pueden reforzar tanto el buen como el mal comportamiento.
De una forma u otra, vamos a tener que empezar a prestar mucha más atención a este tipo de orientación, al menos tanta atención como la que prestamos actualmente al tamaño de los modelos de lenguaje o las aplicaciones comerciales o creativas. Y los usuarios individuales que hablan con los robots sobre género y Chuck Grassley no son suficientes. Las empresas que invierten miles de millones en desarrollo deben hacer de esto una prioridad, al igual que los inversores que las respaldan.
En general, no soy un pesimista de la IA. Mi estimación: la probabilidad de que las IA sean nuestro fin es relativamente baja. Quizás el 5%. Ocho en los días en que una herramienta de autocorrección impulsada por IA inserta errores tipográficos espantosos en mi trabajo. Creo que la IA puede aliviar a los humanos de muchas cosas tediosas que no podemos o no queremos hacer, y puede mejorar las tecnologías que necesitamos para resolver problemas difíciles. Y sé que cuanto más accesibles sean las aplicaciones del modelo de lenguaje grande, más posible será permitirles analizar dilemas morales. La tecnología se volverá más madura, en ambos sentidos.
Pero por ahora, todavía necesita la supervisión de un adulto, y si los adultos en la sala están equipados para hacerlo es un tema de debate. Basta con mirar cuán ferozmente peleamos sobre cómo socializar a los niños reales: si, por ejemplo, el acceso a una amplia gama de libros de la biblioteca es bueno o malo. El peligro real no es que las IA se vuelvan sensibles y nos destruyan a todos; es que tal vez no estemos preparados para criarlos porque no somos lo suficientemente maduros.
(*) Elizabeth Spires es columnista de The New York Times