Las órdenes del ChatGPT
Las empresas de inteligencia artificial están trabajando arduamente para corregir los defectos de sus productos
Vauhini Vara
Una de las primeras cosas sobre las que le pregunté a ChatGPT a principios de este año fue sobre mí misma: «¿Qué puedes decirme sobre la escritora Vauhini Vara?» Me decía que soy periodista (cierto, aunque también escritora de ficción), que nací en California (falso) y que había ganado un Premio Gerald Loeb y un Premio Nacional de Revista (falso, falso).
Troleando un producto promocionado como un conversador casi humano, engañándolo para que revelara su esencia esencial, me sentí como la heroína en una especie de juego de poder extendido de niña contra robot.
Lea también: Endulzando el apocalipsis
Se han utilizado diferentes formas de inteligencia artificial durante mucho tiempo, pero la presentación de ChatGPT a finales del año pasado fue lo que trajo la IA, de repente, a nuestra conciencia pública. En febrero, ChatGPT era, según una métrica, la aplicación de consumo de más rápido crecimiento en la historia.
Pero lo que distinguió el año, más que cualquier desarrollo tecnológico, empresarial o político, fue la forma en que la IA se insinuó en nuestra vida diaria, enseñándonos a considerar sus defectos (espeluznantes, errores y todo) como propios, mientras las empresas detrás de ella hábilmente nos utilizaron para entrenar su creación. En mayo, cuando se supo que los abogados habían utilizado un informe legal que ChatGPT había llenado con referencias a decisiones judiciales que no existían, la broma, al igual que la multa de $us 5.000 que se les ordenó pagar a los abogados, fue para ellos, no para la tecnología.
Los errores de la IA tienen un nombre entrañablemente antropomórfico (alucinaciones), pero este año dejó claro lo mucho que hay en juego. Recibimos titulares sobre la inteligencia artificial que instruye a drones asesinos (con la posibilidad de comportamientos impredecibles), el envío de personas a la cárcel (incluso si son inocentes), el diseño de puentes (con una supervisión potencialmente irregular), el diagnóstico de todo tipo de condiciones de salud (a veces incorrectamente) y producir noticias que suenen convincentes (en algunos casos, para difundir desinformación política).
Como sociedad, nos hemos beneficiado claramente de tecnologías prometedoras basadas en IA. Los acontecimientos de las últimas semanas ponen de relieve cuán arraigado está el poder de esa gente. OpenAI, la entidad detrás de ChatGPT, se creó como una organización sin fines de lucro para permitirle maximizar el interés público en lugar de simplemente maximizar las ganancias. Sin embargo, cuando su directorio despidió a Sam Altman, el director ejecutivo, en medio de preocupaciones de que no estaba tomando ese interés público lo suficientemente en serio, los inversionistas y empleados se rebelaron. Cinco días después, Altman regresó triunfante y la mayoría de los incómodos miembros de la junta fueron reemplazados.
En retrospectiva, se me ocurre que en mis primeros juegos con ChatGPT, identifiqué erróneamente a mi rival. Pensé que era la tecnología misma. Lo que debería haber recordado es que las tecnologías en sí mismas son neutrales en cuanto a valores. Los humanos ricos y poderosos detrás de ellos —y las instituciones creadas por esos humanos— no lo son.
La verdad es que no importa lo que le pregunté a ChatGPT, en mis primeros intentos de confundirlo, OpenAI salió adelante. Los ingenieros lo habían diseñado para aprender de sus encuentros con los usuarios. E independientemente de si sus respuestas fueron buenas, me hicieron volver a involucrarme con él una y otra vez. Un objetivo importante de OpenAI, en este primer año, ha sido lograr que la gente lo utilice. Entonces, al continuar con mis juegos de poder, no he hecho más que ayudarlo.
Las empresas de inteligencia artificial están trabajando arduamente para corregir los defectos de sus productos. Con toda la inversión que están atrayendo las empresas, uno imagina que se lograrán algunos avances.
(*) Vauhini Vara es escritora y columnista de The New York Times