Voces

Monday 13 May 2024 | Actualizado a 20:54 PM

Las órdenes del ChatGPT

Las empresas de inteligencia artificial están trabajando arduamente para corregir los defectos de sus productos

Vauhini Vara

/ 20 de diciembre de 2023 / 07:43

Una de las primeras cosas sobre las que le pregunté a ChatGPT a principios de este año fue sobre mí misma: «¿Qué puedes decirme sobre la escritora Vauhini Vara?» Me decía que soy periodista (cierto, aunque también escritora de ficción), que nací en California (falso) y que había ganado un Premio Gerald Loeb y un Premio Nacional de Revista (falso, falso).

Troleando un producto promocionado como un conversador casi humano, engañándolo para que revelara su esencia esencial, me sentí como la heroína en una especie de juego de poder extendido de niña contra robot.

Lea también: Endulzando el apocalipsis

Se han utilizado diferentes formas de inteligencia artificial durante mucho tiempo, pero la presentación de ChatGPT a finales del año pasado fue lo que trajo la IA, de repente, a nuestra conciencia pública. En febrero, ChatGPT era, según una métrica, la aplicación de consumo de más rápido crecimiento en la historia.

Pero lo que distinguió el año, más que cualquier desarrollo tecnológico, empresarial o político, fue la forma en que la IA se insinuó en nuestra vida diaria, enseñándonos a considerar sus defectos (espeluznantes, errores y todo) como propios, mientras las empresas detrás de ella hábilmente nos utilizaron para entrenar su creación. En mayo, cuando se supo que los abogados habían utilizado un informe legal que ChatGPT había llenado con referencias a decisiones judiciales que no existían, la broma, al igual que la multa de $us 5.000 que se les ordenó pagar a los abogados, fue para ellos, no para la tecnología.

Los errores de la IA tienen un nombre entrañablemente antropomórfico (alucinaciones), pero este año dejó claro lo mucho que hay en juego. Recibimos titulares sobre la inteligencia artificial que instruye a drones asesinos (con la posibilidad de comportamientos impredecibles), el envío de personas a la cárcel (incluso si son inocentes), el diseño de puentes (con una supervisión potencialmente irregular), el diagnóstico de todo tipo de condiciones de salud (a veces incorrectamente) y producir noticias que suenen convincentes (en algunos casos, para difundir desinformación política).

Como sociedad, nos hemos beneficiado claramente de tecnologías prometedoras basadas en IA. Los acontecimientos de las últimas semanas ponen de relieve cuán arraigado está el poder de esa gente. OpenAI, la entidad detrás de ChatGPT, se creó como una organización sin fines de lucro para permitirle maximizar el interés público en lugar de simplemente maximizar las ganancias. Sin embargo, cuando su directorio despidió a Sam Altman, el director ejecutivo, en medio de preocupaciones de que no estaba tomando ese interés público lo suficientemente en serio, los inversionistas y empleados se rebelaron. Cinco días después, Altman regresó triunfante y la mayoría de los incómodos miembros de la junta fueron reemplazados.

En retrospectiva, se me ocurre que en mis primeros juegos con ChatGPT, identifiqué erróneamente a mi rival. Pensé que era la tecnología misma. Lo que debería haber recordado es que las tecnologías en sí mismas son neutrales en cuanto a valores. Los humanos ricos y poderosos detrás de ellos —y las instituciones creadas por esos humanos— no lo son.

La verdad es que no importa lo que le pregunté a ChatGPT, en mis primeros intentos de confundirlo, OpenAI salió adelante. Los ingenieros lo habían diseñado para aprender de sus encuentros con los usuarios. E independientemente de si sus respuestas fueron buenas, me hicieron volver a involucrarme con él una y otra vez. Un objetivo importante de OpenAI, en este primer año, ha sido lograr que la gente lo utilice. Entonces, al continuar con mis juegos de poder, no he hecho más que ayudarlo.

Las empresas de inteligencia artificial están trabajando arduamente para corregir los defectos de sus productos. Con toda la inversión que están atrayendo las empresas, uno imagina que se lograrán algunos avances.

(*) Vauhini Vara es escritora y columnista de The New York Times

Temas Relacionados

Comparte y opina:

Ha pasado un año y ya estamos al servicio de ChatGPT

Las tecnologías tienen un valor neutro, pero no así los seres humanos ricos y poderosos que están detrás de ellas

Vauhini Vara

/ 29 de diciembre de 2023 / 10:18

Hace mucho tiempo que se utilizan distintas formas de inteligencia artificial, pero la presentación de ChatGPT a finales del año pasado fue lo que hizo que la IA entrara de repente en nuestra conciencia pública. En febrero, ChatGPT era, según una métrica, la aplicación de consumo de más rápido crecimiento en la historia. Nuestros primeros encuentros revelaron que esas tecnologías eran extremadamente excéntricas (recordemos la perturbadora conversación de Kevin Roose con el chatbot Bing de Microsoft, impulsado por IA, el cual, en cuestión de dos horas, le confesó que quería ser humano y que estaba enamorado de él) y que, a menudo, como fue mi experiencia, también resultan muy equivocadas.

Desde entonces han pasado muchas cosas en el campo de la inteligencia artificial: las empresas fueron más allá de los productos básicos del pasado e introdujeron herramientas más sofisticadas como chatbots personalizados, servicios que pueden procesar fotos y sonido junto con texto y más. La rivalidad entre OpenAI y las empresas tecnológicas más consolidadas se volvió más intensa que nunca, incluso mientras actores más pequeños ganaban popularidad. Los gobiernos de China, Europa y Estados Unidos dieron pasos importantes hacia la regulación del desarrollo de la tecnología al tiempo que intentaban no ceder terreno competitivo a las industrias de otros países.

Lea también: Las órdenes del ChatGPT

Sin embargo, lo que distinguió al año, más que cualquier avance tecnológico, empresarial o político, fue la forma en que la IA se insinuó en nuestra vida cotidiana y nos enseñó a considerar sus defectos —con todo y su actitud espeluznante, errores y demás— como propios, mientras las empresas que la impulsan nos utilizaban hábilmente para entrenar a su creación. Para mayo, cuando se supo que unos abogados habían utilizado un escrito jurídico que ChatGPT había llenado con referencias a resoluciones judiciales que no existían, los que quedaron mal, como lo ilustra la multa de $us 5.000 que los abogados tuvieron que pagar, fueron ellos, no la tecnología. “Es vergonzoso”, le dijo uno de ellos al juez.

Algo parecido ocurrió con los ultrafalsos producidos por la inteligencia artificial, suplantaciones digitales de personas reales. ¿Recuerdan cuando los veíamos con terror? Para marzo, cuando Chrissy Teigen no podía discernir si era auténtica una imagen del papa con una chaqueta acolchada inspirada en la marca Balenciaga publicó en redes sociales este mensaje: “Me odio, lol”. Los bachilleratos y las universidades pasaron rápidamente de preocuparse por cómo evitar que los estudiantes utilizaran la IA a enseñarles a utilizarla con eficacia. La IA sigue sin ser muy buena para escribir, pero ahora, cuando muestra sus carencias, son los estudiantes que no saben usarla de quienes nos burlamos, no de los productos.

Quizá se piense que eso está bien, ¿pero no nos hemos adaptado a las nuevas tecnologías durante la mayor parte de la historia de la humanidad? Si vamos a utilizarlas, ¿no deberíamos ser más inteligentes? Esta línea de razonamiento sortea la que debería ser una cuestión central: ¿debería haber chatbots mentirosos y motores de ultrafalsos disponibles en primer lugar?

Los errores de la inteligencia artificial tienen un nombre entrañablemente antropomórfico —alucinaciones—, pero este año ha quedado claro lo mucho que está en juego. Tenemos titulares sobre cómo la IA podría dar instrucciones a drones asesinos (con la posibilidad de un comportamiento impredecible), mandar a gente a la cárcel (aunque sea inocente), diseñar puentes (con supervisión posiblemente defectuosa), diagnosticar todo tipo de padecimientos médicos (a veces de manera errónea) y producir informes noticiosos que suenan convincentes (en algunos casos, con el fin de divulgar desinformación política).

Como sociedad, es evidente que nos hemos beneficiado de prometedoras tecnologías basadas en la IA que podrían detectar el cáncer de mama que los médicos pasan por alto o permitir que los humanos descifren las comunicaciones de las ballenas. Sin embargo, al centrarnos en esas ventajas y culparnos de las muchas formas en que nos fallan las tecnologías de inteligencia artificial, absolvemos a las empresas que están detrás de esas tecnologías y, más concretamente, a las personas que están detrás de esas empresas.

Los acontecimientos de las últimas semanas ponen de manifiesto lo arraigado que está el poder de esas personas. OpenAI, la entidad que está detrás de ChatGPT, se creó como una organización sin ánimo de lucro para permitirle maximizar el interés público en lugar de limitarse a maximizar las ganancias. No obstante, cuando su consejo administrativo despidió a Sam Altman, el director ejecutivo, por considerar que no se tomaba en serio ese interés público, los inversionistas y los empleados se rebelaron. Cinco días después, Altman regresó triunfante, tras la sustitución de la mayoría de los miembros incómodos del consejo.

En retrospectiva, se me ocurre que, en mis primeras partidas con ChatGPT, identifiqué mal a mi rival. Pensé que se trataba solo de la tecnología. Lo que debí recordar es que las tecnologías tienen un valor neutro, pero no así los seres humanos ricos y poderosos que están detrás de ellas, y las instituciones creadas por esos seres humanos.

La verdad es que no importa lo que le preguntara a ChatGPT, en mis primeros intentos de confundirlo, OpenAI salía ganando. Los ingenieros lo habían diseñado para aprender de sus interacciones con usuarios. Sin importar si sus respuestas eran buenas o no, me atraían una y otra vez a interactuar con el sistema. Uno de los principales objetivos de OpenAI este primer año ha sido lograr que la gente lo utilice. Con mis juegos de poder no he hecho más que contribuir a ello.

Incluso en un mundo hipotético en el que se perfeccionen las capacidades de la IA —quizá especialmente en ese mundo—, el desequilibrio de poder entre sus creadores y sus usuarios debería hacernos desconfiar de su insidioso alcance. El aparente afán de ChatGPT no solo por presentarse, por decirnos qué es, sino también por decirnos quiénes somos nosotros y qué debemos pensar, es un ejemplo de ello. Hoy en día, cuando la tecnología está comenzando, ese poder parece novedoso, incluso divertido. Mañana podría no serlo.

(*) Vauhini Vara es periodista del New York Times

Comparte y opina:

Últimas Noticias