Inteligencia artificial
Hace unos días se publicó en varios portales digitales e incluso en periódicos impresos la noticia acerca de una inteligencia artificial (IA) —LaMDA (Language Model for Dialogue Applications)— que está siendo desarrollado por Google, con quien un ingeniero de esa empresa mantuvo una conversación que le llevó a concluir que la IA estaba cobrando cierta conciencia y sentimientos. La posición oficial de Google ante esa declaración fue que “las pruebas no respaldan sus afirmaciones”. Es decir, desmintió las conclusiones del ingeniero.
Este intercambio ha avivado el debate acerca de los límites de la inteligencia artificial y la ética. En este debate están los entusiastas de la tecnología que consideran que la IA podrá resolver grandes problemas de la humanidad por su enorme capacidad de procesamiento de datos y de autoaprendizaje. Por otro lado, están quienes consideran que no conocemos todas las posibilidades de la IA y que algunos de sus resultados podrían ser nefastos porque ya han mostrado que reproducen sesgos humanos sin límite moral.
Acompañando este debate, las y los ingenieros entusiastas siguen desarrollando la IA a todo vapor mientras que, por otro lado, aunque con mayor lentitud, se desarrollan marcos éticos que orienten el desarrollo de las IA y restrinjan algunos aspectos hasta que podamos medir mejor sus efectos.
Uno de los límites de la IA es que sus algoritmos no pueden realizar los ajustes necesarios para determinar la justicia de una situación. Es un punto en el que se requiere intervención humana. Variados procesos que se pretenden automatizar con IA requieren este tipo de intervención: los procesos de contratación de personal, la asignación de políticas públicas a poblaciones vulnerables, la oferta de seguros de salud y de vida, por citar algunos que ya han mostrados sesgos de IA que discriminan y estigmatizan a personas y grupos.
Micaela Mantegna, una abogada y gamer argentina, acaba de publicar una investigación muy aconsejable para quienes tengan interés en este tema, No soy un Robot, construyendo un marco ético accionable para analizar las dimensiones de impacto de la inteligencia artificial, publicado por CETyS. En él reflexiona: “El desafío continuará siendo desarrollar modelos que promuevan la inclusión y alivien la desigualdad, frente al cambio que enfrentamos como especie con la implementación extensiva de modelos de inteligencia artificial”.
Sí, el desafío aún no ha sido resuelto, gente entusiasta de la tecnología. Debemos seguir explorando las posibilidades de la Inteligencia Artificial para contribuir a un mundo más justo, no vale seguirla desarrollando a lo loco, esa sería una postura facilona y, además, la más terrible.
Eliana Quiroz es ciberactivista y burócrata. blog: www.internetalaboliviana. word-press.com.