Desafíos hipotéticos y reales de legislar sobre la IA
Los regímenes regulatorios de IA exigen que los desarrolladores anticipen los riesgos potenciales que surgen de sus aplicaciones
En primer lugar, un artista crea una nueva obra. La ley de derechos de autor protege la propiedad intelectual del artista, lo que le permite publicar la obra para el disfrute del público. La ley de derechos de autor también permite a otros crear obras derivadas basadas en la obra original. La sociedad se enriquece con la existencia tanto de la obra original como de las obras derivadas.
Pero ¿qué pasaría si otra ley hiciera al artista legalmente responsable de cualquier delito o daño incurrido por cualquiera de las obras derivadas creadas a partir de la original? Esto seguramente tendría un efecto paralizante en la cantidad de nuevas obras creadas. Pocas se publicarían para el disfrute del público. El creador mantendría estrictos controles contractuales sobre quién puede ver o usar la obra, y la creación de obras derivadas se convertiría en la excepción en lugar de la norma. Como resultado, la sociedad sería mucho más pobre culturalmente. En consecuencia, este tipo de leyes de responsabilidad derivada son extremadamente poco comunes.
En segundo lugar, un fabricante fabrica un producto con la intención de que se utilice para un propósito específico, por ejemplo, un vehículo de motor para el transporte personal. El fabricante está obligado a tomar las debidas precauciones para garantizar que el producto sea apto y seguro para el propósito previsto.
Pero ¿qué pasaría si existiera una ley que obligara al fabricante a ser también responsable de prever y prevenir el uso del bien para cualquier otro fin que no fuera el original? Por ejemplo, ¿ser legalmente responsable por no prever o prevenir el uso de un vehículo de motor fabricado en la planta para transportar a un terrorista suicida y una bomba a un mercado abarrotado? Si existiera una ley de ese tipo, entonces solo cuando el fabricante pudiera mantener un control contractual estricto de todos los artículos una vez que salieran de la línea de producción, alguno estaría disponible para su uso. Se evitarían tanto los usos beneficiosos creativos como los perjudiciales; una vez más, la sociedad sería la perdedora. Por lo tanto, este tipo de leyes no suelen existir.
Sin embargo, precisamente este tipo de disposiciones caracterizan las regulaciones actuales y propuestas que limitan el desarrollo y la implementación de aplicaciones de IA. Tendrán precisamente los efectos paralizantes esperados en el sector de la IA y privarán a la sociedad de beneficios significativos si permanecen en vigor, algo que anticiparon los oponentes de la SB 1047 de California, la Ley de Innovación Segura para la Inteligencia Artificial de Fronteras.
La mayoría de los regímenes regulatorios de IA (por ejemplo, la Ley de Inteligencia Artificial de la UE) y las normas voluntarias (como el Marco de Gestión de Riesgos de IA del Instituto Nacional de Ciencia y Tecnología) exigen que los desarrolladores e implementadores de IA anticipen los riesgos potenciales que surgen de sus aplicaciones, monitoreen activamente su uso y, en el caso de California, intervengan y cierren las aplicaciones si ocurre un evento suficientemente adverso. Para cumplir satisfactoriamente este requisito, una aplicación nunca puede salir del control directo del desarrollador original. El desarrollador no puede poner la aplicación a disposición del público en un mercado de código abierto para que se realicen más innovaciones, por miedo a ser considerado responsable de las consecuencias de las acciones posteriores de otro.
También puede leer: Harris y Trump, entre el poder, la economía y la polarización
El productor tampoco puede conferir una “participación de propiedad libre” (según los derechos de propiedad de Demsetz) donde el propietario es libre de ejercer opciones de control como ocurre en la venta de un vehículo fabricado por temor a que se use para un propósito no considerado ya en el marco de gestión de riesgos. Tales regulaciones pueden tener éxito solo si estas aplicaciones están disponibles en comunidades muy cerradas, con acceso limitado o amenazas de control, lo que difícilmente es un entorno vibrante para la innovación continua. Tal vez por eso algunos desarrolladores de IA no se oponen a una mayor regulación en su sector.
Sin embargo, el ecosistema de aplicaciones de IA ya ha ido mucho más allá de un simple modelo estructural de producción y venta de bienes manufacturados que se pueden controlar mediante una regulación de seguridad basada en la gestión de riesgos. Muchos desarrolladores de IA utilizan elementos de código abierto como insumos para sus aplicaciones y suministran sus resultados a las comunidades de software de código abierto. Lo hacen con la plena expectativa de que los modelos se adaptarán y mejorarán para generar nuevas variantes que beneficien a la sociedad, de la misma manera que los creadores de obras protegidas por derechos de autor esperan que sus obras se puedan adaptar para crear beneficios nuevos y diferentes. No controlan todos los elementos de su cadena de suministro de insumos. Tampoco pueden controlar todos los usos y usuarios posteriores, por lo que es inútil intentar exigirles que rindan cuentas.
Los reguladores y legisladores deben reconocer que, si la IA ha de cumplir su promesa innovadora y de aumento de la riqueza, los desarrolladores no pueden ser los únicos responsables de todas las consecuencias. Si lo son, los efectos paralizantes no serán simplemente hipotéticos, sino reales.
Bronwyn Howell Doctora en economía y políticas públicas