Jugando con fuego: cómo adaptarse a las nuevas realidades de la IA
El primer paso para gestionar los riesgos asociados con la IA es establecer estándares para el uso de la IA . Esto lo pueden hacer los gobiernos o grupos industriales, y pueden ser obligatorios o voluntarios.
Amigarse con la IA es adaptarse. Foto referencial
Cómo la sociedad y gobiernos comienzan a adaptarse a las nuevas realidades de la IA
Cuando los humanos descubrieron el fuego hace aproximadamente 1,5 millones de años, probablemente supieron que tenían algo bueno de inmediato. Pero probablemente descubrieron las desventajas con bastante rapidez: acercarse demasiado y quemarse, iniciar accidentalmente un incendio forestal, inhalar humo o incluso quemar la aldea. No eran riesgos menores, pero no había vuelta atrás. Afortunadamente, logramos aprovechar el poder del fuego para siempre.
Hubo un avance rápido hasta hoy, la inteligencia artificial (IA) podría resultar tan transformadora como el fuego. Como el fuego, los riesgos son enormes, algunos dirían existenciales. Pero, nos guste o no, no hay marcha atrás ni desaceleración, dado el estado de la geopolítica mundial.
En este artículo, exploramos cómo podemos gestionar los riesgos de la IA y los diferentes caminos que podemos tomar. La IA no es solo otra innovación tecnológica, es una fuerza disruptiva que cambiará el mundo de formas que ni siquiera podemos comenzar a imaginar. Sin embargo, debemos ser conscientes de los riesgos asociados con esta tecnología y gestionarlos adecuadamente.
Establecer estándares para el uso y adaptarse a la IA
El primer paso para gestionar los riesgos asociados con la IA y adaptarse es establecer estándares para el uso de la IA . Esto lo pueden hacer los gobiernos o grupos industriales, y pueden ser obligatorios o voluntarios. Si bien los estándares voluntarios son agradables, la realidad es que las empresas que son las más responsables tienden a seguir las reglas y la orientación, mientras que otras no prestan atención. Para el beneficio general de la sociedad, todos deben seguir la guía. Por lo tanto, recomendamos que se exijan los estándares, incluso si el estándar inicial es más bajo (es decir, más fácil de cumplir).
En cuanto a si los gobiernos de los grupos industriales deberían liderar el camino, la respuesta es ambas. La realidad es que solo los gobiernos tienen el peso para hacer que las reglas sean vinculantes y para incentivar o engatusar a otros gobiernos a nivel mundial para que participen. No obstante, los gobiernos son notoriamente lentos y propensos a contracorrientes políticas, lo que definitivamente no es bueno en estas circunstancias. Por lo tanto, creo que los grupos de la industria deben participar y desempeñar un papel de liderazgo en la configuración del pensamiento y la creación de la base de apoyo más amplia. Al final, necesitamos una asociación público-privada para lograr nuestros objetivos.
Gobernanza de la creación y el uso de IA
Hay dos cosas que deben gobernarse cuando se trata de IA: su uso y su creación. El uso de la IA, como todas las innovaciones tecnológicas, puede usarse con buenas intenciones o con malas intenciones. Las intenciones son lo que importa, y el nivel de gobierno debe coincidir con el nivel de riesgo (o si es inherentemente bueno, malo o intermedio). Sin embargo, algunos tipos de IA son inherentemente tan peligrosos que deben administrarse, limitarse o restringirse con cuidado.
La realidad es que hoy en día no sabemos lo suficiente para redactar todos los reglamentos y reglas, por lo que lo que necesitamos es un buen punto de partida y algunos organismos autorizados en los que se pueda confiar para emitir nuevas reglas a medida que sean necesarias. La gestión de riesgos de IA y la orientación autorizada deben ser rápidas y ágiles; de lo contrario, se quedará muy atrás en el camino de la innovación y no tendrá ningún valor. Las industrias existentes y los organismos gubernamentales se mueven con demasiada lentitud, por lo que es necesario establecer nuevos enfoques que puedan avanzar más rápidamente.
Gobernanza nacional o global de la IA
La gobernanza y las reglas son tan buenas como el eslabón más débil. La aceptación de todas las partes es fundamental. Este será el aspecto más difícil. No debemos retrasar nada para esperar un consenso global, pero al mismo tiempo, se deben explorar grupos de trabajo y marcos globales.
La buena noticia es que no estamos empezando desde cero. Varios grupos globales han estado exponiendo activamente sus puntos de vista y publicando sus resultados; ejemplos notables incluyen el marco de gestión de riesgos de IA publicado recientemente por el Instituto Nacional de Ciencia y Tecnología (NIST) con sede en EE. UU. y la Ley de IA de la UE propuesta por Europa , y hay muchos otros. La mayoría son de carácter voluntario, pero un número creciente tienen la fuerza de la ley detrás de ellos. En mi opinión, aunque todavía no hay nada que cubra el alcance completo de manera integral, si tuviera que juntarlos todos, estaría en un punto de partida encomiable para este viaje.
Consideraciones para adaptarse a la IA
El viaje definitivamente estará lleno de baches, pero creo que los humanos finalmente prevalecerán. En otros 1,5 millones de años, nuestros antepasados mirarán hacia atrás y pensarán que fue difícil, pero que finalmente lo hicimos bien. Entonces, avancemos con la IA, pero tenga en cuenta los riesgos asociados con esta tecnología. Debemos aprovechar la IA para siempre y tener cuidado de no quemar el mundo. Adaptarse a la IA es imperativo.
También puedes leer: ¿Qué es la inteligencia artificial (IA)? Definición, tipos, ética, ejemplos y tendencias futuras