Los principales investigadores y directores ejecutivos de IA advierten contra el ‘riesgo de extinción’ en una declaración conjunta
La declaración conjunta sigue a una iniciativa similar en marzo cuando docenas de investigadores firmaron una carta abierta pidiendo una "pausa" de seis meses en el desarrollo de IA a gran escala más allá del GPT-4 de OpenAI. Los firmantes de la carta de "pausa" incluyeron a las luminarias tecnológicas Elon Musk, Steve Wozniak, Bengio y Gary Marcus.
Inteligencia Artificial (IA). Foto referencial.
Un grupo de los principales expertos en inteligencia artificial (IA) del mundo, incluidos muchos investigadores pioneros que han hecho sonar las alarmas en los últimos meses sobre las amenazas existenciales que plantea su propio trabajo, emitieron una declaración tajante el martes advirtiendo sobre un «riesgo de extinción « de IA avanzada si su desarrollo no se gestiona adecuadamente.
La declaración conjunta, firmada por cientos de expertos, incluidos los directores ejecutivos de OpenAI , DeepMind y Anthropic , tiene como objetivo superar los obstáculos para discutir abiertamente los riesgos catastróficos de la IA, según sus autores.
Se produce durante un período de creciente preocupación por los impactos sociales de la IA. Incluso cuando las empresas y los gobiernos presionan para lograr avances transformadores en sus capacidades.
“Los expertos en IA, los periodistas, los legisladores y el público están discutiendo cada vez más un amplio espectro de riesgos importantes y urgentes de la IA”, se lee en la declaración publicada por el Centro para la Seguridad de la IA. “Aún así, puede ser difícil expresar preocupaciones sobre algunos de los riesgos más graves de la IA avanzada. La siguiente declaración sucinta tiene como objetivo superar este obstáculo y abrir la discusión”.
Líderes luminares reconocen preocupaciones
Los firmantes incluyen algunas de las figuras más influyentes en la industria de la IA, como Sam Altman, director ejecutivo de OpenAI; Dennis Hassabis, director ejecutivo de Google DeepMind; y Dario Amodei, CEO de Anthropic.
Se considera que estas empresas están a la vanguardia de la investigación y el desarrollo de la IA, lo que hace que el reconocimiento de los riesgos potenciales por parte de sus ejecutivos sea particularmente notable.
Los investigadores notables que también han firmado la declaración incluyen a Yoshua Bengio, un pionero en el aprendizaje profundo; Ya-Qin Zhang, distinguido científico y vicepresidente corporativo de Microsoft; y Geoffrey Hinton, conocido como el “padrino del aprendizaje profundo”, quien recientemente dejó su puesto en Google para “ hablar más libremente ” sobre la amenaza existencial que representa la IA.
La salida de Hinton de Google el mes pasado llamó la atención sobre sus puntos de vista en evolución sobre las capacidades de los sistemas informáticos que ha pasado su vida investigando.
A los 75 años, el renombrado profesor ha expresado su deseo de participar en discusiones sinceras sobre los peligros potenciales de la IA sin las limitaciones de la afiliación corporativa.
Llamada a la acción “IA en riesgo de extinción”
La declaración conjunta sigue a una iniciativa similar en marzo cuando docenas de investigadores firmaron una carta abierta pidiendo una «pausa» de seis meses en el desarrollo de IA a gran escala más allá del GPT-4 de OpenAI. Los firmantes de la carta de «pausa» incluyeron a las luminarias tecnológicas Elon Musk, Steve Wozniak, Bengio y Gary Marcus.
A pesar de estos llamados a la cautela, sigue habiendo poco consenso entre los líderes de la industria y los formuladores de políticas sobre el mejor enfoque para regular y desarrollar la IA de manera responsable. A principios de este mes, líderes tecnológicos como Altman, Amodei y Hassabis se reunieron con el presidente Biden y el vicepresidente Harris para discutir la posible regulación . En un testimonio posterior en el Senado , Altman abogó por la intervención del gobierno, enfatizando la gravedad de los riesgos que plantean los sistemas avanzados de inteligencia artificial y la necesidad de una regulación para abordar los daños potenciales.
En una publicación de blog reciente , los ejecutivos de OpenAI describieron varias propuestas para administrar de manera responsable los sistemas de IA.
Entre sus recomendaciones se encontraba una mayor colaboración entre los principales investigadores de IA. Una investigación técnica más profunda en modelos de lenguaje grande (LLM) y el establecimiento de una organización internacional de seguridad de IA.
Esta declaración sirve como un nuevo llamado a la acción, instando a la comunidad en general a participar en una conversación significativa sobre el futuro de la IA y su impacto potencial en la sociedad.
También puedes leer: IA en el comercio minorista: tiendas más inteligentes