OpenAI no invierte lo suficiente para investigar los riesgos de la supeinteligencia, según exdirectivo
La empresa informó que emplearán un 20% de sus ingresos para que un equipo se dedique a la investigación de cualquier posible riesgo.
OpenAI creó un equipo centrado exclusivamente en la investigación y control de la futura tecnología de superinteligencia, pero no está invirtiendo los recursos necesarios para facilitar la labor de este equipo, impidiendo así obtener soluciones a los peligros que presenta esta tecnología para la sociedad, según el investigador y líder del equipo, Jan Leike, que recientemente anunció su dimisión.
La superinteligencia será una tecnología «mucho más inteligente» que las capacidades actuales de los humanos. Se podrán resolver «muchos de los problemas más importantes del mundo», como expone la compañía dirigida por Sam Altman. Sin embargo, esta tecnología también puede conllevar situaciones «muy peligrosas», como la pérdida de poder de la humanidad o «incluso su extinción».
Puede leer: Blue Origin lleva pasajeros al espacio, incluido el astronauta con más edad (90 años)
‘Superinteligencia’
En este marco, OpenAI anunció en julio del pasado año la creación de un nuevo equipo conformado por investigadores e ingenieros de aprendizaje automático. El mismo fue diseñado para investigar y obtener soluciones con las que dirigir y controlar estos sistemas de IA «superinteligentes».
Así, la tecnológica indicó que emplearía el 20% de sus ingresos y capacidades informáticas para el trabajo de este nuevo equipo.
Ahora, uno de los líderes de este equipo, Jan Leike, dimitió y advirtió que «cada vez era más difícil realizar esta investigación crucial» sobre la superinteligencia. Esto debido a que OpenAI no invirtió los recursos necesarios para facilitar su labor.
«Necesitamos urgentemente descubrir cómo dirigir y controlar sistemas de IA mucho más inteligentes que nosotros», sentenció Leike. A su vez señaló que OpenAI debe invertir más en prepararse para «las próximas generaciones de modelos» de IA.
En concreto, tal y como compartió en una publicación en X, las prioridades de la compañía deberían centrarse en la seguridad, la monitorización de actividad de la IA, la preparación, la protección, la solidez adversarial, la confidencialidad y el impacto social, entre otros temas relacionados con esta tecnología y su impacto.
Sin embargo, Leike manifestó que estuvo «en desacuerdo» con el liderazgo de OpenAI sobre las prioridades centrales de la compañía. Le preocupa que la tecnológica «no esté en el camino correcto». Esto se debe a que durante los últimos años la cultura y los procesos de seguridad «han pasado a un segundo plano». Sobre todo frente a la creación de productos de alta potencia y más llamativos para los usuarios.
Con todo ello, Leike subrayó que construir máquinas más inteligentes que los humanos «es una tarea intrínsecamente peligrosa». Recordó que «OpenAI asume una enorme responsabilidad en nombre de toda la humanidad».
‘Mucho por mejorar’
Por su parte, Sam Altman reconoció en una publicación en X que «hay mucho más por hacer». Afirmó que, desde OpenAI, están «comprometidos» en continuar trabajando en este proceso de investigación.
Igualmente, también se pronunció el cofundador de OpenAI, Greig Brockman. Puntualizó que necesitan «un circuito de retroalimentación muy estrecho», así como pruebas rigurosas y una «consideración cuidadosa» en cada paso, de cara a continuar ofreciendo capacidades de IA, pero de forma segura.
Con ello, indicó que seguirán realizando investigaciones de seguridad dirigidas a «diferentes escalas de tiempo», además de colaborar con los gobiernos y partes interesadas en materia de seguridad. «Nos tomamos muy en serio nuestro papel aquí y sopesamos cuidadosamente los comentarios sobre nuestras acciones», insistió.
Ahora, tras la salida de Leike y de otro de los líderes del equipo enfocado en la tecnología de superinteligencia, Ilya Sutskever, el equipo de investigación pasó a estar encabezado por otro cofundador de OpenAI, John Schulman.