Líder de seguridad de OpenAI dimite por preocupaciones de seguridad
OpenAI: La cara oculta tras ChatGPT y las recientes salidas de ejecutivos
OpenAI, la empresa detrás de ChatGPT, ha estado en el centro de atención en los últimos meses debido a una serie de salidas de alto perfil, lo que ha generado preocupaciones sobre la cultura y las prioridades de la empresa.
El adiós de Jan Leike
La última salida es la de Jan Leike, codirector del equipo de superalineación de OpenAI. En un hilo de Twitter, Leike explicó que había estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la empresa, particularmente en lo que respecta a la seguridad.
Carencias en seguridad y superalineación
Leike cree que OpenAI debería centrarse más en la seguridad, el seguimiento, la preparación y la protección. Expresó su preocupación de que la empresa no estaba en camino de abordar estos problemas críticos.
Es bastante difícil solucionar estos problemas y me preocupa que no estemos en la trayectoria para llegar allí.
Jan Leike, ex codirector del equipo de superalineación de OpenAI
Priorizar la inteligencia artificial general
Leike también enfatizó la importancia de priorizar la preparación para la inteligencia artificial general (AGI), un sistema que procesa información como los humanos. Argumentó que OpenAI necesita convertirse en una "empresa AGI" que priorice la seguridad.
Cultura y procesos de seguridad
Leike sugirió que la cultura y los procesos de seguridad de OpenAI han pasado a un segundo plano frente a los productos brillantes. Esto ha generado preocupaciones sobre la responsabilidad de la empresa al construir máquinas más inteligentes que los humanos.
Temores sobre la inteligencia artificial
Las recientes salidas de OpenAI han contribuido a aumentar los temores sobre la inteligencia artificial y la empresa mejor posicionada para llevarla a cabo. La falta de énfasis en la seguridad y la superalineación ha generado preocupaciones sobre las implicaciones potenciales de la AGI.
Llamado a la acción
Leike instó a OpenAI a comprometerse a actuar con la seriedad apropiada para lo que están construyendo. Argumentó que la empresa necesita priorizar la seguridad y prepararse para las implicaciones de la AGI para garantizar que beneficie a toda la humanidad.
Artículos relacionados