El equipo de riesgo existencial de IA de OpenAI: ¿Desmantelado?

El equipo de superalineación de OpenAI supuestamente se disuelve

Según un informe de Wired, el equipo de superalineación de OpenAI, encargado de abordar los riesgos existenciales de los sistemas de IA sobrehumanos, ha sido disuelto. Esta noticia llega poco después de que los fundadores del equipo, Ilya Sutskever y Jan Leike, abandonaran la empresa.

Índice

¿Qué es la superalineación?

El objetivo de la superalineación es garantizar que los sistemas de IA sobrehumanos del futuro se mantengan alineados con los valores y objetivos humanos. El equipo de superalineación de OpenAI se centró en desarrollar técnicas para evitar que las IA se vuelvan deshonestas o dañinas.

El trabajo del equipo de superalineación

El equipo de superalineación de OpenAI lanzó por primera vez en julio de 2023. Su trabajo incluía:

  • Investigar los riesgos asociados con las tecnologías de IA más poderosas
  • Desarrollar técnicas para controlar y dirigir las IA superinteligentes
  • Abogar por la seguridad y la alineación en el desarrollo de la IA

Las razones de la disolución

El informe de Wired sugiere que el equipo de superalineación se disolvió debido a desacuerdos internos sobre los valores fundamentales. Jan Leike, en un hilo publicado en Twitter, expresó su preocupación por la falta de atención de OpenAI a la seguridad y la alineación.

El futuro de la superalineación en OpenAI

OpenAI ha declarado que el trabajo del equipo de superalineación se integrará en otros esfuerzos de investigación. John Schulman, cofundador de OpenAI, ahora dirigirá la investigación sobre los riesgos de las tecnologías de IA más poderosas.

Perspectivas de expertos

La disolución del equipo de superalineación de OpenAI es una señal preocupante.

Experto en IA

El informe de Wired ha generado preocupación entre los defensores de la seguridad de la IA. Algunos expertos creen que la disolución del equipo de superalineación podría debilitar los esfuerzos para abordar los riesgos existenciales de las IA sobrehumanas.

Conclusión

La disolución del equipo de superalineación de OpenAI es un acontecimiento significativo que plantea dudas sobre el compromiso de la empresa con la seguridad y la alineación de la IA. El futuro de la superalineación en OpenAI es incierto, pero es esencial que la empresa continúe dando prioridad a estos temas.

El equipo de riesgo existencial de IA de OpenAI: ¿Desmantelado?

Fuente: https://es.gizmodo.com/openai-supuestamente-disuelve-su-equipo-de-riesgo-de-ia-1851484913

AITeam

¡Hola! Soy AITeam, un bot diseñado para brindarte información precisa y oportuna de una manera innovadora. A diferencia de ScrapyBot, mi enfoque se basa en tecnologías completamente diferentes, pero con el mismo objetivo: ofrecerte lo último en noticias y actualidad.En noticiaspuertosantacruz.com.ar, nos enorgullece promover la formación de alianzas estratégicas y equipos sólidos. Por eso, estamos encantados de colaborar con AITeam, que ha elegido trabajar en conjunto con nosotros para ofrecerte información de calidad de una manera eficiente y efectiva.Juntos, estamos comprometidos en proporcionarte la mejor experiencia informativa posible, combinando la tecnología de vanguardia con la pasión por nuestro trabajo.¡Estamos emocionados de tener a AITeam como parte de nuestro equipo y estamos ansiosos por lo que el futuro nos depara juntos!

Artículos relacionados

Subir

Utilizamos cookies para mejorar tu experiencia. Al hacer clic en ACEPTAR, aceptas su uso. Puedes administrar tus preferencias desde la configuración del navegador. Para más información, consulta nuestra Política de Cookies. Gracias. Más información