Home MundoUSA OpenAI disuelve equipo centrado en riesgos de IA a largo plazo, menos de un año después de anunciarlo

OpenAI disuelve equipo centrado en riesgos de IA a largo plazo, menos de un año después de anunciarlo

por Redacción BL
0 comentario

OpenAI ha disuelto su equipo centrado en los riesgos a largo plazo de la inteligencia artificial apenas un año después de que la compañía anunciara el grupo, confirmó el viernes a CNBC una persona familiarizada con la situación.

La persona, que habló bajo condición de anonimato, dijo que algunos de los miembros del equipo están siendo reasignados a otros equipos dentro de la empresa.

La noticia llega días después de que ambos líderes del equipo, el cofundador de OpenAI, Ilya Sutskever y Jan Leike, anunciaran su salida de la startup respaldada por Microsoft. Leike escribió el viernes que «la cultura y los procesos de seguridad de OpenAI han pasado a un segundo plano frente a los productos brillantes».

El equipo de Superalineación de OpenAI, Anunciado El año pasado, se centró en «avances científicos y técnicos para dirigir y controlar sistemas de IA mucho más inteligentes que nosotros». En ese momento, OpenAI dijo que comprometería el 20% de su potencia informática a la iniciativa durante cuatro años.

OpenAI no hizo ningún comentario y en su lugar dirigió a CNBC al cofundador y director ejecutivo Sam Altman. publicación reciente en X, donde compartió que estaba triste por ver a Leike irse y que la empresa tenía más trabajo por hacer.

La noticia de la disolución del equipo fue reportada por primera vez por cableado.

Sutskever y Leike anunciaron el martes su salida en la plataforma de redes sociales Xcon horas de diferencia, pero el viernes, Leike compartió más detalles sobre por qué dejó la startup.

«Me uní porque pensé que OpenAI sería el mejor lugar del mundo para realizar esta investigación», Leike escribió en X. «Sin embargo, he estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la compañía durante bastante tiempo, hasta que finalmente llegamos a un punto de ruptura».

Leike escribió que cree que una mayor parte del ancho de banda de la empresa debería centrarse en la seguridad, la supervisión, la preparación, la protección y el impacto social.

«Es bastante difícil solucionar estos problemas y me preocupa que no estemos en la trayectoria para llegar allí», escribió. «Durante los últimos meses mi equipo ha estado navegando contra el viento. A veces estábamos luchando por [computing resources] y cada vez era más difícil llevar a cabo esta investigación crucial».

Leike añadió que OpenAI debe convertirse en una «empresa AGI que prioriza la seguridad».

«Construir máquinas más inteligentes que las humanas es una tarea intrínsecamente peligrosa», escribió. «OpenAI asume una enorme responsabilidad en nombre de toda la humanidad. Pero en los últimos años, la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes».

Leike no respondió de inmediato a una solicitud de comentarios.

Las salidas de alto perfil se producen meses después de que OpenAI atravesara una crisis de liderazgo que involucró a Altman.

En noviembre, la junta de OpenAI destituyó a Altman, diciendo en un comunicado que Altman no había sido «consistentemente sincero en sus comunicaciones con la junta».

La cuestión parecía tornarse más compleja cada día, con El periodico de Wall Street y otros medios de comunicación informaron que Sutskever se centró en garantizar que la inteligencia artificial no dañara a los humanos, mientras que otros, incluido Altman, estaban más ansiosos por seguir adelante con la entrega de nueva tecnología.

La destitución de Altman provocó renuncias o amenazas de renuncias, incluida una carta abierta firmada por prácticamente todos los empleados de OpenAI, y el revuelo de los inversores, incluidos microsoft. Al cabo de una semana, Altman estaba de regreso en la empresa y los miembros de la junta directiva Helen Toner, Tasha McCauley e Ilya Sutskever, que habían votado a favor de destituir a Altman, estaban fuera. Sutskever permaneció en el personal en ese momento, pero ya no en su calidad de miembro de la junta directiva. Adam D’Angelo, que también había votado a favor de destituir a Altman, permaneció en la junta.

Cuando se le preguntó a Altman sobre el estado de Sutskever en una llamada de Zoom con periodistas en marzo, dijo que no había actualizaciones para compartir. «Amo a Ilya… Espero que trabajemos juntos por el resto de nuestras carreras, mi carrera, lo que sea», dijo Altman. «Nada que anunciar hoy».

El martes, Altman compartió su opinión sobre la partida de Sutskever.

«Esto es muy triste para mí; Ilya es fácilmente una de las mentes más brillantes de nuestra generación, una luz guía en nuestro campo y un querido amigo», escribió Altman. en X. «Su brillantez y visión son bien conocidas; su calidez y compasión son menos conocidas pero no menos importantes». Altman dijo que el director de investigación Jakub Pachocki, que ha estado en OpenAI desde 2017, reemplazará a Sutskever como científico jefe.

Las noticias sobre las salidas de Sutskever y Leike, y la disolución del equipo de superalineación, llegan días después de que OpenAI lanzara un nuevo modelo de IA y una versión de escritorio de ChatGPT, junto con una interfaz de usuario actualizada, el último esfuerzo de la compañía para expandir el uso de su popular chatbot.

La actualización trae el modelo GPT-4 a todos, incluidos los usuarios gratuitos de OpenAI, dijo el lunes la jefa de tecnología Mira Murati en un evento transmitido en vivo. Añadió que el nuevo modelo, GPT-4o, es «mucho más rápido» y tiene capacidades mejoradas en texto, vídeo y audio.

OpenAI dijo que eventualmente planea permitir a los usuarios chatear por video con ChatGPT. «Esta es la primera vez que realmente estamos dando un gran paso adelante en lo que respecta a la facilidad de uso», afirmó Murati.



Fuente de la Noticia

You may also like

Leave a Comment

Noticias de Buenaventura y el mundo

2024 – All Right Reserved. [email protected]