La empresa cada vez estaría menos interesada en las cuestiones éticas detrás de la IA

Desde el lanzamiento de GPT-4o hace una semana nos hemos encontrado que la inestabilidad reinante en la empresa sigue siendo notable. De hecho, parece haber causado la desaparición de todo un equipo, así como la despedida de uno de los principales detractores de Sam Altman. De esta manera, parece que la situación es bastante comprometida a nivel interno, pero sus productos siguen manteniéndose en lo más alto del desarrollo científico de la IA.

Tecnología

OpenAI rompe una promesa y se olvida de los problemas éticos de la IA

De acuerdo con la CNBC, OpenAI ha disuelto su equipo cuyo centro de trabajo es pensar en los riesgos a largo plazo que puede tener la IA. Un año después de haberlo anunciado, el equipo de Superalineamientodesaparecerá y muchos de sus trabajadores serán reabsorbidos por otras secciones de la empresa. Los líderes de esta sección, Ilya Sutskever y Jan Leike han mostrado cierta decepción con respecto a OpenAI, ya que aseguran que están abandonando la seguridad en favor de crear productos cada vez más llamativos, olvidando en el camino las preocupaciones éticas que pueden existir a raíz de esto.

Leike ha sido bastante crítico con la otrora fundación, asegurando que:

«Me uní [a OpenAI] porque pensé que OpenAI sería el mejor lugar del mundo para realizar esta investigación. Sin embargo, he estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la compañía durante bastante tiempo, hasta que finalmente llegamos a un punto de ruptura. Creo que se debería gastar mucho más de nuestro ancho de banda en prepararnos para las próximas generaciones de modelos, en seguridad, monitoreo, preparación, protección, solidez adversarial, (super) alineación, confidencialidad, impacto social y temas relacionados. Es bastante difícil solucionar estos problemas y me preocupa que no estemos en el camino correcto para llegar allí».

Este equipo, concretamente, estaba concebido de tal manera que sus avances iban pensados a ser capaces de controlar los sistemas de IA cuando fuera más inteligente que los humanos. Es decir, cuando alcanzara la Inteligencia Artificial General (AGI). De esta manera, OpenAI iba a dirigir el 20% de sus capacidades informáticas a esta iniciativa durante cuatro años. Esto ha resultado ser demasiado tiempo, sobre todo si se tiene en cuenta la enorme cantidad de competencia que le ha ido surgiendo a la marca. Por ello, nos encontramos con que desde OpenAI han decidido prescindir de este servicio.

Desde OpenAI aseguran que la empresa ha aumentado la concienciación sobre los riesgos y oportunidades de la AGI y que están trabajando para que la sociedad comprenda los riegos que pueden entrañar este tipo de tecnologías.

Lo cierto es que estas destituciones entrañan más preocupaciones de las que realmente podría parecer. Ilya Sutskever fue uno de los principales valedores de la dimisión de Sam Altman hace unos meses. Aunque su regreso se saldó con una serie de dimisiones dentro de la empresa, lo cierto es que Sutskever se mantuvo dentro de la misma al haber sido uno de los principales fundadores. Sin embargo, su partida marca el fin de la oposición a Altman. Esto muestra el clima tumultuoso que debe existir en el interior de la empresa, sobre todo por las constantes luchas de poder que parece haber.

Con otras IAs avanzando su desarrollo con paso firme, como es el caso de Claude, resta por ver si este giro en los acontecimientos ayuda a la empresa a mejorar su capacidad de procesamiento, en detrimento de los peligros éticos que podría tener en un futuro.

Dejar respuesta

Please enter your comment!
Please enter your name here