Tech

El misterio de una carta alertando de los avances en OpenAI

De acuerdo con fuentes familiarizadas con este asunto y citadas por Reuters, un grupo de investigadores de OpenAI firmó una carta donde advertía de un “poderoso descubrimiento” de inteligencia artificial que podría amenazar a la humanidad.

La dichosa carta, de la que ni OpenAI ni los investigadores que supuestamente la firmaron se han pronunciado, pudo ser uno de los factores que provocaron la salida del CEO (director) de OpenAI Sam Altman, que, dicho sea de paso, regresará a su puesto en la compañía.

Antes de la carta citada por Reuters que explica que los investigadores de OpenAI advirtieron a la junta sobre el avance de la IA antes de la destitución del CEO, dicen las fuentes‘, Sam Altman había sido despedido como el CEO de la compañía OpenIA, esto junto con el cofundador y presidente de dicha empresa, Greg Brockman.

Estos despidos duraron poco, porque apenas el pasado miércoles 22 de noviembre se informaba del regreso de Altam a OpenIA, esto tras el intenso apoyo de colaboradores de la empresa que amenazaron con renunciar.

Pero antes de este despido bastante mediático, un grupo de investigadores de OpenAI escribió una carta donde advirtió de un descubrimiento en inteligencia artificial que podría amenazar a la humanidad.

Sobre esta información, aún no está claro o confirmado si la carta llegó a manos de la junta directiva o qué onda, pero las fuentes citadas por Reuters afirman su existencia y aseguran que fue decisiva en la salida de Altman.

Antes de todo el desorden por el despido de Altman en OpenAI, la empresa mandó un correo interno sobre un proyecto llamado ‘Q*’.

Según un vocero de OpenAI, este mensaje fue enviado por otra de las ejecutivas de la empresa, Mira Murati, para alertar al personal sobre la información que circulaba en medios. Eso fue todo.

Sin embargo, colaboradores de OpenAI creen que ‘Q*’ (Q-Star) podría implicar un gran salto en el desarrollo de la inteligencia artificial general (AGI), uno que podría superar a los humanos en muchísimas tareas de gran valor económico.

Según una fuente anónima, este nuevo modelo pudo resolver algunos problemas matemáticos del nivel de los que enseñan en primarias.

Esa info resultó un fuerte golpe porque hasta el momento, la inteligencia artificial no ha cruzado el umbral o la frontera de las matemáticas.

Es decir, sí, la inteligencia artificial nos puede ayudar en textos, rollos de traducción y otras tareas muy ligadas a la palabra e idiomas. Pero no en las matemáticas, donde sólo existe una respuesta correcta.

Si la IA logra desarrollar esta capacidad de razonamiento humano, entonces sí que habría un gran salto, porque a diferencia de las calculadoras, la inteligencia artificial podría aprender, comprender y participar en la solución de los problemas matemáticos.

Las fuentes citan la inconformidad de algunos colaboradores con la comercialización de la IA, sin comprender aún su impacto, como CHATGPT, desarrollado por el equipo de Sam Altman.

Además de que se suma a otros pronunciamientos externos preocupados por el desarrollo de la inteligencia artificial.

Sobre esta carta, Reuters mencionó que no tuvo acceso al documento y que toda la información es vía fuentes, como colaboradores de OpenAI.

Con información de Sopitas

Exit mobile version