منتديات اغليتك منتديات عامة اخبار اوربا La fuga de talento en OpenAI, ?amenaza para la seguridad?
Reem Senior Member

La presentaci?n de GPT-4o, la actualizaci?n de la inteligencia artificial (IA) de OpenAI, ha dejado en segundo plano las aguas revueltas que corren en la empresa l?der mundial en este campo. Mientras esta compa??a, aliada de Microsoft, y Google DeepMind –con Gemini– pelean por la hegemon?a mundial de la IA en una guerra de lanzamientos cada vez m?s asombrosos, OpenAI se deshace del departamento que se ocupaba de que esta revoluci?n tecnol?gica no se vuelva en contra de la humanidad.

El pasado viernes se informaba de la supresi?n del departamento denominado Superalignment, encargado de que la futura inteligencia artificial general esté “superalineada” con el beneficio de la humanidad. La noticia saltaba dos d?as después de que el cofundador de OpenAI, Ilya Sutskever, y el que fuera codirector de Superalignment, Jan Leike, anunciaran su marcha de la compa??a. Estos movimientos se interpretan como un nuevo triunfo de Sam Altman, cofundador y consejero delegado de OpenAI, que fue despedido en noviembre y volvi? a la empresa con m?s fuerza.

“?Qué ha visto Ilya Sutskever?”. Es la pregunta-meme que circula desde hace tiempo en redes sociales y foros de IA. Sutskever lleva mucho tiempo alertando del riesgo que supondr?a para la humanidad una inteligencia artificial general (AGI, por sus siglas en inglés) que supere a la humana en todos los campos. Que este tipo de IA tome conciencia de s? misma es materia casi m?s de la neurociencia y la filosof?a –y hasta de la ciencia-ficci?n, como plante? la pel?cula “Terminator” con “Skynet”– que de la inform?tica, pero es algo que los expertos se toman muy en serio. “Siguen abandonando expertos en seguridad de OpenAI –comentaba hace unos d?as un cient?fico gallego en un grupo de Telegram sobre IA–. ?Qué tendr?n entre manos que no conocemos y que puede suponer un riesgo tan serio para la humanidad para que algunos de los cerebros m?s brillantes del mundo hayan abandonado el barco y sueldos millonarios?”.

Seg?n explica la periodista Sigal Samuel en un extenso art?culo en el portal estadounidense de noticias y opini?n “Vox”, que varios de los empleados de OpenAI m?s preocupados por la seguridad de la compa??a hayan renunciado o hayan sido expulsados no tiene que ver con que Ilya Sutskever, el excient?fico jefe, hubiera vislumbrado algo terror?fico, como un sistema de inteligencia artificial capaz de destruir la humanidad, sino con el hecho de que él y otros cerebros de la compa??a hayan perdido su confianza en Sam Altman.

“OpenAI est? entrenando sistemas de IA cada vez m?s potentes con el objetivo de superar eventualmente la inteligencia humana en todos los ?mbitos. Esto podr?a ser lo mejor que le ha pasado a la humanidad, pero también podr?a ser lo peor si no procedemos con cuidado”, explica en este reportaje Daniel Kokotajlo, quien se uni? a OpenAI en 2022 con la esperanza de orientarlo hacia una implementaci?n segura de la IA y trabaj? en el equipo de gobernanza de la compa??a hasta que renunci? el mes pasado.

Se cree que los empleados que abandonan OpenAI firman acuerdos de confidencialidad que les impiden criticar a la empresa. No parece haber sido el caso de Jan Leike, que explic? en un hilo en X por qué renunci? como col?der del equipo de superalineaci?n:“He estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la compa??a durante bastante tiempo, hasta que finalmente llegamos a un punto de ruptura”, escribi? el viernes.
Tanto él como Ilya Sutskever han insistido en que OpenAI deber?a centrarse mucho m?s en la seguridad, la vigilancia, la preparaci?n y el impacto social derivado de su actividad. En noviembre pasado, Sutskever, junto con la junta directiva de OpenAI, intent? despedir a Altman por falta de confianza. Sin embargo, éste amenaz? con llevarse a los mejores talentos de la compa??a a Microsoft, lo que de facto supondr?a su destrucci?n. La directiva cedi? y Altman volvi? con m?s apoyos y m?s libertad para dirigir la empresa. Seg?n el art?culo de Sigal Samuel, que incluye declaraciones de fuentes cercanas a OpenAI bajo anonimato, Altman “afirma que quiere priorizar la seguridad, pero lo contradice en sus comportamientos”. A?ade que Altman “estaba recaudando fondos con reg?menes autocr?ticos como Arabia Saud? para poder crear una nueva empresa de fabricaci?n de chips de IA”. En definitiva, “al menos siete personas que intentaron impulsar a OpenAI hacia una mayor seguridad desde dentro perdieron tanta fe en su carism?tico l?der que su posici?n se volvi? insostenible”.

Seg?n una fuente con conocimiento interno de OpenAI, la empresa no est? en camino de construir e implementar AGI o superinteligencia de forma segura. Eso mismo parece expresar Jan Leike en su hilo de X: “Creo que se deber?a gastar mucho m?s de nuestro ancho de banda [potencia de computaci?n] en prepararnos para las pr?ximas generaciones de modelos, en seguridad, monitoreo, preparaci?n, protecci?n (...) Es bastante dif?cil solucionar estos problemas y me preocupa que no estemos en la trayectoria para llegar all?”.

En definitiva, no se trata de que el modelo mejorado de ChatGPT, denominado GPT-4o, suponga una amenaza existencial para la humanidad, sino que la empresa l?der mundial en IA no estar?a en el camino correcto de conseguir una superinteligencia segura, lo que resulta preocupante.



El valor ético, la apuesta de la IA europea

“El valor ético: quiz? este sea el camino que permita a la UE una posici?n fuerte en la imparable revoluci?n tecnol?gica del siglo XXI”.Con esta frase concluye su art?culo la viguesa Amparo Alonso Betanzos, investigadora en inteligencia artificial en la Universidade da Coru?a, publicado el pasado jueves en el portal de divulgaci?n cient?fica “The Conversation”. Para Alonso, considerada una de las mayores autoridades espa?olas en inteligencia artificial, el enfoque de la ley europea sobre IA, la primera regulaci?n en el mundo occidental sobre este campo, “es desde la ética y pensada al servicio de las personas y no de la gran empresa. Otros pa?ses como China y EEUU avanzan en su propia regulaci?n, pero con perspectivas muy diferentes”, destaca la investigadora. En el art?culo, titulado “El reparto del poder mundial en la cuarta revoluci?n industrial y el papel de Europa”, la ingeniera gallega asegura que la apuesta legislativa de la Uni?n Europea “intenta no frenar la innovaci?n, aunque hay voces discordantes con la situaci?n”. Entre los valores que figuran en la base regulatoria de la UE, Amparo Alonso cita la computaci?n sostenible, la privacidad por dise?o en los algoritmos y la soberan?a tecnol?gica. “Europa impulsa el uso de la IA en la lucha clim?tica y la sostenibilidad, y el desarrollo de una IA con datos de m?s calidad y algoritmos m?s verdes que la hagan sostenible”, subraya.



أكثر...


Powered by vBulletin® Copyright ©2000 - 2024, Jelsoft Enterprises Ltd. منتديات اغليتك
adv aglitk by : aglitk
جميع الحقوق محفوظة منتديات اغليتك