"Quizá el proyecto más importante de la historia de la humanidad": por qué OpenAI ya piensa en los riesgos de la AGI
Si hay un tema clásico en las películas de ciencia ficción, ese es el de las máquinas que acaban dominando el mundo. Esa distopía retratada en títulos icónicos como 'Terminator', 'Yo, robot' o incluso 'The Matrix' nos parecía precisamente solo un tema de esas películas o de novelas de ciencia ficción, pero lo cierto es que el peligro es real. No lo decimos nosotros: lo dice Sam Altman, CEO de OpenAI, que explicaba en un reciente artículo en el blog oficial de la empresa cómo esa búsqueda de una inteligencia artificial que beneficie a toda la humanidad puede acabar mal si no tenemos cuidado. Altman hablaba de la llamada Inteligencia Artifical General (AGI, por sus siglas en inglés), que será mucho más capaz que los sistemas actuales y que teóricamente permitirá que la humanidad progrese de forma inaudita. Sin embargo, su desarrollo y despliegue no está exento de riesgos. En Xataka Qué es la inteligencia artificial Lo sorprendente aquí es que uno e