Expertos alertan de que la IA de Meta no está preparada para riesgos catastróficos

0
243

¿Es peligrosa la IA de Meta? Un informe independiente sitúa a Meta, DeepSeek y xAI entre las menos preparadas ante riesgos catastróficos

La inteligencia artificial de Meta no es algo que haya que descargar: ya está integrada en WhatsApp y forma parte del día a día de millones de personas. Sin embargo, según un nuevo informe independiente, este modelo suspende en seguridad. Meta comparte las peores posiciones del ranking con DeepSeek y xAI.

A medida que crecen la inversión y la carrera por desarrollar sistemas de IA cada vez más potentes, también se han multiplicado los índices que intentan medir su seguridad. Desde 2023, expertos y organizaciones vienen alertando de un desfase preocupante entre la velocidad del desarrollo tecnológico y la existencia de protocolos capaces de prevenir daños graves: desde sesgos y desinformación hasta escenarios de pérdida de control. En este contexto, el Future of Life Institute —conocido por impulsar la carta que pedía una pausa en el desarrollo de los modelos más avanzados— ha publicado una nueva edición de su AI Safety Index. El resultado coloca a Anthropic, OpenAI y Google DeepMind en la parte alta de la tabla, aunque con calificaciones mediocres, y deja a Meta, xAI y DeepSeek en el furgón de cola.

¿Una amenaza existencial?

El informe analiza a ocho compañías en distintas dimensiones, que van desde la gestión de daños actuales hasta la llamada “planificación de seguridad existencial”: la capacidad de prevenir fallos de modelos con potencial para causar daños catastróficos. Las conclusiones son incómodas para todo el sector. Anthropic lidera la clasificación con un C+, seguida de OpenAI con un C y Google DeepMind con un C−. Meta y xAI, penalizadas por su escasa transparencia y la falta de pruebas verificables sobre sus evaluaciones de riesgo, obtienen notas bajas. DeepSeek y Zhipu AI suspenden en casi todas las categorías.

Las calificaciones suponen un jarro de agua fría para una industria que aspira a alcanzar la inteligencia general artificial en menos de una década. El índice no valora el impacto comercial ni el atractivo de las demostraciones, sino el trabajo menos visible —y más crucial— que permite frenar un despliegue si algo sale mal. Exige, por ejemplo, hojas de ruta claras para detener lanzamientos, acceso a auditorías externas, publicación de resultados de pruebas y canales internos de denuncia bien definidos. Son estándares habituales en sectores altamente regulados, como la aviación o la energía, donde las medidas de seguridad se diseñan antes del accidente, no después.

Sin frenos hacia la superinteligencia

Meta presume de capacidad de infraestructura y de su ambición por avanzar hacia la “superinteligencia”, pero no aporta suficientes evidencias públicas de evaluaciones rigurosas ni de cómo actuaría si detectara capacidades peligrosas. xAI, enfocada en la rapidez de iteración y lanzamiento, ofrece poca documentación verificable sobre controles sólidos. DeepSeek, por su parte, defiende el código abierto de última generación, pero choca con un índice que prioriza la divulgación y los procedimientos de control, ámbitos en los que comparte menos información por diseño.

El informe también introduce matices culturales y regulatorios. En China, las normas internas de transparencia o denuncia corporativa tienen menos peso que los requisitos estatales de registro y prueba. Por ello, empresas como DeepSeek o Zhipu pueden cumplir con la normativa local y aun así salir mal paradas en un indicador concebido para fomentar el autogobierno y la apertura documental. Esta aclaración es clave: el índice funciona más como una herramienta de presión pública que como un veredicto legal o técnico definitivo.

Aun con estas salvedades, el mensaje general es contundente. Ninguna compañía presenta hoy un plan creíble y demostrable para controlar un sistema que supere los mecanismos actuales. Reuters lo resume de forma directa: el sector no está a la altura de los estándares globales emergentes. Si la industria confía en alcanzar sistemas de nivel humano, no bastan las promesas. Hacen falta compromisos auditables, calendarios claros, “puertas de emergencia” y pruebas replicables por terceros. La comparación que circula entre los expertos es elocuente: nadie pondría en marcha una central nuclear sin protocolos de seguridad probados.

¿Y ahora qué?

El índice actúa como un espejo. Refleja avances en empresas como Anthropic, que publica evaluaciones y abre su trabajo a auditores externos, pero también muestra cómo la prisa por competir reduce la documentación y el control de riesgos en otros laboratorios. Para el público y los reguladores, deja claras varias exigencias: más transparencia, acceso para investigadores independientes y mecanismos de parada que no dependan únicamente de la voluntad de un CEO. Para las empresas, recuerda una verdad incómoda: la seguridad solo cuenta si puede demostrarse antes de que sea necesaria.

Dejar respuesta

Please enter your comment!
Please enter your name here