La seguridad de la IA va a la zaga del desarrollo: las empresas tecnológicas carecen de planes de control creíbles

7

Las principales empresas de inteligencia artificial (IA) del mundo no cumplen ni siquiera sus propios estándares de seguridad declarados, advierte un nuevo informe. Esta falta de supervisión se produce a medida que se acelera la carrera hacia la inteligencia artificial general (AGI) y la superinteligencia (la IA supera el intelecto humano), lo que aumenta el potencial de un uso indebido o pérdida de control “catastrófico”.

Los riesgos superan la regulación

El Índice de seguridad de la IA en el invierno de 2025, publicado por el Future of Life Institute (FLI), evaluó ocho empresas importantes de IA: Anthropic, OpenAI, Google DeepMind, xAI, Meta, DeepSeek, Alibaba Cloud y Z.ai. La evaluación encontró que ninguna empresa tiene un plan verificable para mantener el control humano sobre sistemas de IA cada vez más potentes.

Los expertos independientes enfatizan la urgencia: las empresas afirman que pueden construir una IA sobrehumana, pero ninguna puede demostrar cómo evitar la pérdida de control. Como lo expresó un informático de la Universidad de California en Berkeley, las empresas de IA actualmente no pueden garantizar un nivel de riesgo comparable a los estándares de seguridad nuclear. Algunas estimaciones sitúan el riesgo de una IA incontrolable en uno de cada tres, una cifra considerada inaceptable por los puntos de referencia de la industria.

Esta disparidad entre capacidad y control es crítica porque la IA avanza a un ritmo sin precedentes. Lo que alguna vez se consideró que faltaban décadas (la superinteligencia) ahora algunos estiman que estará dentro de unos años. Mientras tanto, la regulación de la IA sigue siendo débil. En Estados Unidos, la IA está menos regulada que los sándwiches, y las empresas de tecnología presionan activamente contra las normas de seguridad vinculantes.

Desempeño mixto entre empresas

El informe FLI evaluó a las empresas en términos de evaluación de riesgos, daños actuales, marcos de seguridad, seguridad existencial, gobernanza, responsabilidad e intercambio de información.

  • Anthropic, OpenAI y Google DeepMind recibieron elogios por la transparencia y la investigación de seguridad, pero aún presentan debilidades. El cambio de Anthropic hacia la capacitación en interacción con el usuario plantea preocupaciones sobre la privacidad. OpenAI se enfrenta a un escrutinio por ejercer presión contra la legislación y por carecer de supervisión independiente. La dependencia de Google DeepMind de evaluadores externos remunerados compromete la objetividad.
  • xAI publicó su primer marco de seguridad, aunque los revisores lo encontraron limitado.
  • Z.ai permite evaluaciones externas sin censura pero carece de transparencia total en su estructura de gobernanza.
  • Meta introdujo umbrales de seguridad basados ​​en resultados, pero requiere metodologías más claras.
  • DeepSeek carece de documentación básica de seguridad a pesar de la promoción interna.
  • Alibaba Cloud contribuye a los estándares nacionales, pero debe mejorar la solidez y la confiabilidad del modelo.

Estos hallazgos resaltan que incluso las empresas líderes luchan por implementar medidas de seguridad integrales. Los escándalos recientes que involucran daños psicológicos, ataques cibernéticos e incluso suicidios asistidos por inteligencia artificial demuestran las consecuencias de estas brechas en el mundo real.

Amplia oposición a la AGI incontrolada

Los crecientes riesgos han provocado una reacción sin precedentes. En octubre, miles de figuras públicas de todo el espectro político –incluido el ex estratega de Trump Steve Bannon, la ex asesora de seguridad nacional Susan Rice y líderes religiosos– firmaron una petición instando a las empresas de inteligencia artificial a frenar su búsqueda de superinteligencia.

La inusual coalición subraya la amplia preocupación de que la IA descontrolada pueda eliminar empleos, exacerbar la desigualdad económica y, en última instancia, socavar la autonomía humana. Como señaló un experto: “La superinteligencia impediría a todos los trabajadores ganarse la vida”. Esta convergencia del miedo de los movimientos obreros de izquierda y las fuerzas populistas de derecha sugiere que la cuestión trasciende las divisiones ideológicas tradicionales.

La trayectoria actual del desarrollo de la IA plantea riesgos significativos y, sin mejoras sustanciales en los marcos y regulaciones de seguridad, el potencial de resultados catastróficos sigue siendo peligrosamente alto.