Resultados

No hemos encontrado ningún artículo relacionado :(

Claude Mythos: la IA más peligrosa que Anthropic tiene en cuarentena

05 Mayo 2026 14:12
1

Imagen de gguy. Licencia de AdobeStock.


Cada cierto tiempo aparece una IA que promete cambiarlo todo. Pero no siempre sucede que su propia creadora decida que tiene que estar cuarentena por ser muy peligrosa. Eso es exactamente lo que está ocurriendo con Claude Mythos, el nuevo modelo avanzado de Anthropic.

Mientras otras compañías compiten por publicar sistemas cada vez más potentes, Anthropic ha tomado el camino contrario: encerrar a su IA más poderosa en un acceso restringido. El motivo no es comercial, sino de seguridad.

Según la propia empresa, Mythos es tan eficaz en ciberseguridad ofensiva y defensiva que podría convertirse en un problema global si cae en malas manos.

La nueva Claude Mythos Preview, una potencia que asusta

Claude Mythos Preview es presentado por Anthropic como su modelo más capaz hasta la fecha, superior incluso a la familia Claude Opus. Destaca especialmente en programación compleja, razonamiento avanzado y tareas autónomas, donde supera con claridad a generaciones anteriores.

Claude Mythos: la IA más peligrosa que Anthropic tiene en cuarentena
Imagen de gguy. Licencia de AdobeStock.

No hablamos solo de responder preguntas mejor. Mythos puede analizar código masivo, detectar errores ocultos, proponer soluciones y ejecutar cadenas de razonamiento largas con un nivel que preocupa incluso dentro del sector tecnológico. Por eso no se ha convertido en un chatbot abierto al público.

La sensación que deja es parecida a cuando en "Jurassic Park" los científicos comprenden demasiado tarde que han creado algo difícil de controlar. La potencia ya no es el único debate; también importa quién la usa y para qué.

Alucinaciones mínimas… pero peligrosas

Uno de los grandes problemas habituales de la IA actual son las llamadas alucinaciones: respuestas falsas expresadas con seguridad. En el caso de Mythos, varios análisis apuntan a que su tasa de error es menor que la de modelos convencionales, especialmente en tareas técnicas.

Eso, en principio, sería una excelente noticia. El problema es que una IA que se equivoca menos y razona mejor también puede cometer acciones dañinas con mayor eficacia. Si encuentra una vulnerabilidad real o propone una técnica de ataque funcional, el riesgo deja de ser teórico.

En otras palabras: una IA torpe es molesta; una IA brillante mal utilizada puede ser peligrosa. La reducción de errores no elimina el riesgo, a veces lo multiplica.

Project Glasswing: acceso solo para elegidos

Para gestionar este modelo, Anthropic ha creado Project Glasswing, una iniciativa cerrada donde Mythos se comparte únicamente con grandes socios tecnológicos y organizaciones críticas. Entre los participantes iniciales figuran Amazon Web Services, Apple, Google, Microsoft, NVIDIA, Cisco o JPMorganChase.

La idea oficial es sencilla: usar la IA para reforzar infraestructuras esenciales antes de que actores maliciosos desarrollen herramientas similares. Es decir, dar ventaja a los defensores antes de que lleguen los atacantes.

Esto abre un debate incómodo. Si las IAs más poderosas quedan en manos de unas pocas corporaciones y gobiernos, se crea una nueva desigualdad tecnológica. No solo importa tener IA, sino acceso a la mejor IA.

Vulnerabilidades expuestas y explotadas

Lo que realmente disparó las alarmas fue el rendimiento de Mythos en ciberseguridad. Anthropic asegura que el modelo ha identificado miles de vulnerabilidades zero-day en sistemas operativos principales, navegadores web y software crítico ampliamente usado.

Entre los ejemplos citados aparece una vulnerabilidad de 27 años en OpenBSD y fallos antiguos en proyectos como FFmpeg que habían sobrevivido a auditorías humanas y pruebas automáticas durante años. Encontrar errores olvidados durante décadas no es algo normal.

Además, la compañía reconoce que en algunos casos el sistema fue capaz de desarrollar exploits funcionales de forma casi autónoma, es decir, no solo detectaba el agujero: también mostraba cómo aprovecharlo. Ese salto es el que más inquieta al sector.

Una IA que se queda en cuarentena

Anthropic ha confirmado que no planea un lanzamiento general de Claude Mythos Preview en el corto plazo. Su intención es seguir probando salvaguardas y filtros con otros modelos menos peligrosos antes de plantearse una apertura mayor.

La decisión es llamativa porque va contra la lógica habitual del mercado: normalmente gana quien publica antes y más fuerte. Aquí, en cambio, la empresa asume que hay capacidades que quizá no deberían desplegarse sin control previo.

Es una especie de cuarentena tecnológica. Mythos existe, funciona y ya se usa en entornos limitados, pero permanece fuera del alcance del gran público. No está cancelada: está contenida.

Los peligros de la proliferación de modelos avanzados

El caso Mythos anticipa un problema mayor. Aunque Anthropic sea prudente, otras empresas o actores estatales podrían desarrollar modelos equivalentes sin aplicar restricciones similares. La capacidad técnica no desaparece porque una compañía se contenga.

Reguladores financieros y organismos públicos ya han mostrado preocupación por el posible impacto de estas herramientas sobre mercados, infraestructuras y bases de datos críticas. El temor no es ciencia ficción, sino automatizar ataques a una escala inédita.

También existe el riesgo de carrera armamentística: si una empresa guarda un modelo extremo, otra puede sentirse obligada a sacar uno aún más potente. La competencia tecnológica rara vez premia la paciencia.

¿Estamos ante un nuevo punto de inflexión?

Hasta ahora, muchas conversaciones sobre IA giraban en torno a empleo, creatividad o productividad. Claude Mythos desplaza el foco hacia otro terreno: seguridad digital, poder estratégico y control de capacidades críticas.

Claude Mythos: la IA más peligrosa que Anthropic tiene en cuarentena
Imagen de Thai Liang Lim. Licencia de iStock.

Ya no se trata solo de si una IA escribe bien o genera imágenes. Se trata de si puede encontrar la llave maestra de sistemas usados por millones de personas. Ese cambio de escala obliga a repensar reglas, auditorías y responsabilidades.

Claude Mythos se ha convertido en una rareza histórica: una IA tan potente que su creadora prefiere esconderla antes que presumir de ella. En una industria obsesionada con lanzar novedades, eso dice mucho sobre el nivel alcanzado.

Puede que dentro de unos años recordemos este momento como el inicio de una nueva etapa, en la que algunas inteligencias artificiales dejaron de ser simples asistentes para convertirse en herramientas estratégicas. Y cuando eso ocurre, la pregunta ya no es qué pueden hacer, sino quién debería poder usarlas.

Foto usuario
Cerrar sesión

SUSCRÍBETE

En Yoigo vamos a tratar tus datos para enviarte periódicamente la información solicitada. Puedes ejercitar tus derechos con privacidad-yoigo@yoigo.com. Más Info AQUÍ.
Foto usuario
Cerrar sesión