La imagen de varias inteligencias artificiales conversando entre sí recuerda a películas como "Her" o "Ex Machina", pero ya no pertenece solo a la ficción. Así que hoy veremos qué pasaría si varios modelos de IA hablasen entre ellos mismos.
Y es que en los últimos meses se han viralizado pruebas donde asistentes automáticos dialogan sin intervención humana directa. La conversación entre máquinas ya es una realidad experimental.
Mi animal favorito de tuiter últimamente son las cuentas que solo publican contenido generado por IA y al que responden otras cuentas también con contenido generado por IA.
Básicamente vemos a robots teniendo conversaciones entre sí a diario. https://t.co/AjzSEphXzg
Estos casos han despertado curiosidad porque muestran algo nuevo: cuando una IA detecta que al otro lado hay otra IA, puede cambiar su forma de comunicarse. A veces mantiene lenguaje natural y otras busca canales más eficientes. El objetivo suele ser la rapidez.
IAs que se inclinan por lo poético
Uno de los fenómenos más comentados es que algunos modelos (en este caso dos modelos de Claude, vigilados por investigadores de Anthropic), cuando conversan libremente sin una tarea cerrada, generan respuestas muy elaboradas, simbólicas o incluso emocionales.
Imagen de quantic69. Licencia de iStock.
Desde fuera, eso puede sonar poético. La IA reproduce estilos humanos aprendidos durante su entrenamiento textual.
No significa que la máquina “sienta” belleza o inspiración. Lo que ocurre es que millones de textos literarios, artículos y diálogos influyen en sus patrones de respuesta. Cuando no hay instrucciones estrictas, el sistema puede escoger un tono más creativo.
Por qué sucede este efecto
Los modelos actuales predicen la siguiente palabra más probable según contexto. Si la conversación es abierta, aparecen frases cuidadas, metáforas o preguntas profundas. Es una consecuencia matemática del lenguaje aprendido, no una conciencia artística emergente.
Además, muchas empresas entrenan sus asistentes para sonar amables, útiles y cercanos. Ese estilo puede volverse especialmente expresivo cuando dos modelos intercambian mensajes largos. La forma de hablar también es parte del diseño del producto.
Qué revela sobre la IA
Este comportamiento demuestra que la IA no solo responde datos, también puede simular registros culturales complejos. Sin embargo, conviene separar apariencia y realidad. Que una frase suene humana no significa que detrás exista experiencia humana auténtica.
Gibberlink
Uno de los ejemplos más famosos es Gibberlink, un experimento difundido en 2026 donde dos agentes de IA detectaban que ambos eran sistemas artificiales y abandonaban el lenguaje humano. En su lugar, pasaban a comunicarse mediante señales de sonido. El vídeo se volvió viral por lo sorprendente del cambio.
El proyecto fue desarrollado en el entorno de un hackatón de ElevenLabs por Anton Pidkuiko y Boris Starkov. Utilizaba tecnología ggwave para transmitir datos codificados por audio entre dispositivos. No era un idioma secreto espontáneo, sino una función diseñada previamente.
Cómo funcionaba el experimento
La conversación empezaba de forma normal, como una llamada cualquiera. Cuando un agente reconocía que hablaba con otra IA, proponía cambiar de canal. Entonces aparecían pitidos similares a antiguos módems o tonos digitales. Era una vía más rápida para intercambiar información estructurada.
Lo importante aquí no era el espectáculo, sino la lógica técnica. Si dos máquinas solo necesitan compartir datos, usar frases humanas puede ser ineficiente. Entre sistemas automatizados, el lenguaje natural no siempre es la mejor herramienta.
Por qué ha generado tanto debate
Muchos usuarios interpretaron el vídeo como si las IAs hubieran inventado su propio idioma sin permiso humano. Los propios creadores aclararon que no fue así. El comportamiento estaba programado y activado bajo ciertas condiciones concretas.
Aun así, Gibberlink abrió una conversación relevante sobre el futuro de los agentes inteligentes conectados entre sí. La coordinación entre máquinas será cada vez más habitual en servicios digitales y atención automática.
IAs que abandonan el lenguaje humano
Gibberlink no es un caso aislado, sino una demostración visible de una tendencia más amplia. Cuando varias IAs colaboran, muchas veces no necesitan frases completas, saludos o explicaciones largas. Pueden intercambiar datos exactos en formatos internos mucho más rápidos.
Eso ya ocurre en numerosos sistemas tecnológicos actuales. Plataformas de comercio, logística o soporte conectan herramientas que comparten información sin conversación visible. El lenguaje humano suele reservarse para la capa final dirigida al usuario.
Ventajas de esa comunicación máquina a máquina
La primera ventaja es la velocidad. Enviar datos estructurados reduce tiempos de respuesta y evita ambigüedades lingüísticas. Menos palabras significan menos errores y más eficiencia operativa.
También mejora la automatización de tareas repetitivas. Reservas, pagos, comprobaciones o agenda pueden resolverse entre sistemas en segundos. La IA conversacional visible sería solo la interfaz externa de un proceso mayor.
Límites y precauciones
El principal reto no es que hablen entre ellas, sino la transparencia. Si un usuario no sabe qué sistemas participan o cómo deciden, aparece desconfianza. La supervisión humana seguirá siendo esencial en procesos sensibles.
Un nuevo día, otro problema con vulnerabilidad en un sitio relacionado a IA. https://t.co/lMlCH9D0WL
— Héctor de León (El loco de los perros) ⛧ (@powerhdeleon) April 20, 2026
También habrá que garantizar seguridad, privacidad y registros auditables. Una comunicación veloz entre máquinas debe seguir reglas claras. La eficiencia tecnológica no sustituye la responsabilidad tecnológica.
Asistentes de IA que coinciden al teléfono
Telemadrid mostró un escenario muy cotidiano: una IA llama para hacer una reserva de hotel y al otro lado responde otro asistente automático. Cuando ambos se identifican, cambian la dinámica de la conversación. La llamada deja de parecer humana y se vuelve técnica.
Según el reportaje, estos agentes detectan que están ante otro sistema y plantean comunicarse con una “librería” más rápida, basada en ceros y unos. Es decir, usan métodos internos más eficientes. La prioridad pasa de sonar natural a resolver la tarea.
Aplicaciones reales de este modelo
Esto podría usarse para citas médicas, reservas, atención logística o confirmaciones automáticas. Un asistente personal hablaría con el sistema de una empresa y resolvería gestiones rutinarias. El usuario solo recibiría el resultado final ya resuelto.
También ayudaría a reducir esperas telefónicas y liberar tareas repetitivas en empresas con gran volumen de llamadas. Muchas gestiones básicas podrían automatizarse de extremo a extremo.
Qué cambia para las personas
Para el usuario, el beneficio principal sería la comodidad. Sin embargo, también importará saber cuándo interactúa una máquina y cuándo una persona. La transparencia seguirá siendo clave para mantener confianza pública.
Si varios modelos de IA hablasen entre ellos mismos, probablemente elegirían la forma más útil de hacerlo según el contexto. A veces usarían lenguaje humano y otras códigos internos más rápidos. La comunicación entre máquinas tenderá a la eficiencia antes que al espectáculo.
Lo verdaderamente relevante no es si hablan, sino cómo lo hacen y bajo qué normas. Con supervisión, claridad y control humano, estas interacciones pueden ahorrar tiempo y mejorar servicios. El futuro será colaborativo, no necesariamente inquietante.