Supervisión, la fórmula (no tan secreta) para la confianza
Que la inteligencia artificial va a transformar las profesiones digitales es ya algo incuestionable. Ahora lo que está en debate es cómo supervisar el trabajo que antes hacían los profesionales y que ahora se realiza gracias a la IA. Una nueva investigación de la Universidad Carnegie Mellon y Stanford con el título How Do AI Agents Do Human Work? va un paso más allá al intentar no limitase a evaluar los resultados de la IA, sino a comprender cómo funciona, cómo decide y qué diferencia su flujo del trabajo del humano.
El estudio analizó 48 trabajos realizados por humanos y 4 por agentes de IA (entre ellos ChatGPT, OpenHands y Claude) sobre tareas reales de análisis de datos, redacción, diseño, ingeniería y computación. Estas actividades representan aproximadamente el 70% de todos los trabajos que realizamos habitualmente frente a un ordenador. La conclusión es sabida: los agentes de IA son mucho más rápidos y baratos, pero también mucho más propensos a cometer errores críticos, a inventar datos y a perder contexto. Como ya sospechábamos, la eficiencia es real, aunque el riesgo también, a tenor de los datos que ofrecemos a continuación:
- Velocidad: Los agentes completan las tareas de forma más rápida que los humanos de media entre un 88% y un 96%.
- Calidad: Es inferior en precisión, coherencia y pertinencia entre 32 % y 50 %.
Es evidente que la IA es más rápida y, aparentemente, más barata que los humanos. El estudio identifica que el 93,8% de las acciones de los agentes son la consecuencia de código y comandos, incluso en actividades que requieren juicio humano, como el diseño o la redacción. Mientras tanto, los humanos combinan herramientas visuales, comprobaciones contextuales y razonamiento estratégico. En palabras de los autores, “Los agentes imitan la secuencia humana, pero no pueden hacerlo de su comprensión.”
Asistencia y productividad
Uno de los hallazgos más relevantes del estudio es cómo cambia el rendimiento cuando los humanos usan la IA como apoyo. Cuando se usa IA como asistente, la productividad humana mejora un 24,3%, manteniendo la calidad. Pero, cuando se usa para automatizar completamente la tarea, la eficiencia cae un 17,7 %, porque los errores de la IA requieren tiempo extra de revisión y corrección. En otras palabras, la IA multiplica al humano cuando colabora, pero lo ralentiza cuando lo sustituye.
Debemos ser conscientes de que los agentes no entienden el contexto. Generan datos, pero fallan conceptualmente. El estudio también pone de manifiesto que los agentes de IA tienden a:
- Inventar datos (“alucinaciones”) para completar respuestas;
- Usar mal herramientas externas, como buscadores o procesadores e
- Ignorar el formato y la presentación profesional.
Por ejemplo, al crear un informe financiero o un gráfico, un agente puede generar resultados matemáticamente correctos, pero visualmente incoherentes o imposibles de interpretar. Los humanos, en cambio, aplican contexto, estética y finalidad: saben para quién y para qué producen algo.
El modelo híbrido, la nueva frontera del trabajo
El estudio sugiere que el futuro del trabajo no será ni 100% humano, ni 100 % automatizado, sino hibrido. Los agentes deberán encargarse de lo programable mientras que los humanos deberán hacerlo de lo contextual y ético.
En una prueba conjunta, un humano preparó datos y un agente realizó el análisis. El resultado fue 68,7 % más eficiente, con calidad equiparable a la humana. Esa simbiosis redefine los marcos de supervisión que ya anticipa la Unión Europea en el AI Act (2024) y en las Pautas Éticas para una IA Confiable, bajo tres modelos clave:
- Human IN the Loop (HITL): intervención directa del humano en cada decisión.
- Human ON the Loop (HOTL): supervisión y control continuo.
- Human in Command (HIC): gobernanza estratégica, con límites éticos y rendición de cuentas.
Por tanto, es necesario que la supervisión humana sea real, no simbólica. Los humanos no pueden limitarse a “vigilar” la IA, deben tener el poder de acción, revisión y decisión. Ante este reto, se requiere, al menos, la incorporación de nuevos perfiles y roles en las organizaciones como:
- Supervisores algorítmicos,
- editores de datos y contextos y
- diseñadores de flujos híbridos (humanos + agentes).
Y sobre todo, una nueva cultura organizativa donde el valor no se mida solo en velocidad sino en veracidad, contexto y responsabilidad.
Para los medios de comunicación, este estudio refuerza un mensaje urgente: La automatización sin supervisión pone en riesgo la credibilidad. Por lo tanto, el desafío no es si usar IA o no, sino cómo hacerlo:
- Usar HITL para validar cualquier contenido automatizado.
- Aplicar HOTL en la monitorización de algoritmos de recomendación o resumen.
- Consolidar HIC como marco de gobernanza editorial y ética.
En definitiva, a día de hoy, la eficiencia no sustituye la comprensión. La IA ejecuta, pero el humano interpreta y comprende. El futuro del trabajo, y en concreto el del periodismo, la educación o la ingeniería, no depende de reemplazar o prescindir de las personas, sino de diseñar sistemas donde la inteligencia artificial amplifique la aportación humana, bajo control y, como siempre insistimos, con un propósito. La supervisión no debe interpretarse como un freno sino como el framework que ofrece confianza, tan importante en los tiempos que corren para la industria periodística.