Los humanos ante la IA: de la supervisión al control ético
A medida que los sistemas de inteligencia artificial ganan más protagonismo en la toma de decisiones, se hace necesario analizar el rol de los humanos para garantizar una supervisión lo más efectiva posible.
Los primeros modelos conceptuales sobre este tipo de supervisión clasifican el grado y el momento de intervención humana en relación con los sistemas automatizados. Estos modelos nos sirven como base para propuestas más complejas que establezcan las políticas y regulaciones necesarias, como ya ha comenzado a realizar la Unión Europea con su Reglamento de IA (AI Act).
Tres niveles de supervisión humana: HITL, HOTL y HIC
Uno de los enfoques fundacionales más relevantes, considerado como el primer marco institucional, es las Pautas Éticas para una IA confiable (Ethics Guidelines for Trustworthy AI), documento elaborado por el Grupo de Expertos de Alto Nivel sobre IA de la Comisión Europea. En esta guía se tipifican tres modelos de supervisión humana con diferentes enfoques, aunque complementarios, que ayudan a garantizar un control efectivo sobre los sistemas de inteligencia artificial.
Estos modelos son:
- Human-in-the-Loop (HITL):
El ser humano está directamente implicado en cada decisión del sistema. Este modelo se aplica cuando el usuario debe validar o aprobar la acción propuesta por la IA antes de que se ejecute. Por ejemplo, la aprobación médica asistida por IA. - Human-on-the-Loop (HOTL):
El humano no interviene constantemente, pero monitoriza el comportamiento del sistema, pudiendo detenerlo o corregirlo. Es común en IA de seguridad o en sistemas de vigilancia con alertas automáticas. - Human-in-Command (HIC):
Implica una supervisión estratégica: los humanos definen las condiciones bajo las cuales opera la IA: su diseño, límites éticos y marcos de rendición de cuentas. Es el nivel más alto de responsabilidad y se relaciona con la gobernanza organizativa.
En este sentido, el ya mencionado Reglamento de IA de la UE (AI Act), aprobado en 2024 y aplicable desde 2026, adopta una postura firme sobre la necesidad de supervisión humana, especialmente en sistemas de alto riesgo, cuyo punto clave lo recoge el Artículo 14 del reglamento, que hace hincapié en los siguientes aspectos:
- Los sistemas de IA deben diseñarse para garantizar una supervisión humana efectiva, capaz de prevenir o minimizar riesgos en el ámbito de la salud, la seguridad o los derechos fundamentales.
- En el artículo se establece que el operador humano que actúe con la IA debería:
- Comprender el sistema y sus límites.
- Detectar anomalías y sesgos.
- Interrumpir o desactivar el sistema si es necesario
- Evitar el sesgo de automatización (tener confianza ciega en la IA).
Los modelos de supervisión humana en la IA descritos (HITL, HOTL, HIC) representan un marco esencial para garantizar el control, la responsabilidad y la ética en sistemas automatizados. Aunque nacieron como propuestas teóricas, deberían formar parte integral de todas las empresas y organizaciones que trabajan con herramientas de IA. La clave ya no es solo tener un humano “presente”, sino asegurar que tenga capacidad real y significativa de intervención y control.
La regulación futura y la práctica organizativa, deberán ir más allá del cumplimiento formal para diseñar sistemas donde la supervisión humana no sea simbólica, sino sustancial.
Esto es esencial para cada organización, pero, en el caso de los medios, en la medida en que adoptan IA para optimizar sus procesos, el reto ya no es solo técnico, sino ético y editorial. Aplicar modelos Human-in-the-Loop y entender los niveles de autonomía propuestos permite mantener el equilibrio ideal entre eficiencia, control y responsabilidad.
Para los medios de comunicación, la clave está en diseñar una política de uso donde la IA no sustituya al humano, sino que lo potencie, respetando siempre el contexto y la integridad informativa. Pero para ello es necesario una estrategia bien diseñada, alineada con los valores de la compañía, en la que se requiere un gobernante de la IA con pautas claras, transparentes y consensuadas con la redacción.
Lecturas para el verano
Dada la importancia y las implicaciones de este tema, para aquellos que quieran profundizar más, proponemos varios artículos de instituciones y autores que han ahondado en esta clasificación. Entre ellos destacan:
- SpringerLink: Institutionalised Distrust and Human Oversight. Laux (2023). Se propone una distinción entre supervisión constitutiva (durante la decisión) y correctiva (auditoría posterior), integrando principios de desconfianza institucional.
- Tandfonline: Human Oversight of AI and Standardisation Ho-Dac y Martínez (2024). Vinculan directamente los tres niveles con la arquitectura legal del AI Act y los estándares técnicos necesarios para implementarlos.
- ArXiv: On the Quest for Effectiveness in Human Oversight. Sterz et al. (2024). Se detallan los requisitos para que la supervisión humana sea efectiva: acceso a información adecuada, poder real de intervención, intencionalidad, y control institucional.