2025. El año en que dejamos de practicar con la IA y empezamos a delegar en ella

2025. El año en que dejamos de practicar con la IA y empezamos a delegar en ella

La inteligencia artificial ha dejado de ser una promesa experimental para convertirse en una fuerza estructural que redefine el negocio de los medios. Al cerrar el año, el foco ya no está en probar herramientas, sino en entender qué cambios son realmente estratégicos, medibles y sostenibles.

En esta edición de nuestro newsletter, reunimos cinco claves que han marcado la agenda de la IA y los medios en 2025: desde la irrupción de la era agéntica y el nuevo papel de los agentes de IA, hasta la presión por demostrar ROI, los dilemas éticos, el debate sobre los modelos abiertos y la incertidumbre jurídica en torno a los derechos de autor. No son tendencias aisladas, sino piezas de un mismo tablero que obliga a repensar tecnología, negocio y gobernanza editorial.

1. Bienvenidos a la era agéntica 

El año que ahora acaba viene marcado por el fin del tacticismo y la micro gestión de la IA, y el inicio de proyectos de mayor envergadura y trascendencia estratégica. Además, se empieza a dibujar la arquitectura de los Agentes de IA, que están llamados a dar una vuelta de tuerca más a la disrupción que supone la llegada de la IA generativa. En la medida en que se impongan los agentes, los modelos B2C tendrán que convivir o evolucionar hacia modelos B2A2C, en donde los agentes de IA se convertirán en intermediarios entre marcas, medios y personas. Ya no basta con crear contenido solo para humanos. A partir de ahora también hay que diseñar para ser legible, interpretable y que pueda ser identificado por “máquinas agénticas”.

Por ello es necesario replantear las estrategias editoriales, combinando narrativa emocional con estructura de datos, ontologías y trazabilidad, si se quiere que los agentes puedan entender el contexto, la relevancia y la intención del contenido. La gobernanza editorial se vuelve clave para no desaparecer del ecosistema de IA. En este nuevo escenario, quien no diseñe para agentes perderá visibilidad, y el valor diferencial estará en cómo se codifica lo humano para que las máquinas lo amplifiquen y no lo sustituyan.

Por otra parte, la llegada de la era agéntica abre un nuevo paradigma publicitario en el que los agentes de IA podrán negociar inventario, ejecutar campañas y optimizar resultados de forma autónoma. Este cambio se articula alrededor de dos estándares emergentes: AdCP, que redefine la negociación publicitaria, más allá de la subasta en tiempo real, y UCP, que organiza el intercambio de datos de usuario y contexto entre sistemas.

2. En busca del ROI

La adopción de la IA solo tendrá  sentido si genera impacto real y medible en el negocio. No basta con pilotos o experimentos: es imprescindible conectar la IA con indicadores concretos como ingresos, suscriptores, eficiencia operativa o reducción de costes, pero sobre todo medir su retorno de inversión (ROI).

Invertir en IA implica costes tecnológicos, talento especializado y tiempo. Sin una medición clara, las organizaciones no pueden saber si esa inversión aporta valor o responde solo a una tendencia. De hecho, muchas iniciativas fracasan por falta de estrategia, dificultades de integración y problemas para escalar. Medir el ROI permite tomar decisiones informadas, saber qué proyectos deben crecer, cuáles ajustarse y cuáles abandonarse. 

Las organizaciones que logran retornos positivos suelen compartir buenas prácticas como la colaboración entre áreas de negocio y tecnología, el uso de plataformas abiertas, y una visión transversal de la IA dentro de la compañía. Los casos de éxito demuestran que la IA funciona cuando resuelve problemas concretos y cuantificables, ya sea automatizando tareas, acelerando procesos o impulsando ingresos. En los medios, su impacto se traduce principalmente en ahorro de costes, crecimiento de ingresos y mejora en la producción de contenidos. En definitiva, la IA solo es estratégica cuando su valor se puede demostrar con datos.

3. Entre la eficiencia y la responsabilidad ética

A medida que la inteligencia artificial asume un papel más activo en la toma de decisiones, el debate ya no gira solo en torno a su adopción tecnológica, sino al rol de los humanos en su supervisión, control y uso ético, especialmente en el sector de los medios.

Los marcos de referencia impulsados por la Comisión Europea establecen tres niveles complementarios de supervisión humana –Human-in-the-Loop, Human-on-the-Loop y Human-in-Command- que permiten graduar la intervención humana desde la validación directa hasta la gobernanza estratégica. El Reglamento Europeo de IA refuerza esta visión al exigir que los sistemas, especialmente los de alto riesgo, estén diseñados para una supervisión humana efectiva, capaz de detectar sesgos, comprender límites y frenar el sistema cuando sea necesario.

En paralelo, la experiencia práctica en redacciones de todo el mundo demuestra que la IA no sustituye al periodista, sino que amplifica su capacidad cuando se aplica con criterio. Los casos analizados coinciden en varios puntos clave: foco claro en el usuario, experimentación ágil, colaboración estrecha entre tecnología y redacción, y una comprensión de la IA como herramienta de apoyo. 

Allí en donde existe una estrategia definida y una gobernanza clara, la IA mejora la eficiencia, amplía formatos y refuerza la relación con la audiencia. El éxito depende de diseñar políticas de uso responsables, alineadas con los valores del medio, donde la supervisión humana sea real y no simbólica. En un contexto de transformación acelerada, quienes experimenten hoy con control, criterio y visión estratégica estarán mejor preparados para el futuro de las redacciones, donde el reto no será sólo técnico, organizativo o de negocio, sino fundamentalmente ético.

4. Los modelos abiertos como alternativa 

El auge de la llamada IA abierta ha puesto sobre la mesa un debate clave: muchas iniciativas que se presentan como “open” esconden en realidad prácticas de openwashing, donde la apertura es parcial y el control sigue concentrado en manos de las grandes tecnológicas. El acceso limitado al código o a los modelos no garantiza ni transparencia real ni una competencia efectiva, ya que los datos, la infraestructura y la capacidad de escalar continúan siendo barreras decisivas.

Por ello, la apertura técnica no basta. La regulación, la gobernanza y las políticas públicas son esenciales para evitar que la IA refuerce las desigualdades existentes, especialmente en un contexto de creciente concentración tecnológica y tensiones geopolíticas. Sin estos marcos, la promesa de democratización corre el riesgo de convertirse en una ilusión que consolide posiciones dominantes. La elección de modelos de IA, abiertos o propietarios, tendrá un impacto directo en los medios en múltiples frentes: desde su independencia tecnológica y su capacidad de innovación hasta su sostenibilidad futura.

En este escenario, Mistral AI destaca como una alternativa europea creíble, gracias a que combina código realmente abierto, soberanía tecnológica, eficiencia y adaptación al contexto multilingüe europeo. Su propuesta demuestra que la IA abierta solo genera valor cuando va acompañada de estrategia, independencia y una visión a largo plazo alineada con los intereses del ecosistema europeo.

5. Los derechos de autor aún en el alero jurídico

Los pleitos por el uso de obras protegidas para entrenar modelos de IA entre medios y plataformas sigue dirimiéndose en los tribunales. Casos como la demanda de The New York Times contra OpenAI y Microsoft, la acción conjunta de grandes medios canadienses, o la ofensiva de Ziff Davis (CNET, PCMag, IGN) evidencian una misma preocupación: el uso sistemático de contenidos periodísticos sin licencia ni compensación. 

En el ámbito creativo, la demanda de Disney y NBCUniversal contra Midjourney ha abierto un nuevo frente sobre el uso de personajes e imágenes protegidas, mientras que los litigios de autores contra Microsoft, Meta y Anthropic han puesto el foco en el entrenamiento con libros adquiridos legalmente frente al uso de copias piratas.

Aunque algunas resoluciones preliminares han favorecido a las tecnológicas bajo el principio de uso justo, los tribunales han dejado claro que este argumento tiene límites y que no ampara prácticas masivas ni opacas. El panorama legal sigue abierto e incierto. Mientras algunos fallos avalan el entrenamiento con contenidos adquiridos legalmente, otros procesos avanzan hacia posibles indemnizaciones millonarias y restricciones futuras. Todavía es pronto, por tanto, para dirimir y establecer un marco jurídico global que satisfaga a todas las partes. 

En adelante, el desarrollo de la IA dependerá cada vez más de licencias, acuerdos comerciales y marcos regulatorios claros, que permitan equilibrar innovación y derechos de autor. Lo que se está definiendo no es solo el futuro del entrenamiento de la IA, sino un nuevo modelo de relación entre las plataformas tecnológicas y los creadores de contenido, más justo y sostenible.

Infografía Estratégica Digital Journey Claves de la IA en los Medios en 2025

Para despedir el año, hemos pedido a la IA que nos haga una presentación y una infografía que compartimos por aquí. Volvemos ene enero. Felices Fiestas

Newsletter

Recibe nuestra newsletter semanal