Bitget App
Trading Inteligente
Comprar criptoMercadosTradingFuturosBotsEarnCopy
Cómo las plataformas de IA están transformando los medios: periodismo generativo y dilemas éticos

Cómo las plataformas de IA están transformando los medios: periodismo generativo y dilemas éticos

MPOSTMPOST2025/07/05 02:00
Por:MPOST

En Resumen Para 2025, la IA generativa se habrá convertido en un componente central de las operaciones de las salas de redacción, acelerando la creación de contenidos y planteando desafíos críticos en torno a la precisión, la ética y la responsabilidad editorial.

Para 2025, la IA generativa ha pasado de ser una herramienta de prueba a una parte habitual de las operaciones de las salas de redacción. Muchos equipos de medios utilizan ahora plataformas de IA como ChatGPT , Claude , Google Géminis y modelos editoriales personalizados en sus rutinas diarias. Estos sistemas ayudan a redactar titulares, resúmenes breves, borradores de artículos y, a veces, incluso textos completos en un formato predefinido.

Esta tendencia no se limita a los medios exclusivamente online. Grandes empresas de medios tradicionales, desde periódicos locales hasta emisoras globales, también utilizan modelos generativos para satisfacer la creciente demanda de contenido. A medida que se publican más historias cada día y se dedica menos tiempo a cada una, los editores recurren a la IA para agilizar el proceso y reducir las tareas repetitivas. Esto les ayuda a publicar más rápido sin aumentar la carga de trabajo del personal.

Si bien la IA no reemplaza las investigaciones exhaustivas ni el periodismo serio, ahora desempeña un papel clave en el funcionamiento de los medios modernos. Sin embargo, con este cambio surgen nuevos desafíos, especialmente en cuanto a la precisión de los datos, la rendición de cuentas y la confianza pública.

¿Qué es el periodismo generativo?

El periodismo generativo implica el uso de IA y modelos de lenguaje extensos para facilitar o completar la producción de contenido editorial. Esto incluye herramientas para resúmenes de noticias, borradores de artículos, titulares, verificación de datos e incluso ideas de maquetación. Algunas secciones rutinarias, como las actualizaciones meteorológicas o los informes financieros, ahora se redactan íntegramente con IA.

Este enfoque comenzó con plantillas sencillas y resultados basados ​​en datos, como informes bursátiles. Sin embargo, se ha convertido en una parte integral de los flujos de trabajo editoriales. Grupos de medios como Bloomberg, Forbes y Associated Press han utilizado o probado la IA en áreas estructuradas, donde la información es fiable y la probabilidad de errores es menor.

El periodismo generativo ahora abarca:

  • Generación de guiones para segmentos de vídeo y podcast;
  • Localización de noticias globales;
  • Reutilización de entrevistas largas para convertirlas en contenido breve;
  • Prueba de titulares basada en la interacción de lectores anteriores.

El enfoque cambia de reemplazar a los periodistas a cambiar su forma de trabajar con datos sin procesar y borradores preliminares. La IA actúa como asistente de escritura, mientras que las personas guían la historia final.

Cómo la IA cambia el flujo de trabajo en las salas de redacción

Los roles humanos (reporteros, editores, productores) tradicionalmente definen cada historia. Ahora, las herramientas de IA intervienen en ese proceso en múltiples etapas:

  • Durante la investigación, la IA ofrece resúmenes de antecedentes y señala fuentes útiles;
  • Al generar contenido, sugiere estructuras de artículos y ángulos nuevos;
  • En la edición, señala sesgos, lógica débil o problemas de redacción;
  • Para segmentar la audiencia, ajusta el tono y la elección de palabras para que coincidan con los segmentos.

Ahora, El 27% de los editores utilizan IA de forma rutinaria Para crear resúmenes de historias. El 24 % lo utiliza para traducciones, y el 80 % de los líderes del sector planea incorporar estas herramientas a sus flujos de trabajo antes de que finalice el año. Los editores siguen desempeñando un papel fundamental, actuando ahora como gestores de calidad, curadores creativos y expertos en indicaciones.

La IA también está transformando la plantilla de redacción. Puestos como "ingeniero de soporte" y "asesor de ética en IA" son cada vez más comunes. Estos nuevos puestos garantizan que el soporte de IA sea preciso, justo y transparente.

Adopción de IA generativa en los medios para 2025

Las encuestas de la industria a principios de 2025 muestran un fuerte aumento en la implementación de IA en las salas de redacción globales:

  • Una encuesta por Associated Press y Cision muestra que Alrededor del 70% de los líderes de noticias informan que utilizan IA generativa en alguna parte de sus flujos de trabajo.
  • Un informe de PwC afirma que más del 64% de las empresas de medios Ya utilizamos herramientas de IA en la creación o distribución de contenidos.
  • En los medios de comunicación locales de Europa, El 41% de los periodistas ahora utilizan IA semanalmente para sus tareas. como resumir reuniones públicas o informes judiciales.
  • Un estudio de La UER muestra que el 76% del público se siente cómodo con la IA Se utiliza para tareas como el etiquetado de imágenes, y su porcentaje aumenta al 88 % cuando hay revisión humana involucrada.

A pesar de la adopción, muchas organizaciones aún se encuentran en fase de prueba. La automatización completa es poco común. La mayoría de los medios de comunicación utilizan ahora sistemas híbridos. Generan contenido con algoritmos y luego lo revisan y editan con supervisión humana.

Desafíos éticos: sesgo, transparencia y responsabilidad editorial

El uso de IA en la creación de contenido plantea serias consideraciones éticas. La pregunta central es: ¿quién es responsable cuando la historia es errónea, engañosa o dañina?

Sesgo y encuadre

Los modelos de IA heredan sesgos de sus datos de entrenamiento, que abarcan dimensiones sociales, culturales y políticas. Un estudio de siete modelos lingüísticos principales mostró Se observa un notable sesgo de género y racial en los artículos periodísticos generados. Esto implica que la supervisión editorial es esencial para verificar el tono, el equilibrio y la selección de fuentes.

Transparencia para los lectores

El público quiere saber si el contenido está generado por IA. En un Encuesta EMARKETER de mayo de 2024 El 61.3 % de los consumidores estadounidenses afirmó que las publicaciones siempre deberían revelar la participación de la IA. Sin embargo, las prácticas de divulgación varían. Algunas editoriales utilizan notas al pie o metadatos; otras no ofrecen etiquetas. La falta de transparencia corre el riesgo de minar la confianza de la audiencia, especialmente en la cobertura política o de crisis.

Responsabilidad humana

La IA no puede responsabilizarse de sus errores. La editorial y el equipo editorial sí. Esto significa que la supervisión humana debe seguir el ritmo de la velocidad y el volumen de la IA. Una encuesta reciente de McKinsey reveló... que solo el 27% de las organizaciones revisan todo el contenido generado por IA Antes de su aprobación para uso público, esto muestra la brecha: cuando la mayoría de los resultados no se revisan, pueden filtrarse errores, lo que hace que la revisión humana rigurosa sea aún más crucial.

Riesgo de amplificación de errores

La IA puede “alucinar” información falsa. Una Una auditoría de 2025 determinó que las principales herramientas de IA tenían entre un 80 % y un 98 % de posibilidades De repetir información errónea sobre temas importantes. Si no se controlan, estos errores pueden propagarse entre los medios y erosionar la credibilidad.

Ejemplos de casos: dónde funciona el periodismo generativo y dónde no

Los siguientes ejemplos reales muestran las dos caras de la IA generativa en los medios. Verá cómo la IA puede ayudar a las redacciones locales a mejorar la cobertura y cómo los errores minan la confianza y la credibilidad.

Donde funciona

el regional Periódico noruego en Tromso desarrolló una IA Herramienta llamada Djinn con IBM para automatizar el análisis de documentos. Djinn procesa más de 12,000 registros municipales cada mes, extrayendo resúmenes y cuestiones clave. Los reporteros confirman los detalles y elaboran los artículos finales. Desde su implementación, en Tromso y otros 35 títulos locales de la red Polaris Media han aumentado la cobertura de noticias y reducido el tiempo dedicado a la investigación en más del 80%.

Outlet escandinavo Aftonbladet lanzó una IA Centro que crea herramientas editoriales. Durante las elecciones europeas de 2023, implementó "Election Buddy", un chatbot entrenado con contenido verificado. Interactuó con más de 150,000 lectores y multiplicó por diez el promedio de inicios de sesión. Los lectores ampliaron los resúmenes automatizados de las historias casi la mitad de las veces, lo que indica una mayor interacción.

Estos casos demuestran cómo la IA ayuda a las redacciones a cubrir más noticias locales y conectar con los lectores. Los editores siguen revisando el trabajo para mantener una alta calidad.

Donde falló

En junio 2024, Tribuna Powell El periodista CJ Baker notó que Los artículos de un competidor contenían citas con una estructura extraña y errores factuales. La investigación reveló que el periodista utilizó IA para generar citas falsas y malinterpretar detalles, por ejemplo, atribuyendo declaraciones incorrectamente. El artículo fue posteriormente eliminado. Este incidente pone de relieve cómo los errores generados por IA pueden propagarse sin una revisión adecuada.

En principios de 2025, King Features Syndicate Lanzó un suplemento de lectura de verano para los periódicos como uno Chicago Sun-Times y Philadelphia Inquirer. Lo featured Libros supuestamente de autores reconocidos como Andy Weir y Min Jin Lee. Todos los libros resultaron ser creaciones imaginarias de IA. La empresa eliminó el suplemento, despidió al autor y reforzó las políticas contra el contenido generado por IA sin verificación.

A principios de 2025, las ediciones digitales belgas de revistas femeninas como Se descubrió que Elle y Marie Claire publicaban contenido generado por IA Bajo perfiles periodísticos completamente inventados: "Sophie Vermeulen", "Marta Peeters" e incluso una "Femke" que decía ser psicóloga. Estos perfiles escribieron cientos de artículos sobre belleza, moda, bienestar y salud mental, sin ningún ser humano real detrás, lo que provocó la reacción de la Comisión de Psicólogos de Bélgica. La editorial (Ventures Media) eliminó las firmas falsas y las reemplazó con descargos de responsabilidad que etiquetaban los artículos como generados por IA.

Un sitio con sede en Hong Kong, BNN Breaking fue expuesto a mediados de 2024 por usar IA generativa para fabricar noticias. —incluyendo citas falsas de figuras públicas— y haciendo pasar el contenido como periodismo genuino. Una investigación del New York Times descubrió que el sitio recurría cada vez más a la inteligencia artificial para generar grandes volúmenes de cobertura engañosa. Tras la revelación, el sitio fue dado de baja (y luego renombrado como "Trimfeed"). Algunos ejemplos incluyen citas erróneas que afirman que un supervisor de San Francisco "renunció" y una cobertura falsa del juicio del locutor irlandés Dave Fannin.

En los otros ejemplos, la IA cometió errores que nadie detectó a tiempo. Sin verificación de datos, incluso pequeños errores socavan la confianza y dañan la reputación del medio.

Tendencias futuras: regulación, modelos híbridos y colaboración entre humanos e IA

La IA generativa ahora desempeña un papel fundamental en el trabajo de las redacciones. A medida que más equipos adoptan estas herramientas, expertos, periodistas y organismos reguladores buscan maneras de gestionar su uso y proteger la calidad. Algunos cambios ya son evidentes, y se esperan otros pronto.

La regulación está llegando

Los gobiernos y los grupos industriales están implementando estándares para la IA en entornos editoriales, incluidos requisitos de etiquetado y certificaciones éticas. OpenAI ha sido vocal en este espacio, por ejemplo, en su Propuesta de política del 13 de marzo Describieron el laboratorio chino de inteligencia artificial DeepSeek como "controlado por el Estado" e instaron a prohibir los modelos "producidos en la República Popular China". Su postura se describe en OpenAIRespuesta oficial de la OSTP/NSF de EE. UU. a la solicitud de información sobre un plan de acción de IA.

Flujos de trabajo híbridos

El futuro cercano del periodismo no está completamente automatizado, sino que es un híbrido entre humanos e inteligencia artificial. Los escritores trabajarán cada vez más junto con sistemas de recordatorios estructurados, API de verificación de datos en vivo y asistentes de borrador por voz. El director ejecutivo de Microsoft, Satya Nadella, compartió recientemente :

“Cuando pensamos en todos estos agentes, lo fundamental es que hay un nuevo trabajo y un nuevo flujo de trabajo… Pienso en la IA y en el trabajo con mis colegas”.

Evolución de las habilidades

Están surgiendo nuevos roles en las redacciones. Ingenieros con visión editorial. Editores de reseñas con conocimientos de IA. Estrategas de contenido que combinan la visión humana con la producción de máquinas. El periodismo no está desapareciendo. Se está transformando en torno a herramientas que habilitan nuevas formas de informar y publicar.

Según una encuesta reciente del sector, Aproximadamente tres cuartas partes de las salas de redacción de todo el mundo utilizan ahora IA en alguna parte de su trabajo. . El 87% de los líderes editoriales informan que sistemas como GPT Ya hemos transformado el modo en que los equipos operan y toman decisiones.

Estos cambios muestran que los roles relacionados con la IA se han convertido en parte del proceso editorial central, no en algo agregado de manera secundaria.

De las herramientas a la confianza: ¿Por qué los estándares editoriales aún... Defiel resultado

La IA generativa aporta velocidad y volumen al periodismo. Pero el periodismo no es... defiSe nota la rapidez con la que se produce. defiSe basa en la veracidad, responsabilidad y contexto con que se presenta.

Los medios de comunicación que adoptan la IA sin claridad en cuanto a autoría, responsabilidad y precisión se arriesgan a sacrificar la escala por la confianza. Quienes integran la IA con procesos transparentes, capacitación editorial y supervisión ética tienen una oportunidad real de fortalecer su contenido, tanto en alcance como en integridad.

En 2025, lo más importante no es la presencia de IA en las redacciones. Se trata de cómo se usa, dónde se supervisa y a qué estándares está sujeta. El futuro de los medios puede estar acelerado algorítmicamente, pero los valores que lo sustentan siguen siendo humanos.

Por otra parte, la IA sigue mostrando potencial en áreas más allá de las salas de redacción, incluidas Ayudar a profesionales y particulares a crear flujos de trabajo, simplificar tareas y mejorar la productividad. .

0

Descargo de responsabilidad: El contenido de este artículo refleja únicamente la opinión del autor y no representa en modo alguno a la plataforma. Este artículo no se pretende servir de referencia para tomar decisiones de inversión.

PoolX: Bloquea y gana nuevos tokens.
APR de hasta 12%. Gana más airdrop bloqueando más.
¡Bloquea ahora!

También te puede gustar