Por: Jose Escobar Romero – jescobarr3@ucentral.edu.co
La inteligencia artificial (IA), una fuerza que crece con cada nueva herramienta y que irrumpe ahora en las salas de redacción y en las agencias de publicidad impactando su capacidad para generar textos, imágenes, video, editar contenido o automatizar procesos de distribución, tal como lo ha puesto en evidencia la reciente polémica suscitada en el diario El Espectador, cuyo director acaba de reconocer la publicación reiterada de informaciones con datos incorrectos generados mediante el uso de IA en este medio masivo.
Pero en esa carrera por la eficiencia y la innovación brotan preguntas esenciales: ¿puede la IA desplazar la sensibilidad humana, el rigor editorial, la ética profesional? ¿Cómo garantizar que la automatización no erosione credibilidad, derechos de autor o calidad informativa?

En un contexto donde se estrena una película “100 % dirigida por IA” y medios experimentan con “redacciones automatizadas”, resulta urgente definir con claridad las formas responsables de incorporar IA en comunicación. Este reportaje explora las oportunidades, los riesgos y las rutas profesionales para hacerlo bien.
Recientemente, en España se pre-estrenó la película The Sweet Idleness, anunciada por sus productores como la primera cinta “100 % dirigida por una IA”, lo que ha generado polémica y reflexión sobre lo que significa creatividad cuando un algoritmo asume decisiones artísticas, polémica que se une a los reclamos de los sindicatos de actores y guionistas que detuvieron a Hollywood durante 148 días en 2023, avivando debates sobre ¿qué valor tiene la creación cuando desaparece la autoría humana?
Más cerca de nosotros, en Colombia, el diario La República publicó una edición impresa producida casi en su totalidad por IA: la tecnología reorganizó información, redactó, seleccionó imágenes y maquetó las páginas, tal como lo reportó el portal de noticias de la Universidad Central en julio de este año.
Estos ejemplos indican que la IA ya no es promesa, sino realidad en redacciones y en procesos creativos. Pero esa irrupción también trae tensiones: ¿dónde termina la automatización y dónde comienza la responsabilidad humana?
Cuando la IA asume tareas complejas como dirección de cine, redacción periodística o maquetación editorial, por citar algunos ejemplos, existe el riesgo de que se banalice la autoría, se diluya la responsabilidad del creador y se degrade la calidad artística o informativa, ya que la deshumanización del contenido puede desplazar la voz crítica, la ética y el contexto que solo un profesional formado puede aportar.
IA con ética y transparencia
El papel de la IA en medios de comunicación no puede pensarse sin referencia a las normas éticas, y en este sentido, la UNESCO ha impulsado espacios de debate y pautas para guiar su uso responsable, por lo que en 2025 publicó el cuaderno “Periodismo e inteligencia artificial en América Latina”, que aborda cómo usar la IA sin sacrificar calidad, pluralismo, derechos de autor y libertad de prensa.
Además, en Colombia, en 2025 el Gobierno, por medio del Ministerio de Ciencia, Tecnología e Innovación y otras entidades públicas, ha promovido la creación de marcos normativos que regulen la IA, con énfasis en derechos humanos, equidad, justicia epistémica y gobernanza responsable.
Las recomendaciones exigen que los contenidos generados o asistidos por IA sean transparentes con las audiencias, que se respete la propiedad intelectual, que se proteja la pluralidad de voces y que exista supervisión humana, especialmente cuando se trata de difusión de narrativas, contextos, verificaciones o decisiones creativas profundas.
La IA no reemplaza profesionales
Expertos académicos como Ramón Salaverría han advertido que la IA representa una disrupción profunda, pero no deben perderse de vista las tareas esenciales del periodismo, por lo que ha propuesto incluir en los planes de estudio para formación profesional de comunicadores, una asignatura como “Artificial Intelligence in Journalism” para formar profesionales capaces de integrar IA con criterios críticos.
En su perspectiva, esa integración debe reservarse para las tareas mecánicas o rutinarias tales como maquetación, transcripción o automatización de datos, mientras que las tareas creativas, de verificación, de contexto y de ética informativa deben mantenerse bajo responsabilidad humana.
Es así que la capacitación sistemática en uso responsable de IA, que contempla conocimientos técnicos, ética, derechos de autor, verificación y reflexión sobre sesgos, se vuelve imprescindible para quienes estudian comunicación, periodismo, o publicidad, de manera tal que la formación profesional permita distinguir entre un uso inteligente de la IA frente a una pérdida de calidad profesional.
Cuando se usa con criterio, la IA puede acelerar procesos rutinarios: transcripciones, edición de video, optimización de SEO, producción de resúmenes, clasificación de datos, detección de patrones, análisis de audiencias, automatización de distribución, etc.
Esto libera tiempo para que periodistas, creativos y publicistas se dediquen a trabajo de mayor valor: investigación, enfoque humano, verificación, creatividad estratégica. Esta dualidad de eficiencia-profundidad es una de las grandes promesas de la IA aplicada correctamente.
La clave está en usar IA para lo mecánico, pero no para lo creativo y mucho menos para lo crítico, manteniendo siempre la supervisión humana sobre las decisiones que afectan la construcción de narrativas, la contextualización de los casos, la sensibilidad propia de los involucrados en los hechos reportados, pero sobre todo, para la aplicación de la ética informativa.
Riesgos y fragilidades
El uso indiscriminado de Inteligencias Artificiales puede propiciar la aparición reiterada de deepfakes, falsos contenidos, plagios, violaciones de derechos de autor, pérdidas de voz humana, lo que en el corto plazo podría generar impactos en la precarización laboral y en la credibilidad de los medios.
En un contexto donde la línea entre lo generado por IA y lo humano se vuelve borrosa, la responsabilidad periodística depende más que nunca del criterio, la transparencia, la verificación y el tratamiento adecuado de los datos, pero también se soporta en la capacidad humana y en ejercicio de los roles en las organizaciones que tienen como responsabilidad velar por la veracidad de la información.
Para integrar IA responsablemente, las organizaciones profesionales, los medios, las agencias y las universidades pueden tener en cuenta las siguientes recomendaciones:
- Definir políticas editoriales internas: qué tareas autoriza la IA, cuál es responsabilidad humana.
- Garantizar transparencia frente a la audiencia: indicar cuando un contenido está generado o asistido por IA.
- Respetar derechos de autor, propiedad intelectual y consentimiento cuando se utilizan datos, imágenes, textos previos.
- Priorizar la formación ética y técnica del equipo: alfabetización digital, sentido de responsabilidad, cultura de verificación.
- Promover comités de ética de IA en organizaciones: grupos interdisciplinarios que evalúen impacto social, sesgos y riesgos.
- Estas recomendaciones no solo son exigencias morales, también estratégicas: la transparencia y el compromiso ético pueden convertirse en ventaja competitiva y construir un vínculo más sólido con audiencias críticas.
Una organización que comunica claramente su uso de IA, respeta derechos y mantiene calidad informativa, no solo evita crisis reputacionales, sino que construye confianza a largo plazo.
El papel de la formación profesional en tiempos de IA
Las universidades y centros de formación tienen un rol central: no basta enseñar herramientas, deben educar en valores, y este es un debate impulsado por diversos teóricos contemporáneos, quienes reclaman la incorporación de la IA en los planes de estudio con énfasis en ética, verificación, derechos, impacto social, a lo que se suman investigaciones recientes que proponen la creación de comités de ética de IA en organizaciones para supervisar su uso responsable.
Para quienes se forman como comunicadores, publicistas o periodistas, esto implica no sólo dominar técnicas de edición o redacción asistida por IA, sino convertirse en guardianes de la verdad, la ética y la memoria colectiva, lo que implica saber cuándo y cómo usar la IA, cómo detectar sus límites y cómo garantizar que la tecnología sirva al interés público y no sólo al beneficio comercial o al clic fácil.
No basta aprender a usar herramientas; es indispensable comprender sesgos, derechos de autor, impactos en audiencias, manejo seguro de datos y riesgos reputacionales, por lo que diversas instituciones, como la Universidad Central ya han publicado reflexiones sobre estos desafíos en los procesos formativos.
En coherencia con las políticas de transparencia recomendadas por la UNESCO, las universidades y los marcos éticos internacionales sobre uso de inteligencia artificial en contenidos periodísticos, este reportaje fue elaborado con apoyo de un modelo de IA generativa.
Su papel no consistió en reemplazar la mirada humana, sino en aumentar la capacidad de análisis, sistematización y síntesis, bajo supervisión editorial completa. La IA permitió organizar grandes volúmenes de información, localizar referencias verificables disponibles públicamente y estructurar el texto siguiendo criterios académicos, periodísticos y de SEO solicitados.
Sin embargo, todo criterio narrativo, enfoque ético, tono, interpretación de fuentes, jerarquización de apartados, conexiones temáticas, selección de citas y decisiones de énfasis fueron definidas bajo control humano total, respetando el principio de “supervisión editorial permanente” por lo que cada enlace citado corresponde a contenido existente y verificable.
La IA no es un fin en sí mismo, sino que es una extensión de la creatividad, de la inteligencia emocional, de la sensibilidad social y del criterio profesional, pues cuando se usa con ética, permite a los profesionales ampliar sus capacidades sin desdibujar lo humano en su ejercicio comunicacional.
El rol de la IA es similar al de un asistente documental, un sistema de apoyo para la estructuración y la redacción preliminar, pero el sentido, la ética, el enfoque y la voz final deben responden siempre a un ejercicio profesional de edición humana. Esta clarificación es fundamental para que las audiencias comprendan que la IA puede ser herramienta, pero no reemplazo de la responsabilidad profesional ni del rigor comunicacional que se espera de los profesionales de la comunicación, el periodismo y la publicidad, entre otros.