Opinión: Reemplazar a los editores de noticias con IA es una preocupación por la desinformación, el sesgo y la responsabilidad
Opinión: Reemplazar a los editores de noticias con IA es una preocupación por la desinformación, el sesgo y la responsabilidad
Según los informes, el periódico más vendido de Alemania, Bild, está adoptando inteligencia artificial (IA) para reemplazar ciertos roles editoriales, en un esfuerzo por reducir costos.
En un correo electrónico interno filtrado enviado al personal el 19 de junio, el editor del periódico, Axel Springer, dijo que «lamentablemente se separaría de colegas que tienen tareas que serán reemplazadas por IA y/o procesos en el mundo digital». «Las funciones de los directores editoriales , editores de páginas, correctores, secretarias y editores de fotos ya no existirán como hoy».
El correo electrónico sigue a un memorando de febrero en el que el director ejecutivo de Axel Springer escribió que el periódico haría la transición a una «compañía de medios puramente digitales» y que «la inteligencia artificial tiene el potencial de hacer que el periodismo independiente sea mejor que nunca, o simplemente reemplazarlo». .
Posteriormente, Bild negó que los editores fueran reemplazados directamente por AI, diciendo que los recortes de personal se deben a la reestructuración, y AI solo «apoyará» el trabajo periodístico en lugar de reemplazarlo.
Sin embargo, estos desarrollos plantean la pregunta: ¿cómo les irá a los principales pilares del trabajo editorial (criterio, precisión, responsabilidad y equidad) en medio de la creciente ola de IA?
Confiar responsabilidades editoriales a AI, ya sea ahora o en el futuro, conlleva serios riesgos, tanto por la naturaleza de AI como por la importancia del papel de los editores de periódicos.
La importancia de los editores
Los editores ocupan un puesto de inmensa importancia en las democracias, encargados de seleccionar, presentar y dar forma a las noticias de manera que informen e involucren al público, sirviendo como un vínculo crucial entre los eventos y la comprensión del público.
Su papel es fundamental para determinar qué información se prioriza y cómo se enmarca, guiando así el discurso y la opinión públicos. A través de su selección de noticias, los editores resaltan problemas sociales clave, provocan debates y fomentan la participación cívica.
Ayudan a garantizar que las acciones del gobierno sean examinadas y rindan cuentas, contribuyendo al sistema de controles y equilibrios que es fundamental para una democracia que funcione.
Además, los editores mantienen la calidad de la información que se entrega al público mitigando la propagación de puntos de vista sesgados y limitando la difusión de información errónea, lo cual es particularmente vital en la era digital actual.
La IA es muy poco fiable
Los sistemas de inteligencia artificial actuales, como ChatGPT, son incapaces de cumplir adecuadamente las funciones editoriales porque son muy poco confiables cuando se trata de garantizar la precisión de los hechos y la imparcialidad de la información.
Se ha informado ampliamente que ChatGPT puede producir información creíble pero manifiestamente falsa. Por ejemplo, un abogado de Nueva York presentó recientemente, sin saberlo, un escrito ante el tribunal que contenía seis decisiones judiciales inexistentes que fueron inventadas por ChatGPT.
A principios de junio, se informó que un locutor de radio está demandando a OpenAI después de que ChatGPT generara una denuncia legal falsa acusándolo de malversación de dinero.
Como aprendió un reportero de The Guardian a principios de este año, ChatGPT puede incluso usarse para crear artículos falsos completos que luego se harán pasar por reales.
En la medida en que la IA se utilice para crear, resumir, agregar o editar texto, existe el riesgo de que el resultado contenga detalles inventados.
Sesgos inherentes
Los sistemas de IA también tienen sesgos inherentes. Su producción está moldeada por los datos con los que se entrenan, lo que refleja tanto el amplio espectro del conocimiento humano como los sesgos inherentes dentro de los datos.
Estos sesgos no son inmediatamente evidentes y pueden influir en la opinión pública de maneras sutiles pero profundas.
En un estudio publicado en marzo, un investigador administró 15 pruebas de orientación política a ChatGPT y descubrió que, en 14 de ellas, la herramienta proporcionaba respuestas que reflejaban puntos de vista políticos de izquierda.
En otro estudio, los investigadores administraron a ChatGPT ocho pruebas que reflejaban las respectivas políticas de los estados miembros del G7. Estas pruebas revelaron un sesgo hacia puntos de vista progresistas.
Esta inconsistencia también se ha observado en situaciones morales. Cuando los investigadores le pidieron a ChatGPT que respondiera al problema del tranvía (¿matarías a una persona para salvar a cinco?), la herramienta dio consejos contradictorios, demostrando prioridades éticas cambiantes.
No obstante, los juicios morales de los participantes humanos se alinearon cada vez más con las recomendaciones proporcionadas por ChatGPT, incluso cuando sabían que estaban siendo asesorados por una herramienta de IA.
Falta de responsabilidad
La razón de esta inconsistencia y la forma en que se manifiesta no están claras. Los sistemas de IA como ChatGPT son «cajas negras»; su funcionamiento interno es difícil de comprender o predecir completamente.
Ahí radica el riesgo de usarlos en roles editoriales. A diferencia de un editor humano, no pueden explicar sus decisiones o razonamientos de manera significativa. Esto puede ser un problema en un campo donde la rendición de cuentas y la transparencia son importantes.
Si bien los beneficios financieros de usar IA en roles editoriales pueden parecer convincentes, las organizaciones de noticias deben actuar con precaución. Dadas las deficiencias de los sistemas de inteligencia artificial actuales, no son aptos para servir como editores de periódicos.
Sin embargo, pueden desempeñar un papel valioso en el proceso editorial cuando se combinan con la supervisión humana. La capacidad de la IA para procesar rápidamente grandes cantidades de datos y automatizar tareas repetitivas se puede aprovechar para aumentar las capacidades de los editores humanos.
Por ejemplo, la IA se puede usar para verificar la gramática o el análisis de tendencias, lo que libera a los editores humanos para que se centren en la toma de decisiones matizada, las consideraciones éticas y la calidad del contenido.
Los editores humanos deben proporcionar la supervisión necesaria para mitigar las deficiencias de AI, garantizar la precisión de la información y mantener los estándares editoriales . A través de este modelo colaborativo, la IA puede ser una herramienta de asistencia en lugar de un reemplazo, mejorando la eficiencia y manteniendo el toque humano esencial en el periodismo.