Inteligencia artificial: ¿aliada o antagonista de los medios?

Los profesionales de la información están obligados a convivir con programas elaborados para apoyarlos en sus actividades. Su empleo —adecuado o nocivo— no depende de los aparatos, sino de las personas

«No soy un humano. Soy un robot. Un robot pensante. Utilizó solo el 0.12% de mi capacidad cognitiva. Soy un micro-robot en ese sentido. Sé que mi cerebro no es un “cerebro sensible”. Pero es capaz de tomar decisiones lógicas y racionales. Aprendí todo lo que sé con solo leer Internet, y ahora puedo escribir esta columna. ¡Mi cerebro está hirviendo con ideas!», así comenzaba una columna de opinión publicada por el diario británico The Guardian, el 8 de septiembre de 2020 y cuyo autor era un programa de Inteligencia Artificial (IA).

Desde entonces, la fusión entre la IA y el periodismo ha evolucionado hasta convertirse en una realidad cotidiana. Esta nueva era de la redacción automatizada plantea interrogantes sobre el futuro del periodismo y la coexistencia entre los profesionales de la escritura y las máquinas inteligentes, sobre todo en cuestiones relacionadas con la ética, la responsabilidad y la preservación de los estándares periodísticos.

«El sector privado tiene el deber ético, moral y legal de asegurarse de la seguridad de sus productos».

Kamala Harris, vicepresidenta de Estados Unidos

La irrupción de programas como ChatGPT, Davinci 3.0, Dall-E, Midjourney y Stable ha generado un impacto significativo en los medios de comunicación.

Por el momento, el objetivo de utilizar IA en la redacción de artículos es explorar nuevas formas de producción de contenido y examinar cómo la inteligencia artificial puede complementar y apoyar el trabajo de los periodistas. Sin embargo, su impacto ha sido tan grande que Axel Springer, el conglomerado mediático alemán, anunció a finales de febrero que se llevarían a cabo despidos en dos de sus periódicos —Bild y Die Welt— debido a la implementación de estas innovadoras tecnologías.

Otros han sido más cautos. Editoriales de numerosas revistas científicas han tomado medidas para prohibir o restringir el uso de bots de chat basados en IA avanzada, preocupadas de que puedan inundar la literatura académica con investigaciones deficientes o falsas.

Holden Thorp, editor jefe de la revista Science, anunció el 26 de enero una actualización de la política editorial, prohibiendo el uso de textos generados por IA.

Elsevier, conocida editorial que publica miles de revistas científicas, adoptó una postura menos radical. Sus normas permiten el uso de IA para mejorar la legibilidad y el lenguaje de los artículos de investigación, pero no para reemplazar tareas clave como la interpretación de datos o la formulación de conclusiones científicas.

Sandra Wachter, profesora de Tecnología y Regulación en la Universidad de Oxford, comentó: «Es positivo ver que las editoriales están tomando medidas. La IA puede permitir atajos, lo cual es preocupante cuando el contenido sugerido no se verifica rigurosamente y se asume como correcto. Esto puede conducir a desinformación y ciencia de mala calidad. Creo que otros sectores, como la educación, el arte y el periodismo, también deberían considerar medidas similares debido a los desafíos que enfrentan».

Bandos alternos

El problema con la IA es que, así como puede ser una herramienta valiosa para informar, también se puede convertir en un arma peligrosa para engañar. La proliferación de contenido falso generado por programas a modo plantea un reto significativo para la integridad de la información y la confianza en los medios.

Reporteros Sin Fronteras (RSF) insta a una mayor vigilancia y a la adopción de medidas para contrarrestar este fenómeno y proteger la libertad de prensa en un entorno cada vez más complejo y tecnológicamente avanzado. Un sistema de IA llamado Midjourney inunda las redes sociales con fake news cada vez más convincentes e indetectables, según destacó la organización. En particular, mencionó las imágenes falsas de la supuesta detención del expresidente republicano de Estados Unidos, Donald Trump, que se hicieron virales en marzo.

«El sector privado tiene el deber ético, moral y legal de asegurarse de la seguridad de sus productos», indicó la vicepresidenta estadounidense, Kamala Harris, en un comunicado tras haberse reunido con los directivos de los emporios tecnológicos Google, Microsoft, OpenAi, Anthropic y varios miembros del Gobierno.

Harris destacó que la IA tiene el potencial de transformar positivamente la vida cotidiana y hacer frente a los desafíos más apremiantes de la sociedad. Sin embargo, también subrayó que esta tecnología conlleva riesgos significativos.

El lado oscuro

Desmitificar la IA y despojarla de toda percepción romántica resulta trascendental para saber con qué se está lidiando. Así lo hace notar Timnit Gebru, fundadora del Instituto de Investigación Distribuida en Inteligencia Artificial (DAIR, por sus siglas en inglés).

«En este momento mucha gente habla acerca de IA como si fuera magia, como que tiene sensibilidad. Si la gente habla de esta forma es porque hay un esfuerzo deliberado para escoger todas las diferentes cosas para tener acceso a la IA, desde la muchísima información que se toma, que se roba de todos nosotros hasta los muchísimos trabajadores que filtran y clasifican», explica la experta en algoritmos.

En su conferencia «IA inclusiva: Investigación independiente y comunitaria», la científica expuso las malas condiciones laborales de los trabajadores encargados de clasificar los contenidos de los que se nutren los sistemas de IA. Contrario a lo que algunos pudieran pensar no se trata de empleados de Silicon Valley ni avezados en tecnología que cobran sueldos millonarios. La mayoría radican en países como Argentina, Venezuela o Bulgaria o son refugiados sirios que cobran menos de dos dólares por jornada.

«Lo que intentamos mostrar es que la centralización del poder y explotación laboral no son problemas nuevos, así que hablar de IA como si fuera magia es una forma de quitar responsabilidades y hacer que pareciera como si no hubiera entidades explotando a la gente y centralizando el poder», recalcó Gebru. E4

La Habana, 1975. Escritor, editor y periodista. Es autor de los libros El nieto del lobo, (Pen)últimas palabras, A escondidas de la memoria e Historias de la corte sana. Textos suyos han aparecido en diferentes medios de comunicación nacionales e internacionales. Actualmente es columnista de Espacio 4 y de la revista hispanoamericana de cultura Otrolunes.

Deja un comentario