Inteligencia Artificial

Reportero renuncia tras descubrirse que usaba IA para hacer sus notas

Los periodistas han descarrilado sus carreras inventando citas o hechos en historias mucho antes de que apareciera la IA. Pero este último escándalo ilustra las posibles trampas y peligros que la IA representa para muchas industrias, incluido el periodismo.
miércoles, 14 de agosto de 2024 · 14:16

ESTADOS UNIDOS (AP).-Citas del gobernador de Wyoming y de un fiscal local fueron los primeros indicios que parecieron un poco extraños para el experimentado reportero del Powell Tribune, CJ Baker. Luego, fueron algunas de las frases casi robóticas en ciertas notas de un diario.

Sin embargo, el claro indicio de que un reportero de un medio de comunicación competidor estaba utilizando inteligencia artificial generativa para ayudar a escribir sus notas se produjo en un artículo del 26 de junio sobre el comediante Larry the Cable Guy, que fue elegido como el gran mariscal de un desfile local. El cual concluía con una explicación de la pirámide invertida, el enfoque básico para escribir una nota de última hora.

“El Desfile de Cody 2024 promete ser una celebración inolvidable de la independencia de Estados Unidos, dirigida por una de las figuras más queridas de la comedia”, informó el diario Cody Enterprise. “Esta estructura garantiza que la información más crítica se presente primero, lo que facilita que los lectores comprendan rápidamente los puntos principales”.

Después de investigar un poco, Baker, que ha sido reportero durante más de 15 años, se reunió con Aaron Pelczar, un hombre de 40 años que era nuevo en el periodismo y que, según Baker, admitió que había utilizado la IA en sus historias antes de renunciar al Cody Enterprise.

La editorial y el editor del Cody Enterprise, que fue cofundada en 1899 por Buffalo Bill Cody, se han disculpado y han prometido tomar medidas para garantizar que nunca vuelva a suceder. En un artículo editorial publicado el lunes, el editor Chris Bacon, dijo que “no pudo descubrir” el uso de la IA y las citas falsas.

“No importa que las citas falsas fueran el aparente error de un reportero novato apresurado que confiaba en la IA. Era mi trabajo”, escribió Bacon. Se disculpó porque “a la IA se le permitió poner palabras que nunca se dijeron en las notas”.

Los periodistas han descarrilado sus carreras inventando citas o hechos en historias mucho antes de que apareciera la IA. Pero este último escándalo ilustra las posibles trampas y peligros que la IA representa para muchas industrias, incluido el periodismo, ya que los chatbots pueden escupir artículos espurios, aunque algo plausibles, con sólo unas pocas indicaciones.

La IA ha encontrado un papel en el periodismo, incluso en la automatización de ciertas tareas. Algunas redacciones, incluida la de The Associated Press, usan IA para apoyar a los reporteros, pero la mayoría del personal de AP no puede usar IA generativa para crear contenido publicable.

La AP ha utilizado la tecnología para auxiliar en artículos sobre informes de ganancias financieras desde 2014, y más recientemente para algunas historias deportivas. También está experimentando con una herramienta de inteligencia artificial para traducir algunas historias del inglés al español. Al final de cada una de estas historias hay una nota que explica el papel de la tecnología en su producción.

Ser sincero sobre cómo y cuándo se utiliza la IA ha demostrado ser importante. Sports Illustrated fue criticada el año pasado por publicar reseñas de productos en línea generadas por IA que se presentaban como escritas por reporteros que en realidad no existían. Después de que se conociera esta práctica, SI dijo que despediría a la compañía que produjo los artículos para su sitio web, pero el incidente dañó la reputación de la publicación que alguna vez fue poderosa.

En su artículo del Powell Tribune en el que revelaba el uso de la IA por parte de Pelczar en sus notas, Baker escribió que tuvo una reunión incómoda pero cordial con Pelczar y Bacon. Durante la reunión, Pelczar dijo: “Obviamente, nunca he tratado intencionalmente de citar mal a nadie” y prometió “corregirlos y emitir disculpas y decir que son declaraciones erróneas”, escribió Baker, señalando que Pelczar insistió en que sus errores no deberían reflejarse en sus editores del Cody Enterprise.

Después de la reunión, el Enterprise emprendió una revisión completa de todas las historias que Pelczar había escrito para el periódico en los dos meses que había trabajado allí. Descubrieron siete artículos que incluían citas generadas por IA de seis personas, dijo Bacon el martes. Todavía está revisando otras historias.

“Son citas muy creíbles”, dijo Bacon, señalando que las personas con las que habló durante su revisión de los artículos de Pelczar dijeron que las citas sonaban como algo que dirían, pero que en realidad nunca hablaron con Pelczar.

Baker informó que siete personas le dijeron que habían sido citadas en notas escritas por Pelczar, pero que no habían hablado con él.

Pelczar no respondió a un mensaje telefónico que AP dejó en un número que figura como suyo para discutir lo sucedido. Bacon dijo que Pelczar se negó a discutir el asunto con otro periódico de Wyoming que se había puesto en contacto con él.

Baker, quien lee regularmente el Cody Enterprise porque es un competidor, dijo a la AP que una combinación de frases y citas en las historias de Pelczar despertó sus sospechas.

La historia de Pelczar sobre un tiroteo en el Parque Nacional de Yellowstone incluía la frase: “Este incidente sirve como un duro recordatorio de la naturaleza impredecible del comportamiento humano, incluso en los entornos más serenos”.

Baker dijo que sonaba como los resúmenes de sus historias que cierto chatbot parece generar, en el sentido de que agrega una especie de “lección de vida” al final.

Otra historia, sobre una sentencia por caza furtiva, incluía citas de un funcionario de vida silvestre y un fiscal que parecían provenir de un comunicado de prensa, dijo Baker. Sin embargo, no hubo un comunicado de prensa y las agencias involucradas no sabían de dónde provenían las citas, dijo.

Dos de las historias cuestionadas incluían citas falsas del gobernador de Wyoming, Mark Gordon, de las que su personal sólo se enteró cuando Baker los llamó.

“En un caso, (Pelczar) escribió una historia sobre una nueva regla de OSHA (Administración de Seguridad y Salud Ocupacional por sus siglas en inglés) que incluía una cita del gobernador que era completamente inventada”, dijo Michael Pearlman, portavoz del gobernador, en un correo electrónico. “En un segundo caso, pareció inventar una parte de una cita, y luego la combinó con una parte de una cita que se incluyó en un comunicado de prensa que anunciaba al nuevo director de nuestro Departamento de Caza y Pesca de Wyoming”.

La copia más obvia generada por IA apareció en la historia sobre Larry the Cable Guy.

No es difícil crear historias de IA. Los usuarios podrían poner una declaración jurada penal en un programa de inteligencia artificial y pedirle que escriba un artículo sobre el caso que incluya citas de funcionarios locales, dijo Alex Mahadevan, director de un proyecto de alfabetización digital en el Instituto Poynter, el principal grupo de expertos en periodismo.

“Estos chatbots de IA generativa están programados para darte una respuesta, sin importar si esa respuesta es basura completa o no”, dijo Mahadevan.

Megan Barton, editora de Cody Enterprise, escribió un editorial en el que llamaba a la IA “la nueva y avanzada forma de plagio y, en el campo de los medios de comunicación y la escritura, el plagio es algo que todos los medios de comunicación han tenido que corregir en algún momento u otro. Es la parte fea del trabajo. Pero, una empresa dispuesta a corregir (o literalmente escribir) estos errores es una empresa de buena reputación”.

Barton escribió que el periódico ha aprendido la lección, tiene un sistema para reconocer las historias generadas por IA y “tendrá conversaciones más largas sobre cómo las historias generadas por IA no son aceptables”.

El Cody Enterprise no tenía una política de IA, en parte porque parecía obvio que los periodistas no deberían usarla para escribir, dijo Bacon. Poynter tiene una plantilla a partir de la cual los medios de comunicación pueden crear su propia política de IA.

Bacon planea tener una implementada para el final de la semana.

“Este será un tema de discusión previo al empleo”, dijo.

Comentarios