Un verano de santos griales y noticias de ciencia hechas con chatGPT

Un verano de santos griales y noticias de ciencia hechas con chatGPT

Los artículos escritos por una IA a veces contienen errores de bulto, pero el problema es que otras veces esos errores son de concepto y, además de desinformar, rompen la confianza en el medio que las publica

Así acabó la bacteria que nos hizo soñar con una vida de arsénico y que quizá no debería haberse hecho famosa

Llevamos un verano increíble de terapias revolucionarias, hallazgos prometedores, eslabones perdidos, santos griales y cambios de paradigma cada semana. Vamos a calmarnos un poco, que sabemos que si un estudio es en ratones le falta mucho para llegar a la farmacia, o quizá nunca llegue.

Estos días, personas cercanas me han preguntado por noticias como la relación litio-alzhéimer o la del Ozempic y la pérdida de fuerza muscular, ambos hallazgos importantes, pero en ratones. Querían saber si deberían tomar litio o si esa amiga que está medicada con semaglutida corría riesgos, porque habían leído por encima noticias en las que no se especificaba desde el inicio que los hallazgos, por ahora, son preliminares y no sabremos si aplican a humanos hasta que se hagan ensayos en personas.

Después de pasarme las últimas semanas rastreando la cobertura de los temas científicos más sonoros de este verano, he acabado empachada de leer toneladas de piezas que no han escrito periodistas, sino sistemas de IA que hacen refritos de otras noticias con buen SEO. Es decir, que contienen lo que a Google le gusta para mostrarlas en las búsquedas.

Se detectan por el estilo acartonado, sin gracia y con exceso de adjetivos; porque utilizan muletillas manidas; porque hacen resúmenes muy evidentes de noticias publicadas originalmente en otros medios; y también por el uso de esos términos rimbombantes —revolucionario, crucial, esencial— que señalaba al principio. Hay quienes dicen que se detectan por el uso de la raya larga, pero yo pienso seguir usando la raya larga —porque me gusta—.

Salvo en contadísimas excepciones, la ciencia no avanza a golpe de santos griales ni eslabones perdidos. De hecho, son expresiones más típicas de las relaciones públicas que del periodismo

Salvo en contadísimas excepciones, la ciencia no avanza a golpe de santos griales ni eslabones perdidos. De hecho, son expresiones más típicas de las relaciones públicas que del periodismo. Siempre ha habido un problema con el copy-paste de las notas de prensa sobre ciencia. En un mercado de la información en el que es difícil competir por la atención del consumidor, los gabinetes de comunicación buscan la manera de convencer a los periodistas para que inviertan unas horas en su noticia. El trabajo de estos gabinetes ya no solo consiste en mostrar que su nuevo estudio es importante, sino, además, que contiene elementos que permitirán a los medios conseguir un buen puñado de clics. Y eso está bien. Hace mucho tiempo que no tiene sentido criticar el clickbait o el SEO como si fuese indigno. Llevarnos clics es lo que queremos todos los periodistas porque nuestro trabajo consiste en conseguir que nos lean. ¿Para qué escribimos, si no?

Con o sin clickbait, en periodismo de ciencia hay profesionales —la mayoría— que saben cómo contar en sus medios una novedad de manera equilibrada, responsable y honesta. También saben titular para conseguir muchos clics y llamar la atención del público sin echar campanas innecesarias al vuelo. Incluso hay muchas de estas buenas periodistas que se escriben de tres a cinco piezas diarias; lo juro, yo las conozco. Sin embargo, también hay medios que relegan la cobertura de ciencia a ese batiburrillo de temas de relleno para los que no merece la pena contar con profesionales especializados, y tiran de IA.

Los artículos en prensa escritos por una IA a veces contienen errores de bulto, nada demasiado grave; no seré yo la que se eche las manos a la cabeza por un nucleótido equivocado en el quinto párrafo (¿quién llega al quinto párrafo?); el problema es que otras veces esos errores son de concepto y, además de desinformar, rompen la confianza en el medio que las publica. Y no estamos para jugar con esa confianza: según la última encuesta de percepción social de la ciencia de FECYT, solo el 14,5% de la población española considera que la prensa es la fuente informativa más adecuada para explicar el impacto de los avances en ciencia y tecnología, muy por detrás de las universidades y centros públicos de investigación (81,1%) y de los divulgadores (64,5%).

Las herramientas de IA ya no son una excentricidad, están aquí y vamos a utilizarlas para facilitarnos el trabajo, eso está bien; pero ¿dejaremos de formar a los periodistas en las aptitudes básicas?

La misma encuesta nos cuenta que, al contrario de lo que se suele pensar, el medio más empleado para informarnos de ciencia y tecnología es la televisión (47,3%), que gana de lejos a las redes sociales YouTube o TikTok. En tele —como ejemplo, la cobertura de RTVE sobre la relación entre alzhéimer y litio— hay profesionales que, en poco más de un minuto, logran explicar conceptos complicados y ponerlos en contexto, con testimonios de científicos que, aun en agosto, se prestan a ponerse delante de una cámara.

Me contaba una compañera de un país asiático que en su región la mayor parte de las noticias de ciencia se publican sin contrastar ni hablar con fuentes, con granjas de jóvenes precarios dedicados a hacer refritos de otros medios con chatGPT. Para ella, la solución consistía en darles formación para que no publiquen contenidos erróneos. Yo no estoy de acuerdo. Seguramente esos periodistas ya estén bien formados y, simplemente, hacen lo que se les pide en sus medios por cuatro duros.

En su artículo La IA está destruyendo un mercado laboral ya frágil para los graduados universitarios, publicado el 29 de julio en The Wall Street Journal, las periodistas Lindsay Ellis y Katherine Bindley analizan cómo las empresas están tirando de ChatGPT y bots para realizar muchas de las tareas que solían encomendarse a los jóvenes en prácticas, sin experiencia, y que les servían como formación en el puesto de trabajo: “¿Para qué se contrata hoy en día a un licenciado universitario de 22 años? Para un número cada vez mayor de jefes, la respuesta es ‘para poco’, ya que la IA puede hacer el trabajo en su lugar”, comienza el reportaje.

Las herramientas de IA ya no son una excentricidad, están aquí y vamos a utilizarlas para facilitarnos el trabajo, eso está bien; pero ¿dejaremos de formar a los periodistas en las aptitudes básicas? En periodismo, antes de firmar grandes reportajes o influyentes columnas de opinión, pasar un tiempo escribiendo decenas de noticias breves es una manera estupenda de aprender a detectar información falsa o interesada, buscar un buen enfoque, hacer accesibles contenidos complejos, prever problemas de interpretación, contactar con fuentes, releer lo escrito, autoeditarte, aceptar las correcciones de tu jefa, buscar un buen titular y hacer todo eso en el menor tiempo posible. Ahora, cada vez que leo una noticia de ciencia que claramente está escrita con chatGPT, pienso que detrás hay alguien perdiendo la oportunidad de ejercitarse en las claves de un oficio necesario.