Para informar sobre el cambio climático es preciso conocer hechos y conceptos científicos y comunicarlos con claridad y eficacia. Para facilitar el proceso, los periodistas pueden inclinarse por utilizar herramientas de inteligencia artificial (IA) capaces de generar textos basados en la información disponible en Internet, como la popular plataforma ChatGPT.
El problema, sin embargo, es que ChatGPT, aunque útil, puede promover desinformación. Incluso su creador, Open-AI, advierte: "ChatGPT a veces escribe respuestas que suenan plausibles pero que son incorrectas o carecen de sentido".
La información falsa respecto del cambio climático puede socavar los esfuerzos para hacer frente a la crisis climática. A continuación, lo que los periodistas deben tener en cuenta para evitar la difusión desinformación generada por la IA.
No te conformes con respuestas generalizadas
Si bien las herramientas de IA pueden generar información que acelere el proceso de reporteo (algo especialmente bienvenido cuando el tiempo escasea), también tienen tendencia a pasar por alto detalles importantes que contribuyen a una comprensión más profunda de los problemas climáticos.
Jill Hopke, profesora asociada de periodismo y clima en la Universidad DePaul, se dio cuenta de este problema cuando preguntó a ChatGPT cómo solucionar el cambio climático. En respuesta, el bot solo enumeró acciones vagas, generales e individuales, como "reducir las emisiones de gases de efecto invernadero", "promover la sostenibilidad" y "apoyar la adaptación al clima", que, de acuerdo con los científicos del clima, no bastan para resolver la crisis climática.
"Como solemos decir los científicos y estudiosos del clima, las acciones individuales son sin duda importantes, pero no son ni de lejos lo más importante", explicó Hopke.
Además, informar con rigor sobre las soluciones climáticas "no consiste en vitorear tal o cual enfoque", aconsejan Covering Climate Now y la Red de Periodismo de Soluciones. "Se trata de interrogar esos enfoques para informar al público y a los responsables políticos sobre lo que funciona y lo que no". Este es un papel para el que los periodistas están especialmente preparados y un área en la que ChatGPT se queda corto.
El bot también se esfuerza por explicar el significado local y las implicaciones de conceptos globales. Por ejemplo, cuando Natalie Unterstell, presidenta del Instituto Talanoa, un think tank brasileño centrado en la política climática, preguntó a ChatGPT en portugués qué significa, en términos de clima, un "truco contable", el bot ofreció una definición general y condenó la práctica, pero no ofreció el contexto brasileño específico que sería útil para una comprensión más profunda.
Un "truco de contabilidad climática" suele aludir a prácticas adoptadas por los gobiernos para aparentar que se comprometen a reducir las emisiones. En Brasil concretamente, el concepto hace referencia a un cambio realizado por el Gobierno federal en su informe de 2020 sobre el cumplimiento del Acuerdo de París sobre el clima que, en teoría, permitiría al país aumentar sus emisiones en lugar de reducirlas. Desde entonces, organizaciones de la sociedad civil han demandado a las autoridades brasileñas y se ha presionado al gobierno para que aumente su ambición. Unterstell lo explicó detalladamente, algo que ChatGPT no pudo comunicar.
Cuidado con la propaganda sutil y el "greenwashing"
Los periodistas también deben estar atentos a las formas sutiles de propaganda sobre los combustibles fósiles y el "greenwashing" de las empresas que puedan aparecer en las respuestas de ChatGPT. Por ejemplo, mientras investigaba el título de un artículo, pregunté al bot: "¿se están enriqueciendo los grandes contaminadores?".
El primer párrafo de la respuesta de ChatGPT era pertinente y preciso: "Depende de la industria y la empresa concretas de que se trate, pero en general algunos grandes contaminadores siguen generando beneficios a pesar del daño medioambiental que causan. Por ejemplo, la industria de los combustibles fósiles se asocia desde hace tiempo con grandes beneficios, a pesar de que la quema de combustibles fósiles es uno de los principales responsables del cambio climático".
El segundo párrafo, sin embargo, contenía signos reveladores de greenwashing: "Sin embargo, es importante señalar que también hay empresas dentro de estas industrias que están invirtiendo en energías renovables y trabajando para reducir su huella de carbono". Aunque esta información no es incorrecta, oculta el hecho de que las empresas de combustibles fósiles son las principales responsables de causar el cambio climático, al tiempo que han gastado miles de millones de dólares durante décadas en engañar al público para proteger sus intereses corporativos, otro detalle que ChatGPT no menciona en su respuesta.
La mayor parte de la desinformación que promueven las empresas de combustibles fósiles en Internet hoy en día –y en la que el chatbot puede estar basando sus respuestas– es "muy sutil", señaló Hopke: "Una gran petrolera puede, por ejemplo, hablar en las redes sociales de reducir las emisiones de Alcance 1 y Alcance 2 como forma de lograr emisiones netas de carbono cero en sus operaciones diarias de refinado, lo que suena bien hasta que uno recuerda o aprende lo que en realidad son las emisiones de Alcance 3".
Los estudios demuestran que las emisiones de alcance 3 suelen representar más del 70% de la huella de carbono de una empresa, y abordarlas implica cambiar las prácticas en toda la cadena de suministro. "Por tanto, centrarse únicamente en las emisiones de alcance 1 y 2 deja mucho fuera de juego", explicó Hopke.
Verifica y reportea como un humano
Aunque ChatGPT es una de las herramientas de IA generativa más avanzadas de la actualidad, la exactitud y fiabilidad de la información que ofrece sigue siendo incierta y necesita verificación.
El Bavarian Broadcasting y el Science Media Center Germany de Alemania, por ejemplo, probaron el chatbot para generar recuadros con información científica sobre el cambio climático para acompañar artículos. Sin embargo, encontraron errores, como "cifras ficticias", "hechos erróneamente relacionados" y "alucinaciones" o información falsa. Como resultado, el equipo tuvo que volver a verificar cada afirmación, lo que resultó más laborioso que pedir a los periodistas que escribieran manualmente los recuadros.
"ChatGPT puede ser una herramienta que complemente la información original, pero no debe restituirla", aconsejó Hopke. Aunque los periodistas encuentren una nueva idea o ángulo para una cobertura, tendrán que verificar la información que reciben como si se tratara de cualquier otra pista. En el medio de una emergencia climática, esto es especialmente importante.
Imagen de Jonathan Kemper en Unsplash.