Skip to main content

La sed de la inteligencia artificial: ¿cuántos litros de agua consume y cómo afecta al ambiente?

Es difícil comprender el impacto ambiental de tecnologías como la inteligencia artificial (IA). Pero la verdad es que detrás de la fabricación, instalación, entrenamiento, mantenimiento e incluso su uso, la IA tiene un efecto significativo en las fuentes de agua y en la emisión de carbono debido al alto consumo de energía.

Una botella de agua por cada 100 palabras de ChatGPT

Los centros de datos que albergan servidores de IA producen desechos de equipos eléctricos y electrónicos. Pero, no solo eso, además, consumen grandes cantidades de agua, que cada vez escasea en muchos lugares, según el Programa de las Naciones Unidas para el Medio Ambiente (UNEP). 

Los servidores de IA generan mucho calor al realizar los miles de cálculos necesarios para cada respuesta. Para evitar el sobrecalentamiento utilizan torres de refrigeración o aire exterior, que requieren una cantidad considerable de agua. La huella hídrica de la IA, que significa que es la cantidad de agua dulce que se utiliza para crear los modelos de esta tecnología, varía según su lugar de entrenamiento y alojamiento de esta tecnología. 

Por ejemplo, la IA consume entre 1,8 y 12 litros de agua por cada kWh de consumo energético. Según la Alianza Global sobre Inteligencia Artificial (GPAI, por sus siglas en inglés), la demanda mundial de IA puede incluso requerir de 4,2 a 6,6 mil millones de metros cúbicos de extracción de agua en 2027.

Agua utilizada para generar una única respuesta de IA de 100 palabras:

  • Una vez: 519 mililitros de agua, un poco más de 1 botella.
  • Una vez por semana durante un año: 27 litros aproximadamente

Consumo de agua en diferentes modelos de IA

Modelos como Grok, consume entre 10 y 50 mililitros de agua, para responder una respuesta. Google reportó un aumento del 20% en el consumo de agua de sus centros de datos en 2022, y Microsoft (que soporta a OpenAI) un 34%, lo que sugiere que los modelos más grandes o con mayor uso tienen una huella hídrica mayor por consulta.

La energía que demanda la IA

Pero los centros de datos de IA requieren más que agua: energía. Mucha que proviene de la quema de combustibles fósiles, lo que produce gases de efecto invernadero que calientan el planeta. Una pregunta realizada con ChatGPT consume 10 veces la electricidad de una búsqueda de Google, informó la Agencia Internacional de la Energía (AIE).

Energía utilizada para generar una única respuesta de IA de 100 palabras:

  • Una vez: 0,14 kilovatios-hora (kWh) de electricidad, lo que equivale a alimentar 14 bombillas LED durante 1 hora.
  • Una vez por semana durante un año: 7,5 kWh, equivalente a la electricidad consumida por 9,3 hogares de Washington, DC durante 1 hora.

Según un artículo del periódico The Washington Post, en zonas donde se encuentran los centros de datos de la IA y la energía es más barata o el agua escasea, se suele usar electricidad para enfriar las computadoras mediante grandes unidades similares a los aires acondicionados. La fórmula es la misma: se consume grandes cantidades de agua o se gasta energía.

Preocupación en zonas que albergan centros de datos

El gigante tecnológico Google anunció en septiembre de 2024 que reformulará su proyecto de 200 millones de dólares para construir un centro de datos en la comuna periférica Cerrillos, en Santiago de Chile, tras las preocupaciones por su impacto ambiental. La decisión ocurre después de que un tribunal ambiental chileno alertó sobre impactos al medioambiente y determinó que el proyecto necesitaría al menos 7,6 millones de litros de agua al día para refrigerar los servidores. Una cantidad desproporcionada, especialmente en un contexto de sequía que ha afectado a Santiago durante los últimos 15 años.

Este caso refleja un desafío global: ¿cómo equilibrar el crecimiento de la inteligencia artificial con la sostenibilidad ambiental? La respuesta a esta pregunta será clave en los próximos años.

Luisa González no prometió el regreso de Rafael Correa en un mitin

¿Qué verificamos?

Un video viral en el que se escucha a la candidata presidencial por la Revolución Ciudadana, Luisa González, decir que traerá de vuelta al expresidente, Rafael Correa para que gobierne Ecuador por «20 años más».

¿Por qué es completamente falso?

El video original pertenece al evento de lanzamiento de su campaña el pasado 5 de enero, en Quito. En su discurso, Luisa González habló sobre “revivir” al Ecuador y criticó las “malas administraciones”, pero no mencionó el regreso de Correa.

¿Qué dice la evidencia? 

  • El video original fue grabado el 5 de enero de 2025, durante el lanzamiento de su campaña en el Coliseo de Calderón, al norte de Quito. 
  • Durante el evento, González no mencionó que traerá de vuelta a Rafael Correa para que gobierne 20 años más, ni insultó al presidente-candidato Daniel Noboa.
  • Sobre este tema: En una entrevista el 15 de junio de 2023 con la periodista cubana Alondra Santiago, en su canal de YouTube IngoEC, González aseguró que “lo que Correa busca es bienestar para su país y no indultos, porque la justicia se hará cargo de él”. 
  • Tras revisar entrevistas recientes de González, no encontramos evidencia de que haya dicho exactamente las palabras que se le atribuyen en el video viral.

Contexto importante

El 15 de enero de 2025, Lupa Media verificó este mismo video, que había sido manipulado anteriormente para hacer creer que la candidata apoyaba a Nicolás Maduro y lo reconocía como el “legítimo presidente de Venezuela”.

Un análisis con el programa True Media confirmó que el video viral tenía un 51% de probabilidad de manipulación en el contenido visual y un 71% en el audio. 

Luisa González también desmintió la veracidad del video a través de sus redes sociales.

Conclusión

El video viral que afirma que Luisa González dijo en un mitin político que quiere traer de vuelta a Rafael Correa es completamente falso. El video original corresponde al lanzamiento de su campaña en Quito, donde la candidata habló sobre “revivir al Ecuador”. Lupa Media ya verificó este material, pero con otras declaraciones falsas, y confirmó que fue manipulado.

Video manipulado con IA difunde desinformación sobre supuesto bloqueo de desembolso del FMI a Ecuador

¿Qué verificamos?

La autenticidad del contenido del noticiero “N+Foro”, que afirma que el Fondo Monetario Internacional (FMI) bloqueó un desembolso a Ecuador por uso indebido de fondos. 

¿Por qué es completamente falso?

El contenido del noticiero “N+Foro” fue manipulado con inteligencia artificial. Además, no hay registro de ningún anuncio del FMI que confirme el bloqueo de un desembolso a Ecuador.

¿Qué dice la evidencia?

  • El video original del noticiero “N+Foro” fue publicado el 20 de marzo de 2025, e informa sobre la solicitud de retiro del fuero al diputado mexicano Cuauhtémoc Blanco, acusado de presunta violación.  
  • Un análisis visual de deepfake identificó alteraciones en la sincronización de labios del presentador, lo que confirma el uso de inteligencia artificial para alterar el contenido.
  • Las principales barras informativas del video original y el manipulado no coinciden. El video falso titula “FMI bloquea desembolso a Ecuador por uso indebido de fondos en campaña de Noboa” y el original dice: “Sección instructora no aprueba desafuero de Cuauhtémoc Blanco; pasa al pleno”. 
  • El contenido falso  muestra  una diferencia en la tipografía de las barras informativas, en comparación con el video original. También elimina las barras secundarias en el resto del video. 
  • El video falso muestra imágenes del FMI, dinero, Daniel Noboa y gráficos usurpados de Ecuavisa, mientras que el original presenta solo imágenes del exterior de la Cámara de Diputados de México.
  • En la página web del FMI y en sus redes sociales no se encontró ninguna información relacionada con el bloqueo de un desembolso a Ecuador por un supuesto mal uso de fondos.

Contexto 

El FMI señaló que la revisión del programa de crédito con Ecuador se realizará después de las elecciones presidenciales del próximo 13 de abril, según información del medio digital Primicias. Tras esta nueva revisión, Ecuador espera recibir un desembolso de USD 410 millones, como parte de un programa de crédito total de USD 4,000 millones, firmado en abril de 2024 por el presidente Daniel Noboa. 

Conclusión

La noticia original de «N+ Foro» fue alterada con inteligencia artificial para crear un contenido falso. Las modificaciones incluyen la sustitución de información, alteración de imágenes y la manipulación de la sincronización de los labios del presentador. El FMI no ha anunciado ningún bloqueo de desembolso para Ecuador debido a un supuesto uso proselitista de fondos. El reportaje original, publicado el 20 de marzo de 2025, trataba sobre la solicitud de retiro del fuero al diputado mexicano Cuauhtémoc Blanco, acusado de presunta violación.

Lo que Chito Vera nunca dijo sobre el consumo de drogas, ni Ecuavisa lo publicó

¿Qué verificamos?

Una publicación atribuida a Ecuavisa que difunde unas supuestas declaraciones del peleador ecuatoriano de artes marciales mixtas, Chito Vera, en las que habría dicho: “Yo fumo hierba, pero a ese man le encanta la coca”, en referencia al presidente-candidato Daniel Noboa.

¿Por qué es completamente falso?

No hay evidencia de que Vera emitiera esa declaración y tampoco que lo haya hecho para el medio de comunicación Ecuavisa. La cadena de televisión desmintió en sus redes sociales la autenticidad de la publicación. 

¿Qué dice la evidencia?

  • Al buscar palabras clave en Google y redes sociales, no encontramos ningún  registro de la supuesta afirmación de Vera. 
  • Tampoco hay evidencia en los medios oficiales de Chito Vera que confirmen dicha declaración.
  • La publicación viral suplanta la identidad del medio de comunicación “Ecuavisa”.
  • Ecuavisa anunció en sus redes sociales que la publicación es falsa y que no corresponde al medio.
  • Aunque el diseño de la publicación  es similar—en colores y estilo— al que publica el medio en sus redes sociales, hay ciertas inconsistencias. 
  • La publicación falsa tiene tonalidades más oscuras que las que utiliza el medio al  publicar declaraciones o frases de personajes relevantes o políticos. 
  • La tipografía que utiliza la desinformación también es diferente a la que emplea Ecuavisa en este tipo de publicaciones.

Contexto importante

La desinformación surge a vísperas de la segunda vuelta electoral, del próximo 13 de abril.La ciudadanía elegirá a su próximo presidente para los siguientes cuatro años. El deportista ecuatoriano, Chito Vera ha mostrado su cercanía con el presidente Noboa. De hecho, el pasado 23 de marzo, día del debate presidencial, Daniel Noboa hizo pública la iniciativa de otorgar 100 mil becas para aprender inglés. Dicha publicación incluso fue reposteada por Chito Vera en su red social de X. 

Noboa se enfrenta a la candidata por la Revolución Ciudadana, Luisa González, en una contienda bastante ajustada. En la primera vuelta, la diferencia entre ambos fue de apenas el 0,17% de los votos. 

Conclusión

COMPLETAMENTE FALSO: No hay evidencia de que el deportista ecuatoriano Chito Vera se haya referido a una supuesta adicción del presidente Daniel Noboa y que Ecuavisa lo publicara. El mismo medio desmintió en sus redes sociales que la publicación fuera real. 

El falso comunicado del colectivo «TDHA» en Ecuador

¿Qué verificamos?

Si el colectivo «Viviendo y sobreviviendo con TDAH, un día a la vez» existe y publicó un comunicado en el que condenó las declaraciones de la candidata de la Revolución Ciudadana, Luisa González, sobre el déficit de atención.

¿Por qué es completamente falso?

Lupa Media no encontró registros oficiales previos del colectivo que, en su comunicado, se presenta como una organización civil con siete años de trayectoria en Ecuador.

¿Qué dice la evidencia? 

  • No existe registro del colectivo «Viviendo y sobreviviendo con TDAH, un día a la vez» en el Sistema Unificado de Información de las Organizaciones Sociales (SUIOS).
  • Al revisar la página de Facebook de TDAH Ecuador, encontramos que fue una página creada con el nombre Doble A en julio de 2015, pero apenas el 25 de marzo de 2025, adoptó el nombre TDAH Ecuador, dos días después del debate presidencial.
  • La página tiene publicaciones relacionadas al TDAH desde antes del 25 de marzo, pero en realidad todas fueron publicadas ese día, como se muestra con las herramientas de transparencia de Meta.
  • Las siglas del logo del colectivo son incorrectas: aparece «TDHA» en lugar de «TDAH», que corresponde a la forma correcta de Trastorno por Déficit de Atención con Hiperactividad. Este error se encuentra tanto en el comunicado como en la página de Facebook.
  • Estos errores también se presentan en el supuesto comunicado difundido sin firma de representación legal. Sin embargo, en redes sociales circula un video en el que una mujer identificada como María Castro dice ser su representante.
  • Lupa Media no pudo contactar a María Castro ni encontró evidencia confiable de que dirija la organización TDAH Ecuador. Además, otras entidades vinculadas a este diagnóstico con las que nos comunicamos tampoco pudieron confirmar su existencia ni la de su supuesta organización.

Durante el segundo debate presidencial de las Elecciones Generales 2025, la candidata Luisa González dirigió un comentario a Daniel Noboa: «Y tu déficit de atención no es mi problema, queridito». Estas palabras generaron reacciones de cuatro organizaciones de pacientes con TDAH

  • El colectivo Mapas Extraordinarios (Madres, padres y familias de personas con Trastorno del Espectro Autista y otras condiciones neurodivergentes) dirigieron una carta a Luisa González rechazando el uso político de esta condición neurológica.
  • Niños con TDAH en Ecuador” expresó su rechazo al uso del término “déficit de atención” como descalificación en el debate presidencial. Además, aseguraron a Lupa Media que no tienen conocimiento de un colectivo llamado TDHA Ecuador.
  • El “Grupo de Apoyo TDAH ECUADOR”, dirigido por Verónica Jiménez, declaró en un post de Facebook que llevan 21 años de trayectoria y nunca habían escuchado sobre «TDAH en Ecuador». También rechazaron el uso del TDAH en discursos políticos y pidieron que no se utilice el nombre de su organización con fines ajenos a su misión.
  • También lo hizo la asociación de padres y amigos para el apoyo y defensa de los derechos de las personas con autismo (APADA).

Datos clave sobre el TDAH

El trastorno por déficit de atención e hiperactividad (TDAH) es uno de los trastornos neuroconductuales más comunes en la infancia. Suele diagnosticarse en la niñez y, en muchos casos, persiste hasta la edad adulta, según el Centers for Disease Control and Prevention (CDC). 

Según la Organización Mundial de la Salud (OMS), más del 4% de la población mundial tiene TDAH, el 3.1% de los adolescentes de entre 10 a 14 años y el 2.4% de los de entre 15 a 19 años tienen un trastorno por déficit de atención con hiperactividad, que se caracteriza por la dificultad para mantener la atención, un exceso de actividad y conductas impulsivas. Los trastornos del comportamiento son más frecuentes entre los adolescentes jóvenes que entre los de más edad.

Conclusión

La evidencia disponible indica que el comunicado viral que afirma que el colectivo «Viviendo y sobreviviendo con TDAH, un día a la vez» rechazó la discriminación de Luisa González durante el debate es completamente falso. Lupa Media no encontró registros oficiales previos de este grupo que respalden su existencia, y halló inconsistencias que ponen en duda su autenticidad.

El audio falso de Jan Topic diciendo que apoyará a Luisa González

¿Qué verificamos?

Circula un contenido viral en el que se escucha al excandidato presidencial Jan Topic afirmando que apoyará a la candidata Luisa González.

¿Por qué es completamente falso?

No hay evidencia que el audio sea real ni de que la voz pertenezca a Jan Topic. Análisis de detección de audio revelan una alta probabilidad de que la voz que se escucha fue creada con inteligencia artificial. 

¿Qué dice la evidencia?

  • No existe evidencia ni registro de que Jan Topic anunciara su apoyo a favor de la candidata por la Revolución Ciudadana, Luisa González. 
  • Usamos la herramienta DeepFake-O-Meter para analizar el audio viral. La plataforma arrojó que existe una probabilidad de entre el 99,6% al 100% de que el contenido fue generado con inteligencia artificial.
  • El análisis de la plataforma está basado en un aprendizaje profundo para la detección de audios creados con IA. Los detectores permiten identificar audios y posibles suplantaciones de voz. 
  • Otro análisis hecho con la plataforma Resemble.Ai, que permite, al igual que la otra herramienta, identificar contenidos de audio creados con inteligencia artificial. Determino inconsistencias en el inconsistencias en el timbre y tono de voz, la entonación, ritmos, pausas, ausencia de respiraciones, entre otros aspectos más que hacen concluir que «basado en el perfil acústico y la comparación forense de voz, se determinó que el archivo de audio analizado fue generado completamente mediante inteligencia artificial».
  • El equipo de Topic remitió a Lupa Media dos análisis hechos al audio que también concluyen una alta probabilidad de haber sido creado con IA.

Contexto importante

Jan Topic fue descalificado por el Tribunal Contencioso Electoral (TCE) como candidato presidencial para las elecciones de 2025 debido a conflictos de interés relacionados con sus vínculos empresariales con el Estado. Aunque Topic recurrió a la Corte Constitucional para revertir la decisión, su solicitud no fue admitida, lo que confirmó su imposibilidad de participar en los comicios de 2025.

El contenido desinformativo se da en medio de la contienda electoral donde Daniel Noboa y Luisa González disputan la presidencia del país. El próximo 13 de abril los ecuatorianos decidirán quién se convertirá en la figura política más importante de Ecuador. 

Conclusión

COMPLETAMENTE FALSO: No hay evidencia que el audio viral sea real y que la voz pertenezca a Jan Topic. Análisis de detección de audio demuestran que el contenido viral fue creado con inteligencia artificial. 


Es falso que un noticiero internacional difundió un reportaje sobre el debate entre González y Noboa

¿Qué verificamos?

Un reportaje atribuido a Radiotelevisión Española (RTVE) y Alicantv que presenta un resumen del debate presidencial entre la candidata de la Revolución Ciudadana, Luisa González, y el candidato por ADN, Daniel Noboa. 

¿Por qué es completamente falso?

El supuesto reportaje atribuido a RTVE y Alicantv fue manipulado con inteligencia artificial. No hay evidencia de que el canal de televisión español haya publicado un reportaje sobre el debate presidencial de las elecciones de segunda vuelta en Ecuador. Tampoco hay registro de la existencia de un medio llamado Alicantv. 

¿Qué dice la evidencia? 

  • El video viral usurpa la imagen del periodista de RTVE, Lluís Guilera, para manipular la información.
  • Un análisis determinó con un 99.9% de confianza que los primeros 15 segundos del video, en los que habla el presentador Guilera, fueron generados con inteligencia artificial. 
  • El audio del reportaje tiene un 85.5% de probabilidad de haber sido creado con IA.
  • El contenido manipulado muestra a Guilera, presentando un falso reportaje, en el que su voz es alterada para afirmar que algunas declaraciones de Noboa en el debate generan más dudas que certezas.
  • El banner del supuesto reportaje, con fondo blanco y letra azules, no coincide con la línea gráfica de RTVE, que utiliza una claqueta roja con blanca. 

Contexto importante

El debate presidencial de la segunda vuelta electoral entre el presidente candidato, Daniel Noboa, y la representante de la Revolución Ciudadana, Luisa González, fue el domingo 23 de marzo. 

Lupa Media identificó un total de 35 afirmaciones verificables durante el encuentro, de las cuales 29 ya han sido analizadas. En el caso de González, el 37,5% de sus afirmaciones verificables fueron ciertas o parcialmente ciertas, mientras que el 62,5% fueron imprecisas o falsas. Mientras que Noboa tuvo un 45,45% de afirmaciones verificables entre ciertas y parcialmente ciertas, mientras que el 54,55% fueron imprecisas, falsas y no verificables.

Conclusión

COMPLETAMENTE FALSO: El reportaje atribuido a RTVE y Alicantv sobre el debate entre González y Noboa fue manipulado con inteligencia artificial. No hay evidencia de que el canal de televisión español haya publicado un reportaje sobre el debate presidencial de las elecciones de segunda vuelta en Ecuador y tampoco hay registro de la existencia de un medio de comunicación llamado Alicantv.

Manipulan con IA un programa de México para desacreditar a Daniel Noboa

¿Qué verificamos?

La autenticidad del programa “Todo es Personal” de “adn40” que supuestamente informa sobre casos de corrupción y narcotráfico en el gobierno del presidente Daniel Noboa.

¿Por qué es completamente falso?

El contenido del programa “Todo es Personal” de “adn40” México ha sido manipulado con inteligencia artificial para desinformar. La emisión original, publicada el 12 de marzo de 2025, trató sobre el Campo de Exterminio en Teuchitlán, no de supuestos vínculos entre la familia Noboa y el narcotráfico.

¿Qué dice la evidencia?

  • El programa original de “adn40”, titulado «Campos de Exterminio en México: los lugares donde el narco crea a sus capos», no menciona supuestos escándalos de narcotráfico relacionados con la familia Noboa.
  • Un monitoreo manual de deepfake identificó alteraciones en la sincronización de labios del presentador, lo que confirma el  uso de inteligencia artificial para alterar el contenido. 
  • Las principales barras informativas del video original y el manipulado no coinciden, el video falso titula “Escándalo en Ecuador: Contenedores con cocaína vinculan al presidente Daniel Noboa con el narcotráfico” y el original dice “ Realizan trabajos forenses en el rancho de exterminio y adiestramiento forzado en Teuchitlán, Jalisco”. 
  • El video original mantiene en toda su presentación un código QR, en el falso este desaparece. 
  • La hora del video falso no coincide con la del original. A las 11:14, el video original no muestra al presentador, sino imágenes relacionadas con las políticas arancelarias de Donald Trump con Canadá.

Contexto 

Durante la primera vuelta electoral de 2025, Lupa Media identificó que la manipulación de videos periodísticos mediante IA se ha convertido en una estrategia común de desinformación. De todas las publicaciones desinformativas detectadas, el 23.07% utilizó inteligencia artificial en su creación o manipulación. De este porcentaje, el 40% correspondió a contenidos donde la IA fue empleada para alterar o crear videos que involucraban a figuras de periodistas, con el fin de difundir información falsa o distorsionada.

Conclusión

Completamente FALSO: El programa original de “Todo es Personal” de “adn40” México ha sido alterado con inteligencia artificial para crear un contenido falso. La modificación incluye la sustitución de información, la alteración de imágenes y el uso de deepfake para manipular la sincronización de los labios del presentador. El reportaje original, publicado el 12 de marzo de 2025, trata exclusivamente sobre el Campo de Exterminio de Teuchitlán, la política arancelaria de Donald Trump y los juicios políticos en México.

“Oye Grok” y el uso de chatbots para verificar

Desde el lanzamiento de Grok en agosto de 2024, una nueva versión de chatbot creada por Elon Musk, esta tecnología ha sido utilizada ampliamente para generar contenido y, más recientemente, para intentar verificar información.

Sin embargo, la aparente objetividad y neutralidad de estos chatbots pueden convertirse en un problema serio cuando se trata de verificar datos. Los modelos de IA, como Grok, pueden incurrir en un fenómeno conocido como «falso balance», donde presentan opiniones contrarias como si tuvieran el mismo peso, distorsionando así la percepción de la realidad.

La trampa de la neutralidad forzada

Modelos de lenguaje como Grok, ChatGPT o DeepSeek tienden a evitar tomar partido en temas controvertidos, incluso cuando existe evidencia clara que respalda una posición sobre otra. Esto da lugar a un sesgo de equidistancia artificial, en el que se presentan argumentos desiguales en respaldo científico como si fueran equivalentes.

«Aunque la intención de estos sistemas puede ser mostrar imparcialidad, lo que logran es distorsionar la realidad al presentar como igual lo que no lo es», explica Julián Estévez, profesor de ingeniería en la Universidad del País Vasco, en una entrevista con Maldita.es.

Según Open Ethics, una institución dedicada a investigar los impactos sociotecnológicos de la IA, uno de los problemas es que «al intentar ser neutrales, los sistemas de IA pueden fallar en captar la diversidad, los matices y el contexto de los valores humanos, lo que puede resultar en respuestas sesgadas o inexactas«. Por ejemplo, una IA puede ofrecer respuestas equidistantes sobre temas controvertidos sin considerar las diferencias en la calidad de las pruebas que existen para cada postura.

Iris Domínguez, investigadora en inteligencia artificial y justicia algorítmica, señala que al preguntar a un chatbot si el cambio climático es real, la respuesta generalmente es clara y respaldada por la ciencia. Pero si la pregunta es «¿El ecologismo ha ido demasiado lejos?», muchas veces la IA presentará ambas posturas por igual, aunque la evidencia científica no las respalde en la misma medida.

Este tipo de «neutralidad forzada» puede contribuir a la desinformación, especialmente cuando los chatbots presentan afirmaciones sin contexto adecuado o evitan desmentir teorías falsas con suficiente contundencia. Un caso reciente que ilustra este peligro ocurrió cuando la organización civil ecuatoriana Usuarios Digitales consultó a Grok si la candidata presidencial Luisa González estaba implicada en lavado de activos. La respuesta del chatbot incluyó información que hacía referencia a vídeos manipulados, previamente verificados.

Captura de pantalla del perfil de Alfredo Velasco – Usuarios Digitales

La manipulación de los chatbots: el ‘LLM grooming’

Los riesgos no se limitan a la neutralidad forzada. Existe una táctica llamada «LLM grooming», en la que redes de desinformación alteran los resultados de los chatbots al modificar los datos con los que se entrenan. Este proceso se lleva a cabo al inundar los buscadores y rastreadores web con contenido automatizado y manipulador. Como resultado, los modelos de IA recogen estos datos sesgados e incluyen narrativas falsas en sus respuestas.

Un ejemplo reciente lo ha mostrado NewsGuard, que identificó que la red prorrusa Pravda logró manipular los datos de entrenamiento de varios chatbots mediante el «LLM grooming». Como consecuencia, un 33% de los chatbots analizados replicaron narrativas falsas difundidas por esta red.

¿Son los chatbots aliados de la verificación?

Aunque los chatbots pueden ser herramientas útiles para acceder a información rápidamente, su fiabilidad como fuentes de verificación es cuestionable. Están sujetos a sesgos inherentes en sus datos de entrenamiento y también pueden ser manipulados por técnicas externas como el «LLM grooming».

Para mejorar la precisión de estos modelos, expertos sugieren que la selección de datos de entrenamiento sea más transparente y se base en fuentes verificadas. Sin embargo, es importante subrayar que los chatbots no pueden reemplazar el análisis crítico y la verificación profesional.

Los usuarios deben ser conscientes de las limitaciones éticas y prácticas de esta tecnología. Por ejemplo, un modelo como Grok no puede resolver disputas sobre la «verdad» cuando dependen de interpretaciones subjetivas o valores personales. Además, si la información es demasiado reciente o no está bien documentada, puede carecer de una base suficiente para una verificación completa. Los errores humanos en los datos de entrenamiento también representan un reto, ya que el modelo se alimenta de texto generado por personas, que puede contener errores o sesgos difíciles de filtrar.

Cómo evaluar la confiabilidad de una respuesta generada por IA

Para que los usuarios puedan evaluar la confiabilidad de una respuesta generada por IA, es recomendable:

  1. Verificar la fuente: Comparar la información con fuentes confiables y verificadas.
  2. Buscar múltiples referencias: No basarse en una sola respuesta del chatbot, sino contrastarla con otras fuentes.
  3. Identificar sesgos: Analizar si la respuesta equilibra de manera artificial posturas desiguales en respaldo científico.
  4. Consultar a expertos: En temas complejos, recurrir a verificadores profesionales o especialistas en la materia.
  5. Evaluar la claridad y precisión: Respuestas vagas o evasivas pueden indicar limitaciones en los datos de entrenamiento del chatbot.

Cómo usar esta tecnología de forma responsable

Si bien es cierto que este tipo de tecnología no es recomendable para hacer un ejercicio de fact-checking, sí puede ser útil para potenciar tus actividades como:

  1. Automatización de tareas repetitivas: Los chatbots pueden ayudarte a agilizar tareas rutinarias y repetitivas, como responder preguntas frecuentes o procesar grandes volúmenes de información de manera eficiente.
  2. Generación de ideas y contenido inicial: Puedes utilizar estos sistemas para generar borradores de contenido, ideas iniciales o planteamientos en los que luego puedas profundizar y verificar. Esto es útil para acelerar el proceso creativo y de redacción.
  3. Asistencia en la investigación preliminar: Los chatbots pueden ser una herramienta para realizar investigaciones preliminares, ofreciendo una visión general de los temas de interés y proporcionando enlaces a fuentes relevantes, que deben ser verificadas siempre. Por ejemplo: «resume esto», «analiza el argumento» o «busca más info sobre este tema».
  4. Mejora de la productividad: Si bien no sustituyen el juicio crítico humano, los chatbots pueden optimizar tu flujo de trabajo y facilitar la gestión de proyectos, al organizar información, recordarte plazos importantes o gestionar tareas.

*Parte de este explicativo fue hecho con información de la Agencia de Contenidos de Maldita.es

Cómo leer encuestas electorales

Ecuador está en plena contienda electoral para elegir un nuevo  presidente. La candidata por la Revolución Ciudadana, Luisa González, se enfrenta al actual presidente, Daniel Noboa. A solo 19 días de la segunda vuelta, varias encuestas y sondeos publican intenciones de voto en redes sociales. Pero, ¿cómo saber si son confiables?

Las encuestas son publicadas antes de las elecciones y pueden influir en los votantes, especialmente en quienes aún no han decidido su elección. Sin embargo, las encuestas no predicen un resultado, en realidad, son una aproximación y no una verdad absoluta. Reflejan tendencias, pero no garantizan resultados.

¿En qué debo fijarme al ver una encuesta?

Primero, entiende la metodología. Aunque suene tedioso, debes revisar algunos datos importantes como:

  • Tipo de Encuesta: Pueden ser telefónicas, en línea, presenciales, o por correo. El método utilizado determina quiénes responden y cómo interpretan las preguntas.
  • Muestra Representativa: Revisa si usa una muestra aleatoria representativa de la población objetivo. Una muestra sesgada puede distorsionar los resultados. En Ecuador, una muestra representativa a nivel nacional suele rondar los 2,000-3,000 encuestados aproximadamente.
  • Cobertura geográfica: Asegúrate de que la encuesta cubra tanto zonas urbanas como rurales, y diferentes regiones (Costa, Sierra, Oriente y Región Insular).

Atención con el margen de error

Este número indica el rango en el que los resultados reales pueden variar. Un margen de error de ±3% significa que si una encuesta señala que el 50% de los encuestados apoya un candidato, el respaldo real podría estar entre el 47% y el 53%. Es un detalle clave, en especial en contiendas reñidas como las elecciones presidenciales de este año.

Las encuestas en Ecuador suelen tener un margen de error de ±2% a ±4%. Si la diferencia entre candidatos es menor que este margen, técnicamente están empatados.

Analiza la redacción de las preguntas

Las preguntas pueden estar formuladas de manera que influyan en las respuestas. Es importante identificar las preguntas sesgadas y las opciones limitadas. 

Si las opciones son limitadas o sugieren una preferencia, las respuestas pueden no reflejar la verdadera opinión de los encuestados.

El contexto político importa

El contexto es clave para entender por qué las personas responden de cierta manera, especialmente en eventos importantes o momentos de crisis. Estos factores pueden  alterar la percepción de los encuestados. Es decir, la fecha de la encuesta importa. En política, una semana puede cambiar las reglas del juego, por lo que los datos de hace un mes pueden estar desactualizadas

Compara varias encuestas

Revisa más de una encuesta, compara sus metodologías y resultados para tener una percepción más completa. Investiga sobre la encuestadora y verifica  si está autorizada para realizar pronósticos electorales.

Presta atención a encuestadoras con trayectoria y reputación establecida. Duda de aquellas publicadas en redes sociales sin fuente clara.

¿Cómo sé cuáles están aprobadas por el CNE?

En elecciones, el CNE publica en su página web un listado de personas naturales y jurídicas que pueden realizar pronósticos electorales.

En el caso de las segundas vueltas, el reglamento solicita a quienes participaron  en la primera vuelta, enviar un comunicado indicando su intención de seguir realizando encuestas.

Hasta la fecha, para la segunda vuelta del próximo  13 de abril de 2025, 9 personas naturales y jurídicas  han confirmado su participación. A continuación, la lista oficial con corte al 20 de marzo de 2025:

¿Y las encuestas en redes sociales?

Durante las campañas electorales, tanto en la primera como en la segunda vuelta, circula una gran cantidad de encuestas sin firma ni claridad sobre su origen. Muchas simplemente presentan cifras sin explicar su metodología de recolección de datos.

Duda siempre. Recuerda que muchas de estas encuestas buscan manipular a los electores. Si no incluyen al menos información sobre quién las realizó, cuántas personas fueron encuestadas, qué preguntas se formularon y en qué periodo se llevó a cabo el estudio, su fiabilidad es cuestionable.

Antes de compartir, verifica. No te dejes llevar por encuestas sin sustento que solo buscan influir en la opinión pública.