Circula en redes una portada alterada de Primicias, publicada el 29 de mayo de 2024, sobre los gastos reservados del Ministerio de Defensa. La imagen fue modificada y difundida como si fuera actual, sugiriendo que los fondos se destinaron a la campaña electoral.
¿Qué verificamos?
La autenticidad de una portada atribuida al medio digital Primicias con el titular:»El Ministerio de Defensa gastó USD 403 millones en compras reservadas en cuatro meses” y su supuesta relación con gastos electorales.
¿Por qué es impreciso?
La información sobre el gasto por parte del Ministerio de Defensa es real, pero ha sido descontextualizada y manipulada para sugerir, sin evidencia, que esos fondos reservados se destinaron a la campaña electoral de 2025.
¿Qué dice la evidencia?
La portada original de Primicias se publicó en mayo de 2024.
El presupuesto del Ministerio de Defensa aumentó de USD 1.365 millones a USD 1.586 millones entre enero y abril de 2024.
Los USD 403,9 millones en compras reservadas se ejecutaron ocho meses antes del inicio de la campaña electoral.
El Ministerio reportó, en mayo, 76 procesos de ínfima cuantía por USD 53.800.
Contexto importante
El reportaje de Primicias, publicado en mayo de 2024, analizó el incremento presupuestario del Ministerio de Defensa durante el primer cuatrimestre de ese año. El artículo señaló la falta de transparencia sobre el destino específico de los fondos reservados, pero estos gastos ocurrieron mucho antes del período electoral de 2025.
Conclusión
La portada que circula en redes sociales con el logo de Primicias es imprecisa, ya que fue sacada de contexto y manipulada. La publicación original no vincula el monto destinado al Ministerio de Defensa con el proceso electoral.
Lupa Media realizó 90 verificaciones durante la campaña electoral de primera vuelta; el 57% corresponden a afirmaciones de candidatos presidenciales, en su mayoría imprecisas o falsas.
El 60,8% de las declaraciones de candidatos presidenciales fueron catalogadas como imprecisas, completamente falsas o mayormente falsas,
La mayoría del contenido viral con desinformación (76.92%) se concentró en los candidatos más opcionados: Daniel Noboa y Luisa González.
El 23% del contenido viral desinformativo tuvo componente de inteligencia artificial.
En la primera fase de la campaña electoral para los comicios generales de Ecuador 2025, Lupa Media se enfocó en realizar un exhaustivo trabajo de fact-checking sobre el discurso público de los 16 candidatos presidenciales y la desinformación viral.
Con una metodología rigurosa de verificación, el equipo de Lupa Media monitoreó diariamente, desde el 9 de diciembre, las entrevistas, las publicaciones en las redes sociales oficiales de los candidatos y otros contenidos relacionados. También se analizaron los datos del debate presidencial. Se seleccionaron para verificación las frases que contenían afirmaciones concretas sobre hechos, datos o cifras que pudieran contrastarse con fuentes oficiales, estudios académicos, reportes de organismos especializados o registros históricos. Se descartaron opiniones, interpretaciones subjetivas y declaraciones sin sustento verificable. Además, se tomó en cuenta la relevancia del tema en la opinión pública, la frecuencia con la que las afirmaciones eran repetidas en el discurso de los candidatos y su impacto en el debate electoral.
Los hallazgos más destacados son:
Frecuencia de afirmaciones imprecisas y falsas: El 60,8% de las declaraciones fueron catalogadas como imprecisas, completamente falsas o mayormente falsas.
Baja proporción de afirmaciones ciertas: Solo 33,3% de las afirmaciones fueron clasificadas en la escala de “cierto” o “mayormente cierto”.
Dificultad para verificar ciertos datos: En el 5,9% de los casos, no se encontró suficiente evidencia confiable para verificar la veracidad de las afirmaciones.
Al examinar las declaraciones de los candidatos, emerge un patrón donde la imprecisión no parece ser accidental. Los datos evidencian una tendencia a privilegiar el impacto comunicacional por encima de la precisión factual.
Desinformación viral
Durante la campaña electoral, nuestro equipo monitoreó diariamente redes como X, TikTok, Instagram y Facebook. También estuvo activa la plataforma de WhatsApp #VerificaciónAlaCarta para recibir solicitudes de verificación.
El contenido seleccionado para fact-checking cumplió criterios de interés público, potencial de daño y viralización en más de dos plataformas para evitar la difusión innecesaria de información engañosa.
39 contenidos virales verificados: el 95% resultaron imprecisos o completamente falsos.
El 76,92% de la desinformación viral se centró en los candidatos con mayor intención de voto, Daniel Noboa y Luisa González.
El 17,94% de publicaciones desinformativas estaban relacionadas con procesos electorales y discursos de Donald Trump.
El 48,71% de la desinformación utilizó logos de medios de comunicación o instituciones para aparentar legitimidad.
Principales narrativas
Narcotráfico (15,38%): Vinculación de candidatos con el crimen organizado.
Trump y deportación (17,94%): Alegaciones sobre migración y relaciones con EE.UU.
Encuestas (12,82%): Manipulación de resultados para favorecer a ciertos candidatos.
Procesos electorales (10,25%): Rumores sobre irregularidades en el CNE y el debate presidencial.
Narrativas dispersas (43,58%): Contenidos variados sin una categoría específica.
IA en la campaña electoral
Un hallazgo particularmente preocupante durante esta campaña electoral es la creciente presencia de la inteligencia artificial en la creación de contenido engañoso. El 23% del contenido viral identificado como desinformación presentó elementos generados por IA, desde deepfakes de audio hasta imágenes manipuladas.
40% de este contenido fue dirigido a distorsionar la imagen de Luisa González.
40% se enfocó en desacreditar a Daniel Noboa a través de falsificaciones de periodistas y medios.
20% se empleó para alterar el discurso de funcionarios públicos de Ecuador y Estados Unidos.
Esta tendencia marca un punto de inflexión en la evolución de la desinformación electoral, añadiendo una nueva capa de complejidad al desafío de mantener un debate público saludable.
IA usada en la sátira política
En el marco del monitoreo realizado entre el 1 de enero y el 4 de febrero de 2025 en TikTok y X, identificamos 69 publicaciones generadas con Inteligencia Artificial, enfocadas principalmente en la sátira política. De estas publicaciones:
El 49.27% se dedicó a parodias, ridiculización de candidatos y la creación de escenarios ficticios.
Un 27.53% abordó temas relacionados con la corrupción.
El 13.04% tenía el propósito de generar miedo.
El 10.14% trató sobre el narcotráfico.
Al igual que la tendencia desinformativa, todo el contenido se enfocó en los candidatos Luisa González y Daniel Noboa.
53.62% va contra Luisa González o Rafael Correa
31.88% en contra de Daniel Noboa.
13.04% ataca a ambos candidatos en una misma publicación
2.89% favorece a Daniel Noboa .
Las publicaciones generadas con IA alcanzaron una mayor difusión en TikTok, con dos cuentas destacándose por el alto número de vistas. La primera, @isaiasespinoza_001, creó 15 publicaciones que ridiculizan y critican a Daniel Noboa, Luisa González y otros actores políticos. La segunda cuenta, @aiworld_ec, publicó dos videos que favorecieron a Daniel Noboa, con uno alcanzando 1.2 millones de vistas y el otro 254.5 mil visualizaciones.
En X, las publicaciones generadas con inteligencia artificial suelen ir acompañadas de mensajes de odio o descrédito dirigidos a ambos candidatos o a sus respectivos movimientos políticos.
Cómo se difundió la desinformación
Las estrategias de desinformación siguieron los patrones habituales: el uso de cuentas trolls y el pago de publicidad en redes sociales. La falta de políticas de moderación de contenidos en las plataformas permitió la propagación de desinformación financiada. En algunos casos, empresas extranjeras fueron empleadas para implementar estas tácticas, aprovechando las restricciones de publicidad en plataformas dentro de Ecuador, como es el caso de Google.
Un ejemplo identificado fue el de IMS Internet Media Service, una empresa con sede en Estados Unidos y oficina en Ecuador, que, además de pautar contenido electoral en Google durante enero de 2025, también registró previamente publicidad de videos de la Agencia Nacional de Tránsito en 2023. Esta información fue obtenida a través del Centro de Transparencia Publicitaria de Google.
En plataformas como X, la desinformación ya verificada continuó circulando en cuentas de periodistas y figuras públicas, respondiendo a intereses político-partidistas que impulsaron y mantuvieron estas difusiones.
Violencia política: otro tipo de desinformación
La manipulación digital de imágenes con fines de sexualización se ha convertido en una forma emergente de violencia política en el ámbito electoral. Si bien históricamente estas tácticas se dirigían principalmente hacia candidatas mujeres, durante este proceso electoral identificamos su aplicación sin importar el género, como evidencian las imágenes alteradas que circulan en redes sociales de ambos candidatos presidenciales.
Ambos contenidos fueron detectados a partir de solicitudes de verificación realizadas por usuarios en redes sociales y WhatsApp durante la primera quincena de la campaña electoral. No se identificaron contenidos similares posteriormente. Sin embargo, la viralización de esta información manipulada representa un desafío significativo para la integridad del proceso democrático. Esto requiere respuestas efectivas tanto de las plataformas digitales como de las autoridades electorales, con el fin de identificar y combatir esta modalidad específica de desinformación, que pone en riesgo la calidad del debate público y la transparencia del proceso electoral.
Un video manipulado que circula en redes sociales afirma falsamente que la candidata presidencial de la Revolución Ciudadana, Luisa González, lleva en su vestimenta logotipos de grupos de delincuencia organizada. Las imágenes de supuestos sellos de grupos criminales son falsas y fueron editadas. Además, los estampados de la vestimenta de la candidata pertenecen a una marca de ropa deportiva.
¿Qué verificamos?
Un video viral que muestra a la candidata presidencial Luisa González supuestamente usando en su vestimenta deportiva logotipos de grupos de delincuencia organizada. El contenido sugiere que estos diseños coinciden con sellos encontrados en paquetes de droga incautados.
¿Por qué es completamente falso?
El logotipo en la vestimenta de González pertenece a Betty Designs, una marca internacional de ropa deportiva con sede en Ecuador. Las imágenes presentadas como «evidencia» son una manipulación digital.
¿Qué dice la evidencia?
El vídeo original fue publicado por Luisa González el 27 de enero de 2025 en su cuenta de TikTok durante su visita al cantón Quevedo
Una búsqueda en Google Lens confirma que los logotipos de mariposa con calavera pertenecen a la tienda de ropa deportiva «Betty Designs».
La marca tiene presencia internacional y una sede verificada en Ecuador
Las imágenes de incautaciones usadas como «evidencia» corresponden a operativos realizados en 2022, años antes del video original
Se verificó que el diseño del logo deportivo no coincide con los sellos de los paquetes incautados
Contexto importante
La candidata presidencial por la Revolución Ciudadana (RC5), Luisa González, realizó el 27 de enero de 2025 una gira de campaña por la provincia de Los Ríos, visitando los cantones Quevedo, Valencia y La Maná. Durante su recorrido, compartió en redes sociales varias publicaciones donde se la ve realizando actividades en bicicleta junto a sus simpatizantes, como parte de su campaña para las elecciones generales del 9 de febrero de 2025. Esta desinformación surge en la recta final de la campaña electoral, a una semana de los comicios presidenciales.
Conclusión
El video viral que sugiere vínculos entre la vestimenta de Luisa González y grupos delictivos ha sido manipulado digitalmente. La evidencia demuestra que los logotipos pertenecen a Betty Designs, una marca deportiva legítima, y las imágenes usadas como «prueba» fueron editadas usando fotografías no relacionadas de incautaciones anteriores.