Skip to main content

No, Luisa González no hizo declaraciones despectivas sobre la Sierra ecuatoriana ni habló de trasladar la Presidencia a Guayaquil

¿Qué verificamos?

Un contenido viral que asegura que durante una entrevista radial la candidata Luisa González dijo lo siguiente: «No me sorprende de la mala educación de la Sierra parece que no les enseñaron en su casa, pero en mi gobierno si les voy a enseñar, por eso también voy a trasladar a Guayaquil la Presidencia, la Sierra no se lo merece»

¿Por qué es completamente falso?

No hay evidencia en redes sociales ni en entrevistas en medios de comunicación de que González haya hecho la supuesta declaración. La entrevista original a la que se refiere el contenido viral fue realizada por La Voz de Tomebamba en Cuenca. A lo largo de los 30 minutos de transmisión, González no menciona a la Sierra ecuatoriana ni habla de trasladar la Presidencia a Guayaquil.

¿Qué dice la evidencia?

  • Una búsqueda inversa de imágenes con Google Lens reveló que la imagen difundida en la desinformación fue tomada de una entrevista del 13 de enero de 2025.
  • Durante la entrevista, Luisa González aborda propuestas de gobierno y analiza la coyuntura del país, pero en ningún momento menciona lo que señala la desinformación.
  • Durante los 30 minutos de transmisión, la candidata presidencial no habla de manera despectiva sobre la Sierra ecuatoriana ni habla de trasladar la Presidencia a Guayaquil.
  • La periodista Luna Piedra, de La Voz de Tomebamba, confirmó que González nunca hizo dichas declaraciones en el programa.

Conclusión

Luisa González nunca hizo declaraciones despectivas sobre la Sierra ecuatoriana. La entrevista original, citada en el contenido viral, se realizó en La Voz de Tomebamba en Cuenca el 13 de enero de 2025. Durante los 30 minutos de transmisión, González no menciona a la Sierra ecuatoriana ni habla de trasladar la Presidencia a Guayaquil.

#FactCheckElectoral: 6 verificaciones de los vicepresidenciables

Categoría Cierto “1 de cada 5 niños en este país tiene desnutrición crónica infantil en el Ecuador” – María José Pinto (ADN), Teleamazonas 24/03/25

Según datos de la Secretaría Técnica Ecuador Crece Sin Desnutrición Infantil, la desnutrición crónica infantil afecta a 1 de cada 5 niños y niñas menores de 2 años en Ecuador, lo que equivale al 19,3% a nivel nacional.

Con corte a junio de 2024, la desnutrición afecta a 23 de cada 100 niños, mientras que en las niñas la cifra es menor: 15 de cada 100 la padecen.

Captura de pantalla del visualizador de datos INEC

Categoría Impreciso “1% de reducción (DCI) en tan solo 10 meses” – María José Pinto (ADN), DNews 24/03/25

Aunque la desnutrición crónica infantil a nivel nacional disminuyó en el ciclo 2023-2024 en comparación con 2022-2023, la reducción en menores de dos años fue exactamente del 0,8%. Además, es importante precisar que el periodo de estudio abarcó de julio de 2023 a agosto de 2024, por lo que la reducción no ocurrió únicamente en 10 meses, ni tampoco esto corresponde al periodo de gestión de Daniel Noboa.

Si bien la tasa de desnutrición en menores de dos años bajó a nivel nacional, en las zonas rurales aumentó un 0,2%. Lo mismo ocurrió con los niños de entre dos y cinco años, donde la tasa nacional subió un 0,4%. En cuanto al total de menores de cinco años, el índice se mantuvo en 17,5% a nivel nacional.

Categoría Mayormente Cierto “En embarazo adolescente tenemos cifras muy similares a las de Haití” – María José Pinto (ADN), Teleamazonas 24/03/25

Según el más reciente estudio del Instituto Nacional de Estadísticas y Censos, en 2023 Ecuador registró 238.772 nacimientos. De estos, 1.666 fueron en madres de 10 a 14 años y 34.611 en madres de 15 a 19 años.

En 2023, se registraron 42,8 nacimientos por cada 1.000 adolescentes de 15 a 19 años en Ecuador. Comparativamente, la Organización Panamericana de la Salud (OPS) reporta que en Haití la tasa en 2024 fue de 49,3 por cada 1.000 adolescentes del mismo grupo de edad.

En Ecuador, el 14,5% del total de nacimientos en 2023 correspondió a madres adolescentes de entre 15 y 19 años. En Haití, un estudio de Plan Internacional indica que aproximadamente el 14% de las adolescentes en ese rango de edad están embarazadas o ya tienen hijos.

Categoría Mayormente Cierto “Solo en el mes de enero (hubo) 781 homicidios” – Diego Borja (RC), Radio Pichincha 23/03/25

Según los datos oficiales del Ministerio del Interior, en enero de 2025 se registraron 793 homicidios, lo que representa un aumento del 57% en comparación con el mismo mes de 2024, cuando la cifra fue de 505 muertes violentas. Las provincias costeras concentraron el 88% de los homicidios en el primer mes de 2025:

  • Guayas: 395
  • Manabí: 125
  • Los Ríos: 80
  • El Oro: 64
  • Esmeraldas: 30

Categoría Mayormente Falso “Tenemos 120 mil niños de la Costa y de la Sierra que han salido fuera de la matrícula escolar” – Diego Borja (RC), Radio Pichincha 23/03/25

Para el ciclo escolar 2024-2025 se matricularon 4.106.819, es decir, 95.979 estudiantes menos que el ciclo anterior. De ese total, hubo una disminución de 60.044 en la Costa y 35.935 en la Sierra. El total de las cifras no se acerca a los 120 mil que señala Borja. 

Según el Ministerio de Educación, la variación en el número de matrículas cada año depende de la Tasa de Crecimiento Promedio Anual (TCPA), calculada por el Instituto Nacional de Estadística y Censos (INEC). De acuerdo con estos datos, en los censos de población y vivienda, la tasa de crecimiento intercensal de la población de 3 a 17 años entre 2010 y 2022 fue de -0,05 %, lo que indica que la población en ese rango de edad crece cada vez menos. 

Por otro lado, el Ministerio de Educación mide a los estudiantes que salieron del sistema educativo por medio del “abandono escolar”. Una cifra diferente a la disminución de matrículas. Los abandonos en el ciclo 2023-2024 fueron de 72.644 estudiantes, de los cuales 37.373 fueron de la Costa, 25.768 de la Sierra, 9.482 de la Amazonía y 21 de Galápagos.

Categoría Cierto “En un país donde la inflación es del 0.3%, tenemos tasas de interés de hasta el 20%” – Diego Borja (RC), RTV Radio 24/03/25

Para febrero de 2025 la inflación anual fue de 0,25%, un 0,01% menos que en enero de este mismo año. En cuanto a las tasa de interés activas efectivas referenciales del Banco Central del Ecuador para marzo de 2025 sí hay tres tasas de más del 20%.

De acuerdo a las tasas de interés activas máximas vigentes para el sector financiero privado, público y, popular y solidario son:

  • Microcrédito Minorista – 28,23%
  • Microcrédito de acumulación simple – 24,89%
  • Microcrédito de acumulación ampliada – 22,05%

Por qué los modelos de IA ‘alucinan’ y se ‘inventan’ sus respuestas (y cómo esto puede desinformar)

(Maldita.es).- Las ‘alucinaciones’ de la IA se producen cuando un modelo genera una respuesta incorrecta, inexacta o sesgada. Esto sucede cuando no tienen información sobre el tema o malentienden la instrucción del usuario y resulta en que se ‘inventan’ hechos, citas, diagnósticos y análisis. Que una IA ‘alucine’ puede producir desinformación si no se contrastan las respuestas con fuentes fiables. Los expertos en IA consultados por Maldita.es advierten de que, de momento, no hay forma de deshacerse de ellas por completo (aunque hay formas de reducirlas). 

Como ejemplo de todo esto, hace unos días, un hombre noruego presentó una demanda contra OpenAI después de que su chatbot de IA, ChatGPTasegurara falsamente que asesinó a sus dos hijos. Este tipo de respuestas, en las que una IA se ‘inventa’ el contenido, se denominan ‘alucinaciones’. 

¿Qué son las ‘alucinaciones’ de la IA y por qué ocurren?

Los modelos de IA, concretamente los grandes modelos de lenguaje que comprenden y generan texto, producen sus respuestas prediciendo la siguiente palabra plausible según el prompt y lo aprendido durante su entrenamiento.“Cuando una IA no encuentra en los textos de entrenamiento lo que busca, se lo ‘inventa’ y, por tanto, se produce una alucinación”, explica a Maldita.es María Dolores Rodríguez, investigadora en machine learning y catedrática de la Universidad de Alcalá. 

“El modelo siempre o casi siempre lanza una respuesta que, a pesar de no ser la correcta, puede que sea la ‘más probable’”, señala a Maldita.es Manuela Delgado, ingeniera industrial y responsable de proyectos de innovación en una consultora tecnológica. 

En la investigación ‘Are we tripping? The mirage of AI Hallucinations’ (‘¿Estamos flipando? El espejismo de las alucinaciones de la IA’), los investigadores Anna Mills y Nate Angell sostienen que llamarlas ‘alucinaciones’ refuerza la idea equivocada de que la IA es consciente. En su lugar, sugieren usar ‘espejismos’: “Un espejismo de IA es un artefacto de cómo los sistemas procesan los datos de entrenamiento y las indicaciones”.

¿Cómo afectan las ‘alucinaciones’ de la IA a la desinformación?

Cuando un modelo de IA se ‘inventa’ hechos, citas, cifras y análisis o distorsiona la realidad en su respuesta, esto puede generar desinformación.“Es el principal riesgo, pudiendo generar consecuencias más graves dependiendo de dónde ocurre”, afirma Rodríguez. Delgado pone de ejemplo el sector de la salud, donde una ‘alucinación’ tiene “un riesgo muy alto”.  Las ‘alucinaciones’ también “pueden producir problemas legales y éticos si, por ejemplo, generan respuestas erróneas sobre personas, empresas o instituciones que pueden derivar en problemas legales”, agrega Delgado. 

Según los expertos consultados por Maldita.es, detectar ‘alucinaciones’ no es una tarea sencilla. La recomendación general es siempre contrastar las respuestas que genera una IA con fuentes fiables. Además prestar atención a señales como respuestas con una seguridad excesiva pero sin fuentes comprobables, datos o nombres que no existen y explicaciones que suenan bien, pero no tienen sentido.

¿Es posible evitar por completo las respuestas inventadas por la IA? 

Los expertos consultados por Maldita.es coinciden en que, de momento, no hay una fórmula para deshacerse por completo de las ‘alucinaciones’ de la IA. Pero sí se pueden tomar medidas para reducirlos. Rodríguez destaca la importancia de entrenar los modelos con datos de alta calidad y actualizados. También sugiere incorporar técnicas de verificación y razonamiento en las herramientas y permitir a los modelos citar fuentes o decir “no lo sé”, en lugar de que ‘inventen’. 

En lo que respecta a los usuarios, Delgado sugiere mejorar los prompts, por ejemplo,pidiendo explícitamente a los chatbots de IA que citen fuentes fiables con información verificada. Sin embargo, como no siempre podrán hacerlo (pueden no estar conectados a internet o equivocarse igualmente), contrarrestar la información sigue siendo clave.

*Este contenido fue tomado de la Agencia de Contenidos de Maldita.es

La sed de la inteligencia artificial: ¿cuántos litros de agua consume y cómo afecta al ambiente?

Es difícil comprender el impacto ambiental de tecnologías como la inteligencia artificial (IA). Pero la verdad es que detrás de la fabricación, instalación, entrenamiento, mantenimiento e incluso su uso, la IA tiene un efecto significativo en las fuentes de agua y en la emisión de carbono debido al alto consumo de energía.

Una botella de agua por cada 100 palabras de ChatGPT

Los centros de datos que albergan servidores de IA producen desechos de equipos eléctricos y electrónicos. Pero, no solo eso, además, consumen grandes cantidades de agua, que cada vez escasea en muchos lugares, según el Programa de las Naciones Unidas para el Medio Ambiente (UNEP). 

Los servidores de IA generan mucho calor al realizar los miles de cálculos necesarios para cada respuesta. Para evitar el sobrecalentamiento utilizan torres de refrigeración o aire exterior, que requieren una cantidad considerable de agua. La huella hídrica de la IA, que significa que es la cantidad de agua dulce que se utiliza para crear los modelos de esta tecnología, varía según su lugar de entrenamiento y alojamiento de esta tecnología. 

Por ejemplo, la IA consume entre 1,8 y 12 litros de agua por cada kWh de consumo energético. Según la Alianza Global sobre Inteligencia Artificial (GPAI, por sus siglas en inglés), la demanda mundial de IA puede incluso requerir de 4,2 a 6,6 mil millones de metros cúbicos de extracción de agua en 2027.

Agua utilizada para generar una única respuesta de IA de 100 palabras:

  • Una vez: 519 mililitros de agua, un poco más de 1 botella.
  • Una vez por semana durante un año: 27 litros aproximadamente

Consumo de agua en diferentes modelos de IA

Modelos como Grok, consume entre 10 y 50 mililitros de agua, para responder una respuesta. Google reportó un aumento del 20% en el consumo de agua de sus centros de datos en 2022, y Microsoft (que soporta a OpenAI) un 34%, lo que sugiere que los modelos más grandes o con mayor uso tienen una huella hídrica mayor por consulta.

La energía que demanda la IA

Pero los centros de datos de IA requieren más que agua: energía. Mucha que proviene de la quema de combustibles fósiles, lo que produce gases de efecto invernadero que calientan el planeta. Una pregunta realizada con ChatGPT consume 10 veces la electricidad de una búsqueda de Google, informó la Agencia Internacional de la Energía (AIE).

Energía utilizada para generar una única respuesta de IA de 100 palabras:

  • Una vez: 0,14 kilovatios-hora (kWh) de electricidad, lo que equivale a alimentar 14 bombillas LED durante 1 hora.
  • Una vez por semana durante un año: 7,5 kWh, equivalente a la electricidad consumida por 9,3 hogares de Washington, DC durante 1 hora.

Según un artículo del periódico The Washington Post, en zonas donde se encuentran los centros de datos de la IA y la energía es más barata o el agua escasea, se suele usar electricidad para enfriar las computadoras mediante grandes unidades similares a los aires acondicionados. La fórmula es la misma: se consume grandes cantidades de agua o se gasta energía.

Preocupación en zonas que albergan centros de datos

El gigante tecnológico Google anunció en septiembre de 2024 que reformulará su proyecto de 200 millones de dólares para construir un centro de datos en la comuna periférica Cerrillos, en Santiago de Chile, tras las preocupaciones por su impacto ambiental. La decisión ocurre después de que un tribunal ambiental chileno alertó sobre impactos al medioambiente y determinó que el proyecto necesitaría al menos 7,6 millones de litros de agua al día para refrigerar los servidores. Una cantidad desproporcionada, especialmente en un contexto de sequía que ha afectado a Santiago durante los últimos 15 años.

Este caso refleja un desafío global: ¿cómo equilibrar el crecimiento de la inteligencia artificial con la sostenibilidad ambiental? La respuesta a esta pregunta será clave en los próximos años.

Luisa González no prometió el regreso de Rafael Correa en un mitin

¿Qué verificamos?

Un video viral en el que se escucha a la candidata presidencial por la Revolución Ciudadana, Luisa González, decir que traerá de vuelta al expresidente, Rafael Correa para que gobierne Ecuador por «20 años más».

¿Por qué es completamente falso?

El video original pertenece al evento de lanzamiento de su campaña el pasado 5 de enero, en Quito. En su discurso, Luisa González habló sobre “revivir” al Ecuador y criticó las “malas administraciones”, pero no mencionó el regreso de Correa.

¿Qué dice la evidencia? 

  • El video original fue grabado el 5 de enero de 2025, durante el lanzamiento de su campaña en el Coliseo de Calderón, al norte de Quito. 
  • Durante el evento, González no mencionó que traerá de vuelta a Rafael Correa para que gobierne 20 años más, ni insultó al presidente-candidato Daniel Noboa.
  • Sobre este tema: En una entrevista el 15 de junio de 2023 con la periodista cubana Alondra Santiago, en su canal de YouTube IngoEC, González aseguró que “lo que Correa busca es bienestar para su país y no indultos, porque la justicia se hará cargo de él”. 
  • Tras revisar entrevistas recientes de González, no encontramos evidencia de que haya dicho exactamente las palabras que se le atribuyen en el video viral.

Contexto importante

El 15 de enero de 2025, Lupa Media verificó este mismo video, que había sido manipulado anteriormente para hacer creer que la candidata apoyaba a Nicolás Maduro y lo reconocía como el “legítimo presidente de Venezuela”.

Un análisis con el programa True Media confirmó que el video viral tenía un 51% de probabilidad de manipulación en el contenido visual y un 71% en el audio. 

Luisa González también desmintió la veracidad del video a través de sus redes sociales.

Conclusión

El video viral que afirma que Luisa González dijo en un mitin político que quiere traer de vuelta a Rafael Correa es completamente falso. El video original corresponde al lanzamiento de su campaña en Quito, donde la candidata habló sobre “revivir al Ecuador”. Lupa Media ya verificó este material, pero con otras declaraciones falsas, y confirmó que fue manipulado.

Video manipulado con IA difunde desinformación sobre supuesto bloqueo de desembolso del FMI a Ecuador

¿Qué verificamos?

La autenticidad del contenido del noticiero “N+Foro”, que afirma que el Fondo Monetario Internacional (FMI) bloqueó un desembolso a Ecuador por uso indebido de fondos. 

¿Por qué es completamente falso?

El contenido del noticiero “N+Foro” fue manipulado con inteligencia artificial. Además, no hay registro de ningún anuncio del FMI que confirme el bloqueo de un desembolso a Ecuador.

¿Qué dice la evidencia?

  • El video original del noticiero “N+Foro” fue publicado el 20 de marzo de 2025, e informa sobre la solicitud de retiro del fuero al diputado mexicano Cuauhtémoc Blanco, acusado de presunta violación.  
  • Un análisis visual de deepfake identificó alteraciones en la sincronización de labios del presentador, lo que confirma el uso de inteligencia artificial para alterar el contenido.
  • Las principales barras informativas del video original y el manipulado no coinciden. El video falso titula “FMI bloquea desembolso a Ecuador por uso indebido de fondos en campaña de Noboa” y el original dice: “Sección instructora no aprueba desafuero de Cuauhtémoc Blanco; pasa al pleno”. 
  • El contenido falso  muestra  una diferencia en la tipografía de las barras informativas, en comparación con el video original. También elimina las barras secundarias en el resto del video. 
  • El video falso muestra imágenes del FMI, dinero, Daniel Noboa y gráficos usurpados de Ecuavisa, mientras que el original presenta solo imágenes del exterior de la Cámara de Diputados de México.
  • En la página web del FMI y en sus redes sociales no se encontró ninguna información relacionada con el bloqueo de un desembolso a Ecuador por un supuesto mal uso de fondos.

Contexto 

El FMI señaló que la revisión del programa de crédito con Ecuador se realizará después de las elecciones presidenciales del próximo 13 de abril, según información del medio digital Primicias. Tras esta nueva revisión, Ecuador espera recibir un desembolso de USD 410 millones, como parte de un programa de crédito total de USD 4,000 millones, firmado en abril de 2024 por el presidente Daniel Noboa. 

Conclusión

La noticia original de «N+ Foro» fue alterada con inteligencia artificial para crear un contenido falso. Las modificaciones incluyen la sustitución de información, alteración de imágenes y la manipulación de la sincronización de los labios del presentador. El FMI no ha anunciado ningún bloqueo de desembolso para Ecuador debido a un supuesto uso proselitista de fondos. El reportaje original, publicado el 20 de marzo de 2025, trataba sobre la solicitud de retiro del fuero al diputado mexicano Cuauhtémoc Blanco, acusado de presunta violación.

Lo que Chito Vera nunca dijo sobre el consumo de drogas, ni Ecuavisa lo publicó

¿Qué verificamos?

Una publicación atribuida a Ecuavisa que difunde unas supuestas declaraciones del peleador ecuatoriano de artes marciales mixtas, Chito Vera, en las que habría dicho: “Yo fumo hierba, pero a ese man le encanta la coca”, en referencia al presidente-candidato Daniel Noboa.

¿Por qué es completamente falso?

No hay evidencia de que Vera emitiera esa declaración y tampoco que lo haya hecho para el medio de comunicación Ecuavisa. La cadena de televisión desmintió en sus redes sociales la autenticidad de la publicación. 

¿Qué dice la evidencia?

  • Al buscar palabras clave en Google y redes sociales, no encontramos ningún  registro de la supuesta afirmación de Vera. 
  • Tampoco hay evidencia en los medios oficiales de Chito Vera que confirmen dicha declaración.
  • La publicación viral suplanta la identidad del medio de comunicación “Ecuavisa”.
  • Ecuavisa anunció en sus redes sociales que la publicación es falsa y que no corresponde al medio.
  • Aunque el diseño de la publicación  es similar—en colores y estilo— al que publica el medio en sus redes sociales, hay ciertas inconsistencias. 
  • La publicación falsa tiene tonalidades más oscuras que las que utiliza el medio al  publicar declaraciones o frases de personajes relevantes o políticos. 
  • La tipografía que utiliza la desinformación también es diferente a la que emplea Ecuavisa en este tipo de publicaciones.

Contexto importante

La desinformación surge a vísperas de la segunda vuelta electoral, del próximo 13 de abril.La ciudadanía elegirá a su próximo presidente para los siguientes cuatro años. El deportista ecuatoriano, Chito Vera ha mostrado su cercanía con el presidente Noboa. De hecho, el pasado 23 de marzo, día del debate presidencial, Daniel Noboa hizo pública la iniciativa de otorgar 100 mil becas para aprender inglés. Dicha publicación incluso fue reposteada por Chito Vera en su red social de X. 

Noboa se enfrenta a la candidata por la Revolución Ciudadana, Luisa González, en una contienda bastante ajustada. En la primera vuelta, la diferencia entre ambos fue de apenas el 0,17% de los votos. 

Conclusión

COMPLETAMENTE FALSO: No hay evidencia de que el deportista ecuatoriano Chito Vera se haya referido a una supuesta adicción del presidente Daniel Noboa y que Ecuavisa lo publicara. El mismo medio desmintió en sus redes sociales que la publicación fuera real. 

El falso comunicado del colectivo «TDHA» en Ecuador

¿Qué verificamos?

Si el colectivo «Viviendo y sobreviviendo con TDAH, un día a la vez» existe y publicó un comunicado en el que condenó las declaraciones de la candidata de la Revolución Ciudadana, Luisa González, sobre el déficit de atención.

¿Por qué es completamente falso?

Lupa Media no encontró registros oficiales previos del colectivo que, en su comunicado, se presenta como una organización civil con siete años de trayectoria en Ecuador.

¿Qué dice la evidencia? 

  • No existe registro del colectivo «Viviendo y sobreviviendo con TDAH, un día a la vez» en el Sistema Unificado de Información de las Organizaciones Sociales (SUIOS).
  • Al revisar la página de Facebook de TDAH Ecuador, encontramos que fue una página creada con el nombre Doble A en julio de 2015, pero apenas el 25 de marzo de 2025, adoptó el nombre TDAH Ecuador, dos días después del debate presidencial.
  • La página tiene publicaciones relacionadas al TDAH desde antes del 25 de marzo, pero en realidad todas fueron publicadas ese día, como se muestra con las herramientas de transparencia de Meta.
  • Las siglas del logo del colectivo son incorrectas: aparece «TDHA» en lugar de «TDAH», que corresponde a la forma correcta de Trastorno por Déficit de Atención con Hiperactividad. Este error se encuentra tanto en el comunicado como en la página de Facebook.
  • Estos errores también se presentan en el supuesto comunicado difundido sin firma de representación legal. Sin embargo, en redes sociales circula un video en el que una mujer identificada como María Castro dice ser su representante.
  • Lupa Media no pudo contactar a María Castro ni encontró evidencia confiable de que dirija la organización TDAH Ecuador. Además, otras entidades vinculadas a este diagnóstico con las que nos comunicamos tampoco pudieron confirmar su existencia ni la de su supuesta organización.

Durante el segundo debate presidencial de las Elecciones Generales 2025, la candidata Luisa González dirigió un comentario a Daniel Noboa: «Y tu déficit de atención no es mi problema, queridito». Estas palabras generaron reacciones de cuatro organizaciones de pacientes con TDAH

  • El colectivo Mapas Extraordinarios (Madres, padres y familias de personas con Trastorno del Espectro Autista y otras condiciones neurodivergentes) dirigieron una carta a Luisa González rechazando el uso político de esta condición neurológica.
  • Niños con TDAH en Ecuador” expresó su rechazo al uso del término “déficit de atención” como descalificación en el debate presidencial. Además, aseguraron a Lupa Media que no tienen conocimiento de un colectivo llamado TDHA Ecuador.
  • El “Grupo de Apoyo TDAH ECUADOR”, dirigido por Verónica Jiménez, declaró en un post de Facebook que llevan 21 años de trayectoria y nunca habían escuchado sobre «TDAH en Ecuador». También rechazaron el uso del TDAH en discursos políticos y pidieron que no se utilice el nombre de su organización con fines ajenos a su misión.
  • También lo hizo la asociación de padres y amigos para el apoyo y defensa de los derechos de las personas con autismo (APADA).

Datos clave sobre el TDAH

El trastorno por déficit de atención e hiperactividad (TDAH) es uno de los trastornos neuroconductuales más comunes en la infancia. Suele diagnosticarse en la niñez y, en muchos casos, persiste hasta la edad adulta, según el Centers for Disease Control and Prevention (CDC). 

Según la Organización Mundial de la Salud (OMS), más del 4% de la población mundial tiene TDAH, el 3.1% de los adolescentes de entre 10 a 14 años y el 2.4% de los de entre 15 a 19 años tienen un trastorno por déficit de atención con hiperactividad, que se caracteriza por la dificultad para mantener la atención, un exceso de actividad y conductas impulsivas. Los trastornos del comportamiento son más frecuentes entre los adolescentes jóvenes que entre los de más edad.

Conclusión

La evidencia disponible indica que el comunicado viral que afirma que el colectivo «Viviendo y sobreviviendo con TDAH, un día a la vez» rechazó la discriminación de Luisa González durante el debate es completamente falso. Lupa Media no encontró registros oficiales previos de este grupo que respalden su existencia, y halló inconsistencias que ponen en duda su autenticidad.

El audio falso de Jan Topic diciendo que apoyará a Luisa González

¿Qué verificamos?

Circula un contenido viral en el que se escucha al excandidato presidencial Jan Topic afirmando que apoyará a la candidata Luisa González.

¿Por qué es completamente falso?

No hay evidencia que el audio sea real ni de que la voz pertenezca a Jan Topic. Análisis de detección de audio revelan una alta probabilidad de que la voz que se escucha fue creada con inteligencia artificial. 

¿Qué dice la evidencia?

  • No existe evidencia ni registro de que Jan Topic anunciara su apoyo a favor de la candidata por la Revolución Ciudadana, Luisa González. 
  • Usamos la herramienta DeepFake-O-Meter para analizar el audio viral. La plataforma arrojó que existe una probabilidad de entre el 99,6% al 100% de que el contenido fue generado con inteligencia artificial.
  • El análisis de la plataforma está basado en un aprendizaje profundo para la detección de audios creados con IA. Los detectores permiten identificar audios y posibles suplantaciones de voz. 
  • Otro análisis hecho con la plataforma Resemble.Ai, que permite, al igual que la otra herramienta, identificar contenidos de audio creados con inteligencia artificial. Determino inconsistencias en el inconsistencias en el timbre y tono de voz, la entonación, ritmos, pausas, ausencia de respiraciones, entre otros aspectos más que hacen concluir que «basado en el perfil acústico y la comparación forense de voz, se determinó que el archivo de audio analizado fue generado completamente mediante inteligencia artificial».
  • El equipo de Topic remitió a Lupa Media dos análisis hechos al audio que también concluyen una alta probabilidad de haber sido creado con IA.

Contexto importante

Jan Topic fue descalificado por el Tribunal Contencioso Electoral (TCE) como candidato presidencial para las elecciones de 2025 debido a conflictos de interés relacionados con sus vínculos empresariales con el Estado. Aunque Topic recurrió a la Corte Constitucional para revertir la decisión, su solicitud no fue admitida, lo que confirmó su imposibilidad de participar en los comicios de 2025.

El contenido desinformativo se da en medio de la contienda electoral donde Daniel Noboa y Luisa González disputan la presidencia del país. El próximo 13 de abril los ecuatorianos decidirán quién se convertirá en la figura política más importante de Ecuador. 

Conclusión

COMPLETAMENTE FALSO: No hay evidencia que el audio viral sea real y que la voz pertenezca a Jan Topic. Análisis de detección de audio demuestran que el contenido viral fue creado con inteligencia artificial. 


Es falso que un noticiero internacional difundió un reportaje sobre el debate entre González y Noboa

¿Qué verificamos?

Un reportaje atribuido a Radiotelevisión Española (RTVE) y Alicantv que presenta un resumen del debate presidencial entre la candidata de la Revolución Ciudadana, Luisa González, y el candidato por ADN, Daniel Noboa. 

¿Por qué es completamente falso?

El supuesto reportaje atribuido a RTVE y Alicantv fue manipulado con inteligencia artificial. No hay evidencia de que el canal de televisión español haya publicado un reportaje sobre el debate presidencial de las elecciones de segunda vuelta en Ecuador. Tampoco hay registro de la existencia de un medio llamado Alicantv. 

¿Qué dice la evidencia? 

  • El video viral usurpa la imagen del periodista de RTVE, Lluís Guilera, para manipular la información.
  • Un análisis determinó con un 99.9% de confianza que los primeros 15 segundos del video, en los que habla el presentador Guilera, fueron generados con inteligencia artificial. 
  • El audio del reportaje tiene un 85.5% de probabilidad de haber sido creado con IA.
  • El contenido manipulado muestra a Guilera, presentando un falso reportaje, en el que su voz es alterada para afirmar que algunas declaraciones de Noboa en el debate generan más dudas que certezas.
  • El banner del supuesto reportaje, con fondo blanco y letra azules, no coincide con la línea gráfica de RTVE, que utiliza una claqueta roja con blanca. 

Contexto importante

El debate presidencial de la segunda vuelta electoral entre el presidente candidato, Daniel Noboa, y la representante de la Revolución Ciudadana, Luisa González, fue el domingo 23 de marzo. 

Lupa Media identificó un total de 35 afirmaciones verificables durante el encuentro, de las cuales 29 ya han sido analizadas. En el caso de González, el 37,5% de sus afirmaciones verificables fueron ciertas o parcialmente ciertas, mientras que el 62,5% fueron imprecisas o falsas. Mientras que Noboa tuvo un 45,45% de afirmaciones verificables entre ciertas y parcialmente ciertas, mientras que el 54,55% fueron imprecisas, falsas y no verificables.

Conclusión

COMPLETAMENTE FALSO: El reportaje atribuido a RTVE y Alicantv sobre el debate entre González y Noboa fue manipulado con inteligencia artificial. No hay evidencia de que el canal de televisión español haya publicado un reportaje sobre el debate presidencial de las elecciones de segunda vuelta en Ecuador y tampoco hay registro de la existencia de un medio de comunicación llamado Alicantv.