La inteligencia artificial ha dejado de ser una herramienta auxiliar para convertirse en el eje central del combate al fraude digital financiero en México, ante este panorama empresas como Jumio y Círculo de Crédito están implementando modelos avanzados de IA y sistemas biométricos capaces de detectar identidades sintéticas, documentos falsificados y suplantaciones sofisticadas.
En entrevista con Mobile Time, Martín Ayarzagoitia, Chief API Officer de Círculo de Crédito, y Pilar Pereira, gerente de alianzas estratégicas de Jumio, explicaron cómo la biometría avanzada y los nuevos modelos de IA están transformando la detección de fraude en el ecosistema financiero nacional.
Ambos coincidieron en que el país atraviesa una etapa de transición: las instituciones financieras están pasando de enfrentar fraudes locales a contener ataques provenientes de redes globales que utilizan deepfakes, inyecciones en cámara, máscaras virtuales y agentes automatizados.
“Solo la inteligencia artificial es capaz de identificar a la inteligencia artificial utilizada para el fraude”, coincidieron los especialistas.
México: un ecosistema alerta, pero con regulación pendiente

“El tema biométrico en la región aún no está regulado como debería. Existen proyectos de ley, pero es urgente que avancen más rápido”, subrayó.
Ayarzagoitia coincidió en que el país debe acelerar la consolidación de un marco regulatorio específico para los datos biométricos, ya que la sofisticación de los ataques aumenta de manera exponencial.
En ese sentido, los expertos advirtieron que, además de la suplantación de identidad, el phishing y el fraude de primera persona -cuando un usuario proporciona información falsa para obtener crédito- continúan entre los principales vectores de ataque.
“Todos los usuarios son potenciales víctimas. La clave está en la capacitación y la educación digital. Los bancos no envían correos solicitando actualización de datos, pero muchos usuarios todavía caen en esos fraudes”, enfatizó Ayarzagoitia.
Pruebas de vida avanzadas y detección de deepfakes
Pereira detalló que una de las tecnologías más efectivas actualmente es la prueba de vida avanzada (liveness premium), que utiliza inteligencia artificial para determinar si una persona frente a la cámara es real o una simulación digital.
El sistema es capaz de detectar deepfakes, máscaras o inyecciones virtuales gracias a algoritmos entrenados para analizar profundidad, textura y microexpresiones. Ello permite diferenciar entre una identidad auténtica y una falsificada.
De acuerdo con la vocera de Jumio, este tipo de soluciones requieren inversión constante en infraestructura de IA, pues los modelos deben actualizarse de forma continua ante cada nueva técnica de fraude digital.
Agentes de IA vs. IA: el nuevo frente del fraude digital
En cuanto a lo que le depara a las fintech, Pereira dijo que el siguiente desafío para el ecosistema financiero mexicano será la irrupción de agentes autónomos de IA capaces de ejecutar tareas complejas, como realizar pagos, reservar servicios o interactuar con plataformas financieras, sin supervisión humana.
Ayarzagoitia explicó que estos agentes pueden representar legítimamente a una persona, pero también pueden ser replicados o manipulados por otros algoritmos con fines maliciosos. “El reto será distinguir cuándo una acción proviene de un agente autorizado y cuándo de uno fraudulento. Estamos entrando en una etapa donde la IA tendrá que validar a otra IA”, advirtió.
Este fenómeno plantea un nuevo tipo de confrontación digital: IA contra IA. Por un lado, las instituciones financieras entrenan modelos defensivos para identificar patrones irregulares y comportamientos automatizados; por otro, los defraudadores desarrollan sistemas cada vez más sofisticados capaces de imitar interacciones humanas, generar documentos realistas o explotar vulnerabilidades en APIs.
Pereira añadió que el surgimiento de estos agentes generativos implica también un debate ético sobre la autonomía algorítmica y la responsabilidad legal. “Cuando un asistente financiero de IA actúe en nombre de un cliente, ¿quién será responsable si comete un error o si alguien suplanta a ese agente? Esa será la siguiente gran discusión regulatoria”, indicó.
Ambos especialistas coincidieron en que el ecosistema mexicano debe prepararse para ese escenario mediante infraestructura interoperable, estándares de autenticación continua y colaboración entre fintech, bancos, reguladores y proveedores tecnológicos.
Prevención desde el diseño
Ayarzagoitia explicó que los modelos de lenguaje de gran tamaño (LLM) ofrecen una trazabilidad superior frente a redes neuronales tradicionales, al permitir identificar los criterios que llevan a una IA a una conclusión determinada.
Esto mejora la capacidad de auditoría y reduce el riesgo de sesgos algorítmicos. Por su parte, Pereira agregó que la portabilidad y reusabilidad de la identidad digital serán claves en el futuro inmediato: los usuarios deberán poder decidir cómo y para qué se utilizan sus datos, así como ejercer su derecho a eliminarlos.
Para las fintech que buscan fortalecer sus procesos sin elevar significativamente sus costos, Ayarzagoitia recomendó adoptar un enfoque de prevención del fraude digital desde el diseño. “No se trata de aplicar todos los controles posibles, sino de entender la naturaleza de cada negocio y anticipar los riesgos desde la concepción del producto”, señaló.
La imagen principal fue creada por Mobile Time con IA.


