by Dan Holmes
5minutos • Inteligencia artificial/Tecnología • abril 21, 2025
Fraude Impulsado por IA: Cómo los Criminales Están Usando IA para Estafarte
¿Cuánto aman los criminales usar la IA para el fraude? Deje que LoveGPT —un programa malicioso que ayuda a los criminales a cometer estafas románticas— cuente las maneras.
LoveGPT se encuentra entre las últimas herramientas de fraude impulsadas por IA que los criminales han adoptado. Sigue al lanzamiento de programas maliciosos similares como FraudGPT y WormGPT. LoveGPT es tan preocupante porque fue construido para impulsar un tipo específico de fraude: una táctica de largo alcance que frecuentemente ve volúmenes más altos de pagos que explotan la confianza de las víctimas. Los estafadores románticos ya no tienen que preocuparse por recordar detalles al manejar diferentes esquemas digitales.
El auge de estos programas maliciosos muestra cómo la IA está empoderando una nueva era de ataques de fraude altamente sofisticados. Imagine un mundo donde los correos electrónicos de phishing se mezclan perfectamente entre sus mensajes legítimos, descartando inmediatamente los esfuerzos de educación de los bancos que han pasado años informando a los consumidores para que estén atentos a los errores gramaticales y lingüísticos. Donde los deepfakes pueden usarse para hacerse pasar por sus seres queridos o su jefe. O donde los criminales simplemente pueden crear una identidad falsa altamente realista con solo unos pocos clics.
Cómo la IA Está Potenciando los Ataques de Phishing
La verdad es que no tenemos que imaginar este mundo. Ya está aquí. Los criminales no solo están inventando rápidamente nuevos fraudes impulsados por IA, sino que también están haciendo que los familiares sean aún más efectivos.
Tomemos los ataques de phishing, por ejemplo. La investigación de Feedzai encontró que las estafas por SMS y phishing son las formas más comunes en que los criminales utilizan ataques basados en IA generativa. Los criminales pueden escribir instantáneamente mensajes de phishing que son gramaticalmente correctos, nítidamente escritos y sin errores, lo que los hace más creíbles y convincentes.
Tendencias de IA en la prevención del fraude y los delitos financieros en 2025
Las instituciones financieras de todo el mundo están adoptando la IA a un ritmo rápido. La IA es ahora una […]
¿Qué significa esto? Primero, los ataques de phishing ahora son más escalables que nunca, lo que reduce la barrera de entrada y permite que los malos actores lancen una red más amplia. Segundo, los ataques se vuelven más valiosos. Si un estafador envía aproximadamente 10,000 correos electrónicos de phishing y obtiene 100 respuestas, logra una tasa de éxito del 1%. Ven un retorno de la inversión más sustancial y están armados con más credenciales de consumidores, que pueden atacar posteriormente.
Deepfakes y Clonación de Voz: La Nueva Cara del Fraude
La clonación de voz es otra de las principales preocupaciones. Personalmente he aparecido en numerosos videos y entrevistas, lo que les da a los estafadores mucho material para hacer un deepfake convincente de mi identidad. Las redes sociales proporcionan un tesoro de medios para que los estafadores recopilen y manipulen. Los malos actores pueden clonar fácilmente la voz de un ser querido y fingir estar con dolor o problemas legales, asustando a familiares desprevenidos para que les envíen dinero.
Piénselo de esta manera: si se vuelve más fácil y más probable que estas estafas impulsadas por IA realmente funcionen, es probable que más personas lo intenten. La GenAI esencialmente está reduciendo los obstáculos para las estafas y, al mismo tiempo, aumentando las recompensas, lo que atrae a aún más jugadores al juego del fraude y las estafas. Esto eleva las ya serias implicaciones del fraude impulsado por IA.
A medida que los estafadores aprovechan las sofisticadas herramientas de GenAI, sus tasas de éxito aumentarán, lo que significa que los bancos pueden esperar enfrentar un aumento en las transacciones fraudulentas contra las que defenderse. Por lo tanto, las instituciones financieras deben asegurarse de que pueden escalar sus capacidades de detección de fraude para gestionar esta avalancha de ataques.
Contraataque: Cómo los Bancos y las Empresas Pueden Detener el Fraude Impulsado por IA
Educar a los consumidores sobre cómo las estafas están evolucionando para imitar figuras conocidas o de confianza es un paso. Enseñe a los consumidores factores importantes para descubrir un video, imagen o grabación deepfake. Para evitar sucumbir a una estafa de clonación de voz, por ejemplo, los familiares podrían establecer una contraseña secreta para confirmar la identidad de la persona al otro lado del teléfono antes de realizar una transacción.
Pero a medida que la tecnología mejora, estos esfuerzos educativos no serán suficientes. La investigación de Feedzai 2025 AI Trends in Fraud and Financial Crime Prevention muestra que el 60% de las instituciones financieras cree que los delincuentes están utilizando IA avanzada para la clonación de voz y otras estafas de suplantación de identidad. Se necesitará IA para combatir la IA.
Los bancos deben realizar sus propias inversiones en IA para encontrar el fraude antes, mejorar la eficiencia operativa e invertir en herramientas como la orquestación de datos que permitan respuestas más rápidas al fraude. Observe a sus socios tecnológicos y pregunte cómo están innovando y cómo planean ayudar a proteger a su organización de estos riesgos. Con el auge de la IA para el fraude, es esencial saber cómo sus proveedores están investigando y desarrollando sus propias herramientas impulsadas por IA.
Los delincuentes no esperan permiso para innovar. Cada vez más están incorporando la IA a su estrategia de ataque de fraude. Los bancos deben igualar estos esfuerzos lanzando sus laboratorios de innovación y considerar agregar capacidades de GenAI a sus ecosistemas y soluciones de fraude existentes. Igualmente importante, deben exigir el mismo estándar a sus socios tecnológicos, exigiendo el mismo nivel de ingenio basado en IA de sus acuerdos de servicio.
- Blog: What is a Deepfake and How Do They Impact Fraud?
- Recurso: Cumplimiento normativo de la nube para bancos latinoamericanos
- Hoja de Solución: Feedzai as a Service
- Solución: ScamAlert: Use GenerativeAI to Stop Scams
Toda la experiencia y los conocimientos provienen de Feedzianos humanos, pero podemos aprovechar la inteligencia artificial para mejorar la redacción o la eficiencia. Le damos la bienvenida al futuro.