More
    InicioViolenciaNueva Forma de Fraude: Usan IA para clonar voces de familiares

    Nueva Forma de Fraude: Usan IA para clonar voces de familiares

    La tecnología de Inteligencia Artificial (IA) se ha convertido en una herramienta para extorsionadores que clonan voces de familiares para pedir dinero de forma fraudulenta. Un video compartido en redes muestra cómo un joven en México recibió mensajes de voz en WhatsApp, aparentemente de su madre, solicitando un depósito urgente de 3,000 pesos. Sin embargo, la madre estaba presente con él al momento del mensaje, revelando la farsa.

    En los audios, una voz idéntica a la de su madre insiste en que necesita el dinero de inmediato, diciendo “no te preocupes, yo llegando a casa te explico”. El joven, sin caer en la trampa, continuó la conversación, alertando sobre el fuerte impacto psicológico que genera oír la voz de un ser querido en situaciones de riesgo.

    Esta modalidad ha generado preocupación entre usuarios, quienes advierten estar alerta ante posibles extorsiones por mensajes que involucren voces de familiares. Autoridades recomiendan confirmar la autenticidad de los mensajes y no responder a peticiones sospechosas.

    Must Read

    spot_img
    spot_img