• Recomiendan establecer códigos de seguridad
Manuela V. Carmona
Orizaba, Ver., 25 de febrero del 2025.- El uso de Inteligencia Artificial (IA) en fraudes ha ido en aumento, con estafadores que clonan voces y videos para engañar a sus víctimas.
Ante esta situación, la doctora en educación Mariela Beatriz Terán Morales recomendó a las familias establecer «códigos de seguridad» que permitan verificar la autenticidad de las comunicaciones y evitar ser víctimas de engaños.
En entrevista, Terán Morales explicó que las llamadas fraudulentas generadas con IA están en crecimiento, por lo que es fundamental que las familias creen palabras o frases clave que solo sus miembros conozcan. Estos códigos deben ser compartidos únicamente entre personas de confianza y no divulgarse a terceros.
“Podemos protegernos creando códigos muy personales con nuestra familia. Por ejemplo, que mi mamá sepa algo que nadie más conozca, o establecer una palabra clave que solo nosotros entendamos. Podría ser algo como preguntar ‘¿cuál es tu fruta favorita?’ y la respuesta podría ser algo inesperado, como ‘sandía amarilla’”, detalló.
Advirtió que los estafadores están utilizando la IA para imitar voces y videos de personas conocidas, con el objetivo de solicitar dinero o información confidencial. “Es importante tener esa previsión de que no cualquier persona nos va a pedir dinero o datos personales. Debemos confiar, pero también protegernos”, agregó.
Finalmente, exhortó a las familias a no subestimar el uso malintencionado de la tecnología y a tomar medidas preventivas. “Establecer códigos de seguridad es una forma sencilla pero efectiva de proteger a nuestros seres queridos y evitar caer en trampas”, concluyó.