
Los chatbots y la clonación de voz impulsan el aumento de estafas basadas en la inteligencia artificial
- Select a language for the TTS:
- Spanish Female
- Spanish Male
- Spanish Latin American Female
- Spanish Latin American Male
- Language selected: (auto detect) - ES
Play all audios:

Si la persona que escucha hace preguntas, la IA tiene el potencial de crear respuestas en la voz de Hamerstone que tengan sentido para el oyente. “Es increíble verlo”, añade. “No se nota la
diferencia. Suena igual que la persona... Es mucho más difícil saber qué es real y qué es falso”. Entretenimiento Juegos de AARP Juegos y rompecabezas gratis en línea, incluidos los clásicos
de Atari See more Entretenimiento offers > ¿Y para añadir a la dificultad? Existe tecnología de fácil acceso que permite a los usuarios falsificar cualquier número: el de tu nieto, el de
tu banco, etc. Las mismas inquietudes aplican a los mensajes escritos a través de correos electrónicos, mensajes de texto o las redes sociales, advierten los expertos. Las organizaciones
delictivas internacionales de lugares como Corea del Norte, Nigeria y Rusia suelen perpetrar estas estafas, señala Weisman, y como el inglés no siempre es su lengua materna, “la sintaxis y
la gramática eran bastante absurdas”. Sin embargo, ahora, gracias a la IA, “los estafadores tienen la habilidad de adaptar estos correos electrónicos de suplantación de identidad al inglés y
hacerlos mucho más convincentes”. “Los malhechores y ciberdelincuentes tienen ahora básicamente acceso a herramientas muy potentes”, afirma Eyal Benishti, fundador y director ejecutivo de
Ironscales, una empresa que ayuda a las organizaciones a protegerse contra la ingeniería social y las estafas de suplantación de identidad por correo electrónico. “Y esto abre una nueva era
de posibles amenazas”. INQUIETUD POR EL FUTURO A Benishti le preocupa sobre todo que, con el tiempo, los delincuentes sean capaces de utilizar una estrategia “multifacética” para perpetrar
sus estafas, que incluya la clonación de voz, los correos electrónicos generados por IA y los videos ultrafalsos. Nos ofrece un ejemplo: tu jefa te pide algo por correo electrónico, “y luego
te deja un mensaje de voz que dice: ‘Oye, ¿recibiste mi correo? Es muy urgente. Necesito con urgencia que hagas lo que te pedí’. Y… en algún momento, incluso recibirás una llamada de Zoom
en la que verás un video, y no tendrás duda alguna de que estás hablando con ella, [viendo] su cara, sus expresiones faciales.... Este tipo de enfoque multimedia es lo que más me asusta”.
Con IA avanzada, un delincuente también podrá asignar tareas al software, explica, como “tu tarea es convencer a Christina de que transfiera dinero o dé un número de tarjeta de crédito...
Ahora ve y determina, basándote en su respuesta, cómo hacerlo”. Benishti añade que, con el tiempo, “estas cosas no solo serán más fáciles y estarán más automatizadas, sino que el volumen
aumentará de manera considerable”, hasta el punto en que, en algún momento, “no [podrás] confiar en nada de lo que te comuniquen si no es cara a cara”. ANUNCIOS FALSOS, INTELIGENCIA
ARTIFICIAL FALSA TECNOLOGÍA INTELIGENTE Cuando preguntamos a ChatGPT: “¿Se puede usar ChatGPT para estafas?”, nos respondió: “Como modelo lingüístico de IA, no tengo ninguna intención
maliciosa y no soy capaz de iniciar ninguna estafa ni actividad fraudulenta por mi cuenta. Sin embargo, al igual que con cualquier otra tecnología, siempre existe el riesgo de que personas o
grupos malintencionados me utilicen de maneras que no están previstas, como usar mis respuestas para lucrarse al engañar a las personas”. Merece la pena jugar con un chatbot para hacerse
una idea del potencial de la tecnología (y es bastante divertido). No obstante, ten en cuenta que los ciberdelincuentes anuncian herramientas de IA en las redes sociales y los motores de
búsqueda con enlaces que descargarán programas maliciosos en tu computadora si haces clic en ellos, según una nueva advertencia de la Comisión Federal de Comercio (FTC), que lanzó la nueva
Oficina de Tecnología en febrero “para fortalecer la capacidad de la FTC de mantenerse al día sobre los desafíos tecnológicos en el mercado digital”. Algunos son sitios falsos, señala la
FTC, pero “algunos anuncios de verdad te llevan al software real y descargan el programa malicioso a través de una ‘puerta trasera’, lo que hace difícil saber que te piratearon”. Entonces,
los delincuentes podrían robarse tu información y venderla a otros piratas en la red oscura, u obtener acceso a tus cuentas en línea y estafar a otros.