Los chatbots y la clonación de voz impulsan el aumento de estafas basadas en la inteligencia artificial

Los chatbots y la clonación de voz impulsan el aumento de estafas basadas en la inteligencia artificial


Play all audios:


Si la persona que escucha hace preguntas, la IA tiene el potencial de crear respuestas en la voz de Hamerstone que tengan sentido para el oyente. “Es increíble verlo”, añade. “No se nota la


diferencia. Suena igual que la persona... Es mucho más difícil saber qué es real y qué es falso”. Entretenimiento Juegos de AARP Juegos y rompecabezas gratis en línea, incluidos los clásicos


de Atari See more Entretenimiento offers > ¿Y para añadir a la dificultad? Existe tecnología de fácil acceso que permite a los usuarios falsificar cualquier número: el de tu nieto, el de


tu banco, etc.   Las mismas inquietudes aplican a los mensajes escritos a través de correos electrónicos, mensajes de texto o las redes sociales, advierten los expertos. Las organizaciones


delictivas internacionales de lugares como Corea del Norte, Nigeria y Rusia suelen perpetrar estas estafas, señala Weisman, y como el inglés no siempre es su lengua materna, “la sintaxis y


la gramática eran bastante absurdas”. Sin embargo, ahora, gracias a la IA, “los estafadores tienen la habilidad de adaptar estos correos electrónicos de suplantación de identidad al inglés y


hacerlos mucho más convincentes”. “Los malhechores y ciberdelincuentes tienen ahora básicamente acceso a herramientas muy potentes”, afirma Eyal Benishti, fundador y director ejecutivo de


Ironscales, una empresa que ayuda a las organizaciones a protegerse contra la ingeniería social y las estafas de suplantación de identidad por correo electrónico. “Y esto abre una nueva era


de posibles amenazas”. INQUIETUD POR EL FUTURO A Benishti le preocupa sobre todo que, con el tiempo, los delincuentes sean capaces de utilizar una estrategia “multifacética” para perpetrar


sus estafas, que incluya la clonación de voz, los correos electrónicos generados por IA y los videos ultrafalsos. Nos ofrece un ejemplo: tu jefa te pide algo por correo electrónico, “y luego


te deja un mensaje de voz que dice: ‘Oye, ¿recibiste mi correo? Es muy urgente. Necesito con urgencia que hagas lo que te pedí’. Y… en algún momento, incluso recibirás una llamada de Zoom


en la que verás un video, y no tendrás duda alguna de que estás hablando con ella, [viendo] su cara, sus expresiones faciales.... Este tipo de enfoque multimedia es lo que más me asusta”.  


Con IA avanzada, un delincuente también podrá asignar tareas al software, explica, como “tu tarea es convencer a Christina de que transfiera dinero o dé un número de tarjeta de crédito...


Ahora ve y determina, basándote en su respuesta, cómo hacerlo”. Benishti añade que, con el tiempo, “estas cosas no solo serán más fáciles y estarán más automatizadas, sino que el volumen


aumentará de manera considerable”, hasta el punto en que, en algún momento, “no [podrás] confiar en nada de lo que te comuniquen si no es cara a cara”. ANUNCIOS FALSOS, INTELIGENCIA


ARTIFICIAL FALSA TECNOLOGÍA INTELIGENTE Cuando preguntamos a ChatGPT: “¿Se puede usar ChatGPT para estafas?”, nos respondió: “Como modelo lingüístico de IA, no tengo ninguna intención


maliciosa y no soy capaz de iniciar ninguna estafa ni actividad fraudulenta por mi cuenta. Sin embargo, al igual que con cualquier otra tecnología, siempre existe el riesgo de que personas o


grupos malintencionados me utilicen de maneras que no están previstas, como usar mis respuestas para lucrarse al engañar a las personas”.   Merece la pena jugar con un chatbot para hacerse


una idea del potencial de la tecnología (y es bastante divertido). No obstante, ten en cuenta que los ciberdelincuentes anuncian herramientas de IA en las redes sociales y los motores de


búsqueda con enlaces que descargarán programas maliciosos en tu computadora si haces clic en ellos, según una nueva advertencia de la Comisión Federal de Comercio (FTC), que lanzó la nueva


Oficina de Tecnología en febrero “para fortalecer la capacidad de la FTC de mantenerse al día sobre los desafíos tecnológicos en el mercado digital”. Algunos son sitios falsos, señala la


FTC, pero “algunos anuncios de verdad te llevan al software real y descargan el programa malicioso a través de una ‘puerta trasera’, lo que hace difícil saber que te piratearon”. Entonces,


los delincuentes podrían robarse tu información y venderla a otros piratas en la red oscura, u obtener acceso a tus cuentas en línea y estafar a otros.