En Soliradio.com producimos podcasts y contenidos digitales, que distribuimos a través de nuestras redes sociales y nuestros canales en YouTube y Spotify. Llegamos a más de 350 mil personas, una amplia comunidad digital en la Comarca Lagunera de la que forman parte más de 60 mil tomadores de decisiones.
telegramtik tokinstagram logo

Buscar

telegramtik tokinstagram logo
campaña aceveone
campaña aceveone

¡Alerta! Ya se están usando deepfakes de voz para estafar

deepfakes de voz

¿Has escuchado a hablar de las estafas que se realizan gracias a una inteligencia que puede imitar voces de personales reales? Son deepfakes de voz, ¡ten cuidado! porque cada vez hay más víctimas de este tipo de robo. 

¿Qué son los deepfakes de voz?

Primero, te explicamos que son los deepfakes de voz: son un tipo de medios sintéticos que utilizan inteligencia artificial (IA) y técnicas de aprendizaje profundo, particularmente redes generativas adversarias (GAN), para crear contenido de audio realista, pero completamente fabricado.

Estos clips de audio generados por IA suelen implicar la sustitución de la voz de la persona original por la de otra persona o personaje, lo que a menudo da como resultado un contenido muy convincente y engañoso.

Aquí hay algunos puntos clave sobre los deepfakes de voz:

  • Proceso de generación: los deepfakes de voz se crean entrenando un modelo de aprendizaje profundo en un gran conjunto de datos de grabaciones de audio de la persona objetivo. El modelo aprende a imitar las características vocales del individuo objetivo.
  • Usos: si bien la tecnología deepfake tiene aplicaciones legítimas y creativas en campos como el entretenimiento y los efectos visuales, también ha generado importantes preocupaciones debido a su potencial de uso indebido. Algunos usos comunes de los deepfakes incluyen imitaciones de celebridades, creación de noticias falsas convincentes o videos de propaganda y producción de contenido para adultos con audios prefabricados de voces de personas sin su consentimiento.
  • Preocupaciones éticas y legales: los deepfakes han provocado debates éticos sobre la privacidad, el consentimiento y la difusión de desinformación. Pueden utilizarse para manipular la opinión pública, difundir información falsa y dañar la reputación de personas u organizaciones.
  • Detección y contramedidas: detectar deepfakes puede ser un desafío, pero los investigadores y las empresas de tecnología están trabajando en el desarrollo de herramientas y técnicas basadas en inteligencia artificial para identificar dicho contenido. Estos incluyen analizar inconsistencias en expresiones faciales, artefactos o movimientos antinaturales.
  • Regulación: algunos países han comenzado a implementar regulaciones para abordar el daño potencial causado por los deepfakes de vozz. Estas regulaciones varían, pero a menudo se centran en cuestiones como el uso no autorizado de la imagen de alguien o la difusión de información errónea dañina.
  • Conciencia y alfabetización mediática: promover la alfabetización y la alfabetización mediática es un aspecto esencial para contrarrestar el impacto negativo de los deepfakes. Educar al público sobre la existencia y los riesgos asociados con la tecnología deepfake puede ayudar a las personas a convertirse en consumidores más exigentes de contenido en línea.
  • Desarrollo continuo: la tecnología deepfake continúa avanzando, haciéndola más accesible y fácil de usar. Esta rápida evolución presenta un desafío continuo para la sociedad en términos de combatir su uso indebido.

Es importante tener cuidado al encontrar contenido en línea y verificar la autenticidad de la información, especialmente en esta era de tecnología deepfake cada vez más sofisticada.

Deepfake de voz: imitan voces de allegados para estafar

Actualmente, los deepfakes de voz se han puesto a la merced de los estafadores, pues recientemente se han presentado casos donde se realizan llamadas con técnicas sofisticadas que imitan la voz de persona de conocidos o allegados que solicitan dinero para salir de un apuro, así mismo se realizan llamadas a los bancos para aprobar transferencias o algún otro trámite simulando la voz del titular. 

Para ser victima de alguna estafa por imitación de voz, conoce más sobre esta nueva manera de estafar y avisa a familiares, amigos o compañeros de trabajo que estén atentos y si reciben una llamada donde a través de tu voz se les solicite dinero, cuelguen y verifiquen que de verdad se trata de ti, para esto pueden crear entre ustedes una serie de códigos o palabras clave que solo sabrá la persona real. 

La tecnología y avanza y por ende también su mal uso para realizar estafas.

Más de Editorial Soliradio

1 2 3 31

Checa el último capítulo de Ajuste de Tiempo

Somos parte de una comunidad de medios laguneros

Somos parte de una comunidad de medios laguneros