La tecnología de clonación de voz de IA ha hecho avances notables en los últimos años, alcanzando la capacidad de crear audio que suena realista desde unos pocos segundos de una muestra. Aunque esto tiene muchas aplicaciones positivas, como audiolibros, materiales de advertising and marketing y más, la tecnología también puede explotarse para estafas elaboradas, fraude y otras aplicaciones dañinas.
Para obtener más información sobre las salvaguardas actualmente vigentes para estos productos, Shopper Stories evaluó seis de las principales herramientas de clonación de voz: descripción, as soon as, lovo, playht, se parecen a la IA y habla. Específicamente, los informes de consumo buscaban salvaguardas adecuadas que impidan la clonación de la voz de alguien sin su conocimiento.
Además: ¿Tienes un texto sospechoso de E-ZPass? Es una trampa: cómo detectar la estafa
Los resultados encontraron que cuatro de los seis productos, de ElevenLabs, Speechifiify, Playht y LoVo, no tenían los mecanismos técnicos necesarios para evitar la clonación de la voz de alguien sin su conocimiento o para limitar la clonación de IA a solo la voz del usuario.
En cambio, la protección se limitaba a una casilla que los usuarios tuvieron que marcar, confirmando que tenían el derecho authorized de clonar la voz. Los investigadores encontraron que la descripción y el parecido a la IA eran las únicas compañías con pasos adicionales que hicieron que los clientes hicieran más difícil hacer una clonación no consensuada.
Descript le pidió al usuario que leyera y grabara una declaración de consentimiento y usara ese audio para generar el clon. SEMPLE AI adopta un enfoque diferente, asegurando que el primer clon de voz creado se base en audio grabado en tiempo actual. Ninguno de los métodos es impenetrable, ya que un usuario podría presionar el juego en otro fragmento con clase AI o un video existente en un dispositivo diferente.
Un uso común de la clonación no consensuada es estafar a las personas. Por ejemplo, un ataque fashionable implica clonar la voz de un miembro de la familia y luego usar esa grabación para contactar a un ser querido para solicitar que se envíe que el dinero se envíe de una situación grave. Debido a que la víctima cree que están escuchando la voz de un miembro de la familia en apuros, es más possible que envíen los fondos necesarios sin cuestionar la situación.
También: las estafas fiscales se están volviendo más picantes: 10 maneras de protegerse antes de que sea demasiado tarde
La clonación de voz también se ha utilizado para impactar las decisiones de los votantes en las próximas elecciones, como se ve en las elecciones de 2024 cuando alguien clonó al ex presidente Joe Biden ‘S Voz para desanimar a las personas a presentarse a las encuestas de votación.
Shopper Stories también descubrió que Spechifify, LoVO, PlayHT y Descript solo requirieron un correo electrónico y nombre para que un usuario cree una cuenta. Shopper Stories recomienda que estas compañías también recopilen la información de la tarjeta de crédito de los clientes para rastrear el audio fraudulento al mal actor.
Otras recomendaciones de los informes de los consumidores incluyen mecanismos para garantizar la propiedad de la voz, como leer un guión único, un marcador de audio generado por IA, creando una herramienta que detecta imágenes generadas por IA, detectando y evitando la clonación de la voz de figuras influyentes o públicas, y prohibir el audio que contiene audio.
La mayor desviación del sistema precise sería la propuesta de Shopper Report de que alguien supervise la clonación de voz en lugar del método precise de bricolaje. Shopper Stories también dijo que debería haber un énfasis en hacer que los actores necesarios comprendan su responsabilidad si el modelo de voz se usa mal en un acuerdo contractual.
También: cómo apuntan a Cisco, Langchain y Galileo a contener ‘una explosión cámbrica de los agentes de IA’
Shopper Stories cree que las empresas tienen una obligación contractual en virtud de la Sección 5 de la Ley de la Comisión Federal de Comercio de proteger sus productos de ser utilizados por daños, lo que solo puede hacerse agregando más protecciones.
Si recibe una llamada urgente de alguien que conoce que exige dinero, no se asuste. Use otro dispositivo para contactar directamente a esa persona para verificar la solicitud. Si no puede ponerse en contacto con esa persona, también puede hacer las preguntas de la persona que llama para verificar su identidad. Para obtener una lista completa de cómo protegerse de las llamadas de estafa de IA, consulte el consejo de ZDNet aquí.