Los deepfakes de voz son voces sintéticas producidas por modelos de aprendizaje automático que pueden parecerse a voces humanas reales. Una investigación publicada en PLoS ONE que contó con medio millar de participantes muestra que estos consiguieron identificar correctamente que no eran voces reales el 73 % de las veces. Los resultados del estudio —realizado en inglés y en mandarín— mostraron solo una ligera mejoría en aquellas personas que fueron entrenadas específicamente para detectar estos deepfakes.
Fernando Cucchietti - deepfakes
Fernando Cucchietti
Responsable del grupo de Análisis y Visualización de datos del Barcelona Supercomputing Centre (BSC-CNS)
Creo que el estudio está bien hecho y es sólido, aunque el rango de aplicación de los resultados es algo limitado. En particular, las condiciones donde se hicieron los experimentos son muy de laboratorio, en el sentido de que no son realistas para situaciones donde los deepfakes puede ser problemáticos, por ejemplo, si conoces a la persona que están imitando.
Las conclusiones, en ese sentido, pueden ser un poco exageradas, pero también es cierto que coinciden con otros estudios alternativos y similares. Es un estudio muy puntual con condiciones muy concretas, lo cual es bueno porque quiere decir que los resultados están menos afectados por otros factores, por ejemplo, prejuicios o sesgos previos como en el caso de los estudios de desinformación; pero también significa que en otros contextos no tienen por qué aplicarse completamente.
- Artículo de investigación
- Revisado por pares
- Estudio experimental
- Humanos
Kimberly T. Mai et al.
- Artículo de investigación
- Revisado por pares
- Estudio experimental
- Humanos