Lectura fácil
Un nuevo estudio asegura que los rostros creados por las inteligencias artificiales ya no son solo indistinguibles de los reales, sino que también generan más confianza entre la gente. El acierto para diferenciar caras reales de las creadas por ordenador fue sólo del 48 %. La formación para detectar deepfakes solo elevó el acierto hasta el 59 % .
Deepfakes, el incierto futuro de la tecnología
Los llamados deepfakes, o imágenes y audios generados mediante inteligencia artificial, permiten hacer hablar como si fuera una marioneta a un personaje conocido, incluido el presidente de Estados Unidos, o generar personajes desconocidos que ni siquiera son reales.
Se han utilizado para realizar bromas, pero también para realizar vídeos pornográficos y en campañas de desinformación y fake news. El grado de realismo de estas realidades simuladas, deepfakes, ha mejorado tanto que el problema no es que sean difíciles de distinguir de una imagen real, sino que pueden llegar a resultar incluso más convincentes.
El problema está en que llegan a ser tan real, que hasta a las personas les cuesta diferenciar ya las caras reales de las falsas. Según un nuevo estudio: “los rostros generados sintéticamente no solo son fotorrealistas, sino que son casi indistinguibles de los reales y se consideran más fiables”. Los investigadores detrás de este trabajo advierten que este tipo de tecnologías tipo deepfake han llegado a un punto de realismo que las hace extremadamente peligrosas, pueden generar imágenes que propaguen la desinformación o actividades como el fraude y las extorsiones, y piden que cese por completo su desarrollo.
Un estudio demuestra la peligrosidad de los deepfakes
Los investigadores enseñaron a un grupo de personas imágenes de rostros reales y digitales. Para crear los rostros digitales usaron dos redes neuronales adversariales. Una red generadora fue la responsable de crear una serie de rostros sintéticos desde los primeros bocetos hasta las imágenes finales. Mientras que la otra red, conocida como discriminadora, se entrenó viendo imágenes reales y luego calificó los resultados generados por la red generadora comparándolos con los rostros reales.
Los participantes expresaron tener una impresión de mayor confianza hacia rostros que resultaron ser irreales.
Además, los participantes del estudio afirmaron que los deepfakes les parecían más reales que las caras verdaderas. Los 223 participantes valoraron la credibilidad de los rostros que les enseñaron del 1 (mucha desconfianza) al 7 (mucha confianza). Las caras reales puntuales de media un 4,48 y las sintéticas un 4,82. Es una diferencia mínima, pero que muestra que las caras falsas obtuvieron un 7,7 % más de credibilidad que las reales. Apenas hubo diferencias raciales, pero sí de género.
- Las imágenes de mujeres generaron más confianza (4,94) que las de hombres (4,36).
- Las tres caras con mejor puntuación fueron todas falsas.
- Las cuatro con peor nota fueron todas reales.
Y es que la tecnología deepfake entraña numerosos peligros, desde desde el acoso a mujeres a través de falsos vídeos porno a la manipulación política o la proliferación de fake news, incluso a las imágenes satelitales que se emplean para acciones militares y de espionaje.
Gracias a las técnicas de inteligencia artificial los vídeos pueden manipularse, reemplazando los rostros, cuerpos o voces, de forma que se imite a un rival electoral, se simule una escena sexual con una personalidad famosa o se cree un clon publicitario, como sucedió con el famoso anuncio de Cruzcampo deepfake de Lola Flores.
Añadir nuevo comentario