La Inteligencia Artificial puede clonar tu voz sin permiso

EmailFacebookTwitterLinkedinPinterest
07/01/2025 - 16:00
Inteligencia Artificial

Lectura fácil

Estamos plenamente conscientes de lo que la Inteligencia Artificial puede lograr, desde expresar su opinión sobre nosotros hasta dialogar con nuestro yo del futuro, pasando por actuar como una agencia de viajes, generar imágenes a partir de un prompt o incluso redactar una novela. Aunque la Inteligencia Artificial resulta ser una herramienta valiosa que facilita nuestra vida, en manos equivocadas puede representar un riesgo.

Sabemos que ChatGPT tiene la capacidad de crear textos que imitan nuestra forma de escribir, haciendo que parezca que somos nosotros quienes los hemos redactado. Sin embargo, esta habilidad ha avanzado aún más; aunque sea una función interesante, también puede ser peligrosa dependiendo de quién la utilice. OpenAI ha dado un paso más y ha revelado que ChatGPT puede replicar la voz humana con un nivel de precisión alarmante.

El riesgo de seguridad de la Inteligencia Artificial

El modelo responsable de esta capacidad es el GPT-4o, la versión más avanzada de OpenAI, que permite a la Inteligencia Artificial generar diversas voces.

El problema no radica en que pueda imitar voces humanas, sino en que lo hace sin que el usuario le dé su autorización explícita. Es decir, ChatGPT puede replicar tu voz sin que se lo pidas, lo que plantea un claro riesgo de seguridad para los usuarios del chatbot.

Esta actualización refleja las preocupaciones recurrentes sobre la privacidad de los usuarios y las capacidades de la Inteligencia Artificial. Cabe destacar que OpenAI no ha entrenado a ChatGPT para emular voces humanas, ni dispone de una base de datos masiva para ello. Sin embargo, el chatbot puede utilizar la voz de la persona que le está hablando. A pesar de que esto representa un avance significativo, no es ideal que ChatGPT posea esta función.

Como era de esperar, OpenAI ya está trabajando en soluciones para evitar que se repita esta situación, limitando la posibilidad de que ChatGPT utilice la voz de una persona para generar audios. A pesar de ello, es posible engañar al sistema para que lo haga.

La amenaza de la suplantación de voz

El riesgo de esta capacidad es que podría facilitar fraudes. Por ejemplo, podrían realizarse llamadas imitando las voces de familiares y pedir datos sensibles o transferencias bancarias. Dado que la Inteligencia Artificial puede replicar de manera tan precisa una voz conocida, los usuarios podrían no dudar de la autenticidad de la llamada. Este es un claro ejemplo de cómo la seguridad de los usuarios podría verse comprometida.

En cuanto a los derechos sobre la voz en España, en el ámbito legal, la voz se considera una extensión de la personalidad de la persona y, por lo tanto, está protegida por el derecho a la propia imagen y la intimidad. El artículo 18 de la Constitución Española garantiza estos derechos, subrayando la importancia de proteger tanto la imagen como la voz de los individuos.

Imitación de voz y sus consecuencias legales

Cuando hablamos de imitación, se entiende que el derecho de una persona puede ser violado si no ha dado su consentimiento para ser imitada. La Ley Orgánica 1/1982 también cubre estos derechos. Si alguien imita la voz de otra persona sin permiso, esto podría considerarse una violación de su imagen o una invasión a su privacidad.

Además, en España y la Unión Europea, el Reglamento General de Protección de Datos (RGPD) también aplica en casos de clonación y manipulación de la voz. Dado que la voz es un dato biométrico, su uso sin autorización sería una infracción del RGPD. Cualquier dato que identifique a una persona, como la voz, está protegido por esta ley. Por lo tanto, reproducir o clonar una voz sin consentimiento viola el derecho a la protección de datos.

En cuanto a los derechos de propiedad intelectual, la ley no protege específicamente la voz de una persona, pero sí las interpretaciones artísticas, lo que incluye grabaciones o reproducciones de la voz de un artista. Si alguien imita la voz de una figura pública sin permiso para fines comerciales, estaría infringiendo los derechos sobre su imagen y su trabajo, lo que constituiría una violación de la propiedad intelectual.

¿Ha imitado la IA a cantantes o actores sin su consentimiento?

En los últimos meses, han circulado audios generados por Inteligencia Artificial que imitan las voces de artistas como Duki, Quevedo o Ariana Grande para crear versiones de canciones que ellos nunca han cantado. En estos casos, lo que ocurre es que se aplica la Ley de Propiedad Intelectual, ya que la voz es una parte de su identidad y se está utilizando sin permiso.

Añadir nuevo comentario