Una inteligencia artificial sin control y el peligro de crear un monstruo para la sociedad

EmailFacebookTwitterLinkedinPinterest
Inteligencia artificial y sus posibles riesgos

Lectura fácil

El Alto Comisionado de la ONU para los Derechos Humanos advirtió sobre los riesgos de que la inteligencia artificial se convierta en un “monstruo de Frankenstein” si quienes la desarrollan ignoran los principios éticos y sociales. Señaló que, sin los controles adecuados, estas herramientas digitales podrían amplificar desigualdades, reforzar sesgos y generar graves daños en la sociedad.

El riesgo de crear un monstruo tecnológico con la inteligencia artificial

El Alto Comisionado de la ONU para los Derechos Humanos advirtió sobre los peligros de que la inteligencia artificial se transforme en un “monstruo de Frankenstein” si quienes la desarrollan no comprenden a fondo los principios éticos y sociales esenciales.

“Cuando los diseñadores solo manejan nociones superficiales sobre lo que es correcto y justo, el resultado puede escaparse de su control, como el famoso monstruo de Frankenstein”, señaló Volker Türk durante la Cumbre sobre el Impacto de la inteligencia artificial en Nueva Delhi. “Ignorar los riesgos reales puede generar consecuencias devastadoras”.

El máximo responsable de derechos humanos de Naciones Unidas instó a gobiernos y corporaciones a implementar mecanismos de protección de manera inmediata, para que estas tecnologías no profundicen la desigualdad, refuercen prejuicios ni causen daños tangibles en la vida cotidiana.

Türk destacó que la inequidad es uno de los mayores peligros. Por otro lado, celebró que la cumbre se realizara en India, un lugar estratégico para garantizar que estas herramientas digitales se utilicen y desarrollen de forma inclusiva y global.

Sesgos y exclusión

“Si los datos provienen solo de ciertas regiones o si predominan los desarrolladores de un mismo perfil demográfico, los algoritmos incorporarán sesgos inconscientes”, advirtió. “Es fundamental considerar a los grupos vulnerables y minorías, quienes a menudo quedan al margen del diseño y la implementación de estas soluciones computacionales”.

El funcionario enfatizó que el sesgo en sistemas automatizados puede amplificar la discriminación y generar consecuencias injustas para quienes ya enfrentan desventajas sociales.

La metáfora del genio liberado

Türk comparó el avance descontrolado de la inteligencia artificial con “liberar un genio de la botella”. Como ejemplo citó el caso de Myanmar, donde plataformas digitales exacerbaban discursos de odio y violencia contra minorías étnicas.

Además, advirtió sobre la desinformación: “Sociedades enteras quedan fragmentadas y polarizadas, con cada individuo encerrado en su propia burbuja informativa”. También mencionó el aumento de la misoginia en entornos digitales: “Muchas mujeres contemplan abandonar la política debido al acoso que experimentan en redes”.

Regulación y responsabilidad para una visión inclusiva

El Alto Comisionado comparó la necesidad de normativas con la industria farmacéutica: “Las compañías deben realizar evaluaciones de impacto sobre derechos humanos al diseñar, implementar y comercializar estas tecnologías avanzadas”.

Recordó que algunas corporaciones tecnológicas poseen presupuestos superiores a los de países pequeños, lo que les otorga un poder global considerable. “Ese poder puede usarse para bien —salud, educación, desarrollo sostenible—, pero también para mal: armamento autónomo, propagación de odio y violencia digital”.

Sobre cómo podría ser una inteligencia artificial responsable dentro de cinco años, Türk imaginó un escenario de desarrollo equitativo, donde la tecnología no esté concentrada en unas pocas empresas y se construya sobre la riqueza cultural y social de todas las comunidades.

“Si no proyectamos un futuro mejor”, concluyó, “podríamos enfrentarnos a un mundo más polarizado, con conflictos fuera del control humano, y eso representa un peligro enorme”.

En este contexto, la comunidad internacional debe asegurar que estas herramientas digitales y la inteligencia artificial evolucionen con valores éticos, inclusión y justicia social, evitando así que se conviertan en un nuevo monstruo incontrolable.

Añadir nuevo comentario