• NOTICIAS

El Cermi alerta de que la IA puede aumentar la discriminación hacia las personas con discapacidad

EmailFacebookTwitterLinkedinPinterest
Pilar Villarino, Gregorio Saravia y Luis Vañó, durante el diálogo

Lectura fácil

La rápida expansión de la inteligencia artificial (IA) está transformando ámbitos esenciales de la vida cotidiana como el empleo, la educación, la sanidad, los servicios sociales o incluso la participación política. Sin embargo, este avance tecnológico también plantea riesgos significativos para determinados colectivos, especialmente para las personas con discapacidad.

Así lo ha advertido el Comité Español de Representantes de Personas con Discapacidad (Cermi), que ha puesto sobre la mesa la necesidad urgente de garantizar que el desarrollo de estas herramientas se produzca bajo criterios de derechos humanos, supervisión pública y responsabilidad jurídica.

Durante un encuentro celebrado en la agencia Servimedia, representantes del movimiento asociativo de la discapacidad presentaron el ‘Informe DiscapacIA’, un estudio que analiza de forma exhaustiva cómo los sistemas de inteligencia artificial pueden influir positiva o negativamente en los derechos fundamentales de millones de personas.

La principal preocupación expresada por el Cermi es clara: la inteligencia artificial no opera de forma neutral, sino que aprende a partir de datos sociales existentes, muchos de los cuales contienen prejuicios, desigualdades o discriminaciones ya arraigadas. Si esos sesgos no son detectados y corregidos, pueden ser reproducidos e incluso amplificados por los algoritmos.

Pilar Villarino advierte del peligro de automatizar la discriminación hacia las personas con discapacidad

La presidenta de la Comisión de Transformación Digital e Inteligencia Artificial del Cermi, Pilar Villarino, fue contundente al señalar que la inteligencia artificial puede consolidar injusticias si no existe una vigilancia adecuada. Según explicó, los sistemas automatizados procesan información basada en contextos sociales que, en muchas ocasiones, ya reflejan desigualdades estructurales. Esto implica que la tecnología puede terminar ocultando, proyectando o intensificando formas de exclusión que afectan directamente a las personas con discapacidad.

Villarino defendió que cualquier desarrollo tecnológico debe situar los derechos fundamentales como prioridad absoluta. En este sentido, recordó que el Cermi desempeña un papel clave como mecanismo independiente encargado de supervisar el cumplimiento en España de la Convención Internacional sobre los Derechos de las Personas con Discapacidad de Naciones Unidas.

Además, subrayó que el nuevo informe está estrechamente vinculado al Reglamento Europeo de Inteligencia Artificial, especialmente en lo relativo a aquellos sistemas considerados de “alto riesgo”, es decir, aquellos capaces de influir de forma directa en decisiones que afectan a la vida de las personas.

Para la representante del Cermi, la Convención de la ONU debe convertirse en la guía principal para interpretar y aplicar la futura normativa europea sobre inteligencia artificial. A su juicio, innovación y protección de derechos no son conceptos incompatibles, sino que deben avanzar juntos.

Un informe pensado para administraciones, empresas y sociedad civil

El ‘Informe DiscapacIA’ ha sido diseñado como una herramienta práctica para múltiples actores implicados en el ecosistema tecnológico y político. Está dirigido a responsables públicos, autoridades supervisoras, operadores jurídicos, empresas desarrolladoras y proveedoras de inteligencia artificial, entidades sociales vinculadas a la discapacidad y ciudadanía en general.

El documento ha sido financiado a través de la convocatoria de interés general del Ministerio de Derechos Sociales, Consumo y Agenda 2030, y forma parte de la estrategia de inteligencia artificial impulsada por el Cermi dentro de su línea de incidencia estratégica y liderazgo social.

Según detalló Villarino, el informe está estructurado en cinco grandes bloques y 21 capítulos, complementados con anexos técnicos y un resumen ejecutivo que facilitará su consulta. Además, la organización ya trabaja en nuevos materiales divulgativos para facilitar que sus conclusiones puedan aplicarse de forma efectiva en diferentes ámbitos.

La presidenta insistió en que la calidad tecnológica por sí sola no es suficiente. Para que la inteligencia artificial sea verdaderamente beneficiosa, debe estar respaldada por garantías legales sólidas y por un reconocimiento explícito de los derechos de las personas afectadas.

Gregorio Saravia: “La inteligencia artificial ha llegado para quedarse”

El delegado del Cermi para los Derechos Humanos y la Convención de la ONU de la Discapacidad, Gregorio Saravia, defendió que la expansión de la inteligencia artificial debe abordarse desde el conocimiento y la responsabilidad, evitando tanto el rechazo irracional como la aceptación acrítica.

Saravia recordó que detrás de cualquier sistema automatizado existen decisiones humanas, intereses políticos y modelos económicos. Por ello, rechazó que el desarrollo de la IA pueda convertirse en un territorio sin regulación donde prevalezcan únicamente criterios empresariales o de rentabilidad.

Uno de los aspectos que más preocupación genera es la calidad de los datos con los que se entrenan los algoritmos. Si las personas con discapacidad no están suficientemente representadas en esos conjuntos de datos, o si la información disponible sobre ellas es incompleta o sesgada, las decisiones automatizadas podrían excluirlas aún más de oportunidades laborales, educativas o administrativas.

Para Saravia, el gran reto consiste en garantizar que todos los sistemas incorporen accesibilidad, ajustes razonables y mecanismos eficaces de protección frente a posibles vulneraciones de derechos.

Asimismo, destacó la importancia de fortalecer la colaboración entre el movimiento asociativo y los organismos responsables de supervisar la transformación digital. En este sentido, recordó que el Cermi ya trabaja conjuntamente con la Agencia Española de Protección de Datos y con la Agencia Española de Supervisión de la Inteligencia Artificial para detectar posibles problemas y promover soluciones.

La dimensión autonómica también debe formar parte de la supervisión

Durante el acto intervino también Luis Vañó, presidente del Cermi Comunidad Valenciana, quien puso el foco en la dimensión territorial del problema. Según explicó, muchos de los sistemas automatizados que pueden afectar a personas con discapacidad se aplican precisamente en ámbitos gestionados por las comunidades autónomas, como la valoración de discapacidad, la dependencia o los servicios sociales.

Vañó subrayó que el impacto de la inteligencia artificial no ocurre de manera abstracta, sino que repercute directamente sobre personas concretas y procedimientos administrativos específicos. Por ello, advirtió de que cualquier evaluación de impacto que no cuente con la participación activa de las organizaciones representativas de la discapacidad corre el riesgo de convertirse en un simple trámite burocrático alejado de la realidad.

Entre las garantías imprescindibles que reclamó figuran la accesibilidad de las explicaciones automatizadas, la evaluación previa de impacto sobre derechos fundamentales, la mejora de la calidad y desagregación de los datos sobre discapacidad, una contratación pública responsable y una supervisión humana efectiva y significativa.

Proponen crear un Observatorio de Discriminación Algorítmica

Una de las principales propuestas recogidas en el informe es la creación de un Observatorio Especializado en Discriminación Algorítmica por razón de discapacidad, concebido como un mecanismo permanente de vigilancia y prevención.

Según explicó Luis Vañó, este organismo permitiría identificar de manera temprana posibles efectos discriminatorios derivados del uso de inteligencia artificial antes de que sus consecuencias se consoliden y resulten difíciles de corregir.

El observatorio tendría entre sus funciones elaborar un mapa actualizado y accesible de los sistemas de inteligencia artificial de alto riesgo utilizados en España, recibir denuncias relacionadas con posibles casos de discriminación algorítmica y elaborar informes periódicos para detectar tendencias y evaluar riesgos reales para con las personas con discapacidad.

Desde el Cermi consideran que disponer de datos sistematizados es esencial para actuar con eficacia y evitar depender únicamente de casos aislados o percepciones subjetivas.

Finalmente, la propuesta plantea que este nuevo órgano trabaje coordinadamente con el mecanismo de seguimiento previsto en la Convención de la ONU, el Cermi estatal, los Cermis autonómicos y las organizaciones representativas del sector, con el objetivo de consolidar una supervisión preventiva, permanente y basada en derechos humanos.

Añadir nuevo comentario