Lectura fácil
La legislación europea es la primera en el mundo en regular una tecnología tan compleja como la inteligencia artificial, que ya se usa en servicios digitales cotidianos como redes sociales, plataformas de 'streaming' y buscadores como Google o Bing. Además, se aplica en áreas como finanzas, salud, atención al cliente, agricultura y logística, entre otras.
Esta norma busca regular el uso de la inteligencia artificial con un marco legal uniforme, facilitando su comercialización y circulación mientras asegura la ciberseguridad y un desarrollo tecnológico ético.
Nuevo reglamento de inteligencia artificial
Su objetivo es que la adopción de esta tecnología se centre en el ser humano, garantizando que sea fiable y proteja la salud, la seguridad y los derechos fundamentales de la Carta de los Derechos Fundamentales de la Unión Europea. Esto incluye la democracia, el Estado de Derecho y la protección del medio ambiente, con el fin de prevenir los posibles efectos negativos de los sistemas de IA.
Después de su publicación el 12 de julio en el Diario Oficial de la UE, el reglamento de la IA entró en vigor oficialmente este pasado jueves 1 de agosto, aunque su aplicación obligatoria no comenzará hasta dentro de dos años.
Para comprender los principales puntos de esta norma, es fundamental considerar que se ha elaborado con un enfoque basado en los niveles de riesgo asociados con la inteligencia artificial, que se dividen en tres categorías: sistemas con riesgo inaceptable, sistemas de alto riesgo y sistemas de riesgo limitado.
La restricciones a sistemas de categorización biométrica
Las aplicaciones y sistemas de IA que "suponen un riesgo inaceptable" están prohibidos directamente. Aunque la lista es extensa, esta categoría incluye, por ejemplo, los sistemas de categorización biométrica que inferen atributos sensibles como la raza, las opiniones políticas y la orientación sexual.
También existen sistemas de puntuación social, como el implementado en países como China, que clasifican a los ciudadanos para concederles ciertos privilegios o imponer sanciones por comportamientos inadecuados. Además, hay técnicas subliminales, manipuladoras o engañosas que buscan alterar el comportamiento y afectar negativamente la toma de decisiones.
Las excepciones y la regulaciones en el uso de sistemas de IA
Sin embargo, hay algunas excepciones. Por ejemplo, aunque el uso de sistemas de identificación biométrica por las fuerzas de seguridad está prohibido, se permitirá en casos específicos y estrictamente definidos, siempre y cuando se obtenga una autorización previa de un juez.
El reglamento se enfoca principalmente en los sistemas de inteligencia artificial considerados de alto riesgo, es decir, aquellos que "pueden tener un impacto significativo en la salud, la seguridad y los derechos fundamentales de las personas".
Bajo esta definición se incluyen sistemas diversos, tales como los de identificación biométrica a distancia, los empleados para monitorizar y detectar comportamientos prohibidos en estudiantes durante exámenes, los que evalúan la solvencia financiera de individuos, los polígrafo y herramientas similares, así como aquellos diseñados para influir en los resultados de elecciones o en el comportamiento electoral de las personas.
Entrenamiento, disponibilidad y aplicaciones
El Reglamento detalla los modelos de IA de uso general, que se entrenan con grandes volúmenes de datos mediante métodos como el aprendizaje autosupervisado, no supervisado o por refuerzo. Aunque estos modelos son fundamentales para los sistemas de IA, no son sistemas de IA por sí mismos.
Estos modelos están disponibles en el mercado a través de bibliotecas, APIs, descargas directas o copias físicas, y pueden ser modificados o mejorados. Ejemplos incluyen la inteligencia artificial generativa, como Gemini de Google o GPT de OpenAI, que crea contenido en formatos variados y se adapta a múltiples tareas.
La ley de inteligencia artificial menciona que estos modelos pueden ser de código abierto y reconoce su transparencia, pero subraya la importancia de proteger los derechos de autor en la información sustancial y los contenidos de las bases de datos utilizadas para su entrenamiento. Además, advierte sobre los riesgos sistémicos que pueden surgir durante el ciclo de vida del modelo, como vulnerabilidades en sistemas informáticos, interferencia en infraestructuras críticas y la posibilidad de autorreplicación. Insta a seguir la legislación internacional para mitigar estos riesgos.
Añadir nuevo comentario