Automatización de determinadas actividades, ayuda en la resolución de tareas complejas, gran capacidad de procesamiento de datos... Estos son algunos de los beneficios del uso de la inteligencia artificial, incluido en ámbitos como el educativo. Pero también supone riesgos, en especial si se emplea con fines poco éticos que puedan afectar a los derechos fundamentales de los ciudadanos; algo a lo quiere hacer frente la Unión Europea con la primera ley que regula el uso de la inteligencia artificial, que fija una serie de obligaciones en función de sus riesgos potenciales y su nivel de impacto.
El texto del reglamento todavía debe pasar por una última comprobación de aspectos jurídicos y lingüísticos y recibir el visto bueno del Parlamento Europeo, aunque su aprobación definitiva está prevista para las próximas semanas y su aplicación se hará efectiva a lo largo de los próximos dos años. Recogemos sus aspectos más importantes.
Aplicaciones prohibidas
Las nuevas normas prohíben determinadas aplicaciones de inteligencia artificial como los sistemas de categorización biométrica basados en características sensibles (por ejemplo, el color de la piel). También la captura de imágenes faciales de Internet o las grabaciones de cámaras de videovigilancia para crear bases de datos de reconocimiento facial. Además, limita el uso de esta tecnología para el reconocimiento de emociones en el lugar de trabajo y en las escuelas o los sistemas que controlen y evalúen el comportamiento de la población. Tampoco se podrá utilizar aquella IA que manipule el comportamiento humano, como la publicación de ‘deepfakes’ en redes sociales, o que se aproveche de las vulnerabilidades de las personas.
Obligaciones para la IA de alto riesgo
Entre los sistemas de IA considerados de alto riesgo y que pueden ser perjudiciales para la salud, la seguridad, los derechos fundamentales, el medioambiente, la democracia o el estado de derecho se incluyen las infraestructuras críticas (telecomunicaciones, electricidad…), la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales (sanidad o banca), determinados sistemas de las fuerzas de seguridad, la justicia y los procesos democráticos (como influir en las elecciones).
Para evitar prácticas inapropiadas, estos sistemas deben evaluar y reducir los riesgos, mantener sus registros de uso, ser transparentes y precisos y contar siempre con supervisión humana. Aun así, cualquier persona tendrá derecho a presentar una reclamación y recibir explicaciones sobre las decisiones basadas en estos sistemas de IA que afecten a sus derechos.
Sistemas de IA generativa
En lo que respecta a las herramientas de IA generativa como ChatGPT, Copilot o Gemini, se exige el cumplimiento de ciertos requisitos de transparencia, así como evitar posibles sesgos por raza o género y respetar las leyes de la UE sobre derechos de autor. Además, las imágenes y los contenidos de audio o vídeo creados con inteligencia artificial o manipulados deberán etiquetarse claramente.
Excepciones de las fuerzas de seguridad
Aunque la ley también prohíbe el uso de la IA en la actuación policial predictiva (cuando se basa en el perfil de una persona en concreto o en la evaluación de sus características), recoge algunas excepciones en situaciones muy claras y definidas. En este caso, los sistemas de identificación biométrica en tiempo real solo se podrán emplear si su uso se limita a un período y lugar específicos y cuenta con una autorización judicial o administrativa previa. Algunos ejemplos de estas aplicaciones son la búsqueda de una persona desaparecida o la prevención de un atentado terrorista.