Las inteligencias artificiales pueden ser racistas y sexistas, y esta es la razón

Los datos que se utilizan para entrenar las IA pueden hacer que sus respuestas tengan sesgos relacionados con el origen, pero también con el sexo o la edad, entre otros. Desde Cyberghost explican por qué y cuáles son los más habituales.

8 min. de lectura
Destacada P

La inteligencia artificial está en todas partes, desde las pequeñas empresas emergentes hasta las grandes corporaciones, y su valor de mercado alcanzó casi los 197.000 millones de dólares en 2023. Según Forbes, casi todas las empresas utilizarán la IA de un modo u otro para el 2025, lo que aumentará más todavía su valor. Sin embargo, a medida que la IA penetra en nuestras vidas se hace más evidente que no está exenta de defectos, especialmente de sesgos discriminatorios. Según CyberGhost VPN, estos sesgos pueden ser un reflejo de las inclinaciones humanas presentes en los datos utilizados para entrenar a las IA. En este sentido, es importante tener en cuenta que la IA no los tiene por sí sola: aprende de los datos que se le dan, y si estos reflejan o contienen sesgos que se encuentran en la sociedad, entonces la IA también los reproducirá. ¿Cuáles son?

Cyberghost Vpn

Los tipos de sesgo de la IA

Los datos que se utilizan para entrenar las IA o que la muestra no sea diversa provocan que sus resultados sean parciales. Estos son los sesgos más comunes.

Sesgo algorítmico

Se produce cuando los algoritmos que utilizan las computadoras son incorrectos, lo que las lleva a producir resultados prejuiciados o injustos. Imaginemos que intenta aprender sobre animales utilizando únicamente libros sobre perros: pensaría que todos los animales se parecen al mejor amigo del hombre, lo cual no es cierto. Del mismo modo, si los algoritmos de IA aprenden a partir de datos incompletos, sus decisiones o predicciones no servirán al gran público, sino solo a unos pocos.

Sesgo de muestra

En este caso, los datos de entrenamiento de la inteligencia artificial no captan totalmente la diversidad de la población o la situación a la que van destinados. Cuanto más limitada sea una muestra de datos, más probable es que la IA discrimine a ciertos individuos o grupos de personas que no están representados en el conjunto de datos. Este sesgo es habitual, por ejemplo, en los sistemas de reconocimiento facial.

Sesgos por prejuicios

Se da cuando las opiniones humanas preconcebidas y las actitudes discriminatorias se manifiestan en las decisiones de la IA debido a los datos que le suministran los desarrolladores o los usuarios y de la forma en que está programada.

Sesgo de medición

Los datos se recogen, miden o etiquetan de forma incorrecta. A diferencia de otros tipos de sesgo, este puede ser mucho más difícil de detectar en el desarrollo, ya que no se trata exclusivamente de quién o qué está representado en los datos, sino de cómo se interpretan y utilizan esos datos. Esto puede hacer que la IA sea mucho menos fiable y útil en ámbitos como la salud, la banca y el derecho. Se trata, así, de un sesgo frecuente en el análisis de encuestas, a menudo derivado de cómo se formulan las preguntas, quién responde y qué mide la encuesta.

Sesgo de exclusión 

Cuando algunos grupos de personas o tipos de información quedan fuera (internacionalmente o no) del proceso de aprendizaje de la IA repercute en cómo de justos y eficaces pueden ser en sus predicciones, ya que no tienen en cuenta la diversidad presente en el mundo real. Este tipo de sesgo suele aparecer porque los datos utilizados para enseñar a la IA no “cubren todas las bases”. Por ejemplo, si una aplicación de salud se entrena principalmente con datos de personas jóvenes, puede que no sea tan buena dando consejos de salud a personas mayores.

Sesgo de selección

Se produce durante la fase de recopilación o selección de datos, cuando la información elegida no representa plenamente la realidad y la diversidad del mundo. En su lugar, las muestras de datos acaban dando prioridad a ciertos individuos o grupos sobre otros. Suena muy parecido al sesgo de muestreo, aunque en este caso abarca una gama más amplia de cuestiones que pueden estropear el proceso de selección, como los criterios establecidos, el sesgo del investigador y los métodos de muestreo no aleatorios. El sesgo de selección se refiere simplemente a la muestra ya elegida, que no representa al grupo más amplio que se supone que debe representar.

Sesgo de recuerdo

En la IA, el recuerdo se refiere a la capacidad del sistema para captar todo lo que se supone que debe captar. Por ejemplo, si se supone que una IA debe identificar todos los correos electrónicos basura, la recuperación mide cuántos de ellos detecta realmente. Si pasa por alto muchos de ellos, diríamos que tiene una mala capacidad de recordar. El sesgo de recuerdo se produce cuando la IA ha sido enseñada utilizando datos que no están del todo equilibrados. Es como si únicamente practicara preguntas fáciles para un examen y luego descubriera que la prueba está llena de preguntas difíciles.

El futuro del sesgo en la IA

A medida que las bases de datos de la IA crecen —y lo hacen a gran velocidad—, identificar y eliminar los sesgos resulta casi imposible. Eliminar marcadores específicos como la edad y la raza de los conjuntos de datos es un paso, pero la IA aún puede desarrollar resultados sesgados basados en factores menos obvios como el nivel educativo o los ingresos. Esto sugiere que el sesgo en la IA no es solamente un problema de datos, sino una cuestión fundamental de cómo los algoritmos interpretan y aprenden de la información. A pesar de estos desafíos, la comunidad de la IA se ha esforzado mucho por abordar y reducir el sesgo. Pero la IA, al igual que los humanos que la crean, es un trabajo en curso, en continua evolución y adaptación.

A medida que avanzamos, necesitamos reconocer los beneficios y peligros potenciales de la parcialidad en la IA. Tenemos que impulsar una vigilancia continua, una investigación innovadora y un compromiso con las prácticas de desarrollo éticas. El objetivo es crear una IA que no sólo imite lo mejor de los humanos sino que lo supere, utilizando la tecnología más avanzada para construir un mundo más equitativo y justo.

Más noticias de:
Comentarios
Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *