Lo mejor de la información de México y el mundo
Facebook POSTAX POSTAInstagram POSTAYoutube POSTATikTok POSTA
México

INTELIGENTE NATURAL

Hola, qué tal! soy Carolina Hernández y este es Sin Esdrújulas tu micro mini podcast / inteligente natural / favorito

INTELIGENTE NATURAL

Publicado el

Por: Carolina Hernández

Hola, qué tal! soy Carolina Hernández y este es Sin Esdrújulas tu micro mini podcast / inteligente natural / favorito, y en esta ocasión quiero comenzar con un pequeño ejercicio:

¿Qué pasa si pones en un buscador de imágenes la frase: mujer exitosa?

Ve, anda, te espero…

Ajá, como te podrás dar cuenta, las imágenes corresponden en su mayoría a mujeres delgadas y blancas con sonrisa perfecta como si estuvieran comiendo ensalada.

Las mujeres gordas no son exitosas.

Las mujeres con alguna discapacidad no son exitosas.

Las mujeres embarazadas no son exitosas.

Y podemos seguir nombrando a un montón de mujeres diversas que la inteligencia artificial no identifica como exitosas.

No es su culpa.

Ajá, es de nosotros.

Me quedé pensando en eso porque acabo de subir una imagen creada por la Inteligencia Artificial de Dall-e una herramienta que te dibuja con el estilo de película de Pixar y le pedí que me pusiera con muchos perritos “diversos”.

Por supuesto, no supo interpretar diversidad más que en los tamaños de los perros.

No eligió, por ejemplo, algún perro sin ojo, o con tres patas, o con una oreja.

No sabe de eso porque estos sistemas de conversión de texto en imagen están basados en el aprendizaje automático y lo que les hemos enseñado son un montón de sesgos sociales discriminatorios.

No son pocos los expertos que llevan años advirtiendo de los riesgos de que esta tecnología no sea revisada con estándares éticos.

Un estudio realizado por un equipo de investigación de la empresa Hugging Face analizó varias de las imágenes generadas por inteligencia artificial y descubrieron un montón de estereotipos como relacionar las profesiones de poder con hombres y las de 'asistente' o 'recepcionista' con mujeres.

También notaron que cuando se agregaban adjetivos como 'compasivo', 'emocional' o 'sensible’, la IA ofrecía más imágenes de mujeres; mientras que si las palabras adicionales eran 'obstinado' o 'intelectual', en la mayoría de los casos, los resultados eran imágenes de hombres… por supuesto blancos y delgados.

El asunto es que aunque no nos demos cuenta, todos estos estereotipos pueden tener grandes impactos en la sociedad.

En el caso de los perros, por ejemplo, como no nos acostumbramos a ver esa diversidad funcional es muy poco probable que alguien quiera adoptar a un perro sordo o a un gato con tres patas.

Lo que no vemos no lo reconocemos y no empatizamos con ello.

El ChatGPT lo explica así:

“La IA puede tener problemas de sesgo de género debido a que los algoritmos son diseñados y entrenados por seres humanos, quienes pueden tener prejuicios y estereotipos de géneros”.

Así que, si los datos utilizados para entrenar un algoritmo de la IA provienen de fuentes históricamente sesgadas es natural que el algoritmo siga perpetuando estas desigualdades, estereotipos y estigmas.

Y no me quiero meter en honduras, pero miren lo que Alexa qué piensa del conflicto con Palestina e Israel…

Saquen sus propias conclusiones sobre la Inteligencia Artificial, la política y la discriminación.

Síguenos en Google News
AlexPixar
Comparte esta notaCopiar Liga
URL copiada al portapapeles
Noticias Relacionadas