Resumen de la Doctrina Volver >
Apartar a la Mujer de la Inteligencia Artificial no es inteligente
Por Daniela Spinelli
“A medida que avanza la Inteligencia Artificial, se hacen más necesarios los discursos éticos y la denuncia de sesgos de género y xenófobos que reproducen. La Inteligencia Artificial no es neutra ni ingenua, se nutre de nuestra inteligencia y destreza. El problema entonces no es nuevo y no está tampoco limitado a los estereotipos de género. La inteligencia artificial ya se ha topado, por culpa de los sesgos de datos, con conflictos de racismo. Grandes empresas como Google y su buscador de imágenes o YouTube se han enfrentado a importantes polémicas. Si buscamos términos como cocina en Google, solo aparecen imágenes de mujeres, pero si buscamos CEO solo aparecen hombres. Los adjetivos no son iguales, los hombres son valientes, racionales y justos. Las mujeres son bonitas y sexys. El problema no está solo en el dato como adelanté, sino en quién crea ese dato. El trabajo de diseñar algoritmos lo hacen en su mayoría hombres blancos asumiendo su experiencia como término medio. He aquí el quid de la cuestión -siguiendo a Caroline Criado- Pérez en “La mujer invisible”- un hombre blanco no es el término medio para la humanidad toda.”
Citar: elDial.com - DC3146
Copyright 2023 - elDial.com - editorial albrematica - Tucumán 1440 (1050) - Ciudad Autónoma de Buenos Aires - Argentina
Texto Completo
Por Daniela Spinelli[1]
La inequidad de género es una epidemia mundial,
un problema complejo que existe en la realidad social. Dicho esto ¿cómo
se
traduce esto en la realidad 4.0? ¿el algoritmo es masculino? ¿La
Inteligencia
Artificial es machista? Estudios han determinado que la Inteligencia
Artificial
ha demostrado sesgos discriminatorios que podrían eliminar a la mujer
de un
puesto de trabajo o aumentar la idea de estigmatización femenina en una
voz de
asistente virtual como símbolo de servidumbre, de asociar a la mujer
con
puestos de trabajo como secretaria o de asistencia -eliminándola así-
de cargos
de liderazgo. Entonces ¿cómo eliminar un problema en la Inteligencia
Artificial
si está originado en un problema anterior? Este rompecabezas resulta
difícil de
congeniar. Es decir, no se puede pretender que, de una discriminación
reiterada
a la mujer, femicidios, travesticidios, feminicidios, transfemicidios,
surja
una Inteligencia Artificial involuta sin ningún tipo de sesgo ni
inequidad.
La ONU, a través de la UNCTAD (Conferencia de
las Naciones Unidas sobre Comercio y Desarrollo) acaba de publicar su
Informe
de Tecnología e Innovación 2021 y reitera los sesgos incorporados. Así:
“…Muchos motivos de preocupación guardan
relación con los sesgos en el diseño y las consecuencias no deseadas de
la IA.
Los sesgos dentro de los sistemas de IA pueden manifestarse de varias
maneras,
ya sea porque se empleen algoritmos sesgados o porque se utilicen datos
sesgados para su entrenamiento. Por ejemplo, la IA puede perpetuar los
estereotipos y reducir las ventajas de los productos en el caso de las
mujeres.” “…las Tecnologías de la Información (TI) serán determinantes
en
material de igualdad para bien o para mal. Una de las claves para que
este no
suceda se encuentra en los gobiernos. Según se desprende del estudio,
la tarea
de éstos "es maximizar los beneficios potenciales, al tiempo que se
mitigan los resultados perjudiciales…". “Todos los países en
desarrollo tendrán que preparar a personas y empresas para un período
de
rápidos cambios. Para tener éxito en el siglo XXI será preciso adoptar
un
enfoque equilibrado: crear una base industrial sólida y promover
tecnologías de
frontera que puedan contribuir a culminar la Agenda 2030 y su visión
global de
sociedades inclusivas, sostenibles y centradas en las personas.
La Inteligencia Artificial está compuesta por un
data set -conjunto de datos- que procesado por un algoritmo (una
secuencia de
pasos lógicos) determina una predicción o un resultado. La esencia de
la
Inteligencia Artificial entonces son los datos, si estos datos son
discriminatorios,
el resultado así lo será. Si existe un dato sesgado, inexorablemente el
resultado es sesgado. Esto nos lleva a preguntarnos por la existencia
de datos
confiables y representativos para evitar que un algoritmo sea sexista.
Por
consiguiente, en una sociedad construida a partir de mujeres como seres
sexuales y reproductivos, resulta contradictorio pretender que la
Inteligencia
Artificial arroje otra idea. Es decir, el cambio de paradigma es
urgente y
colectivo. Debemos –como ciudadanos integrantes de una sociedad-
eliminar
diferencias, sesgos y todo tipo de exclusión que nos aleje, no solo
como
integrantes de este mundo sino como seres humanos. Nacemos y morimos en
sociedad, entonces, en la Era de la Información debemos disminuir
diferencias anárquicas
y neocolonialistas. El liderazgo de la mujer incomoda y es algo más
profundo y
cultural. Los pensamientos ególatras y de masculinidad hegemónica deben
ser
superados para transitar esta Nueva Revolución hacia un mundo más justo
y
ecuánime.
Hablando de discriminación por cuestiones de
género, uno de los casos más llamativos ha sido el de Apple y su
polémica al
conceder con su tarjeta más crédito a los hombres que a las mujeres. Un
emprendedor tecnológico, David Heinemer Hansson, puso a prueba la Apple
Card y
comprobó los sesgos. A pesar de compartir patrimonio con su mujer,
tener bienes
gananciales y llevar mucho tiempo casados, la tarjeta le permite a él
un límite
de crédito 20 veces superior al de su mujer. Otro ejemplo lo podemos
encontrar
en Amazon: en el año 2014 la compañía comenzó a desarrollar un programa
que,
utilizando Machine Learning, permitía revisar y evaluar automáticamente
cientos
de curriculum vitae aprendiendo de los recibidos en los últimos 10 años
y el
desempeño de las personas contratadas en ese rango de tiempo. El 2015
la
compañía se percató de que el nuevo sistema ponderaba de peor manera a
las
mujeres para puestos de desarrollo de software u otras labores
técnicas, dado
el reflejo histórico donde predominan los hombres a las mujeres. A
pesar de los
esfuerzos, Amazon no pudo revertir este aprendizaje y desechó el
programa. Y la
aplicación de la IA en la selección de personal es algo que muchas
grandes
empresas están utilizando. Por ejemplo, LinkedIn ofrece a las empresas
clasificaciones
algorítmicas de candidatos en función de cómo encajan con las ofertas
de
trabajo en su plataforma. Sin duda, al nutrirse de datos históricos se
heredan
prejuicios y se traslada la discriminación offline al plano online.
Cabe así preguntarse, ¿el sesgo algorítmico
puede eliminarse por completo? No. Los sesgos implican prejuicios,
parcialidades, discriminación tanto negativa como positiva. Los hombres
no
podemos ser imparciales a un cien por ciento ni mucho menos ser
objetivos. Ahí
está el quid de la cuestión, somos seres humanos. La humanidad implica
imperfección y sobre todo una visión, forma de pensar, vivir, observar,
analizar, etc. desde ópticas infinitas. Todos somos distintos a cada
uno, es
por eso por lo que trasladamos esos sesgos indefectiblemente. Sin
embargo,
podemos mitigar esos perjuicios y maximizar los beneficios en la
Inteligencia
Artificial. Debemos ser conscientes de su importancia e intentar
reducirlos
utilizando soluciones tales como situar el problema lo mejor posible,
recolectar mejores datos, extraer mejores atributos, el usuario debe
tener
control. La propuesta es hacer muchas muestras y analizarlas, antes de
poner el
algoritmo en práctica. Consecuentemente, analizar los resultados para
ver si
son parecidos o heterogéneos. En otros casos, habrá que determinar
mejor el
contexto social correcto. En definitiva, el mejor consejo es contar con
personas más capacitadas y educadas con una buena base para la toma de
decisiones. De lo contrario, viviremos en una burbuja cognitiva
personalizada.
Ignoraremos la realidad.
Ser y estar son diferentes. No somos una
sociedad sesgada, estamos así. Esto quiere decir que los sesgos deben
disminuirse. La ejecutabilidad es lo que falta. Las mujeres hoy
logramos la
mayor cantidad de títulos universitarios, maestrías y doctorados—
tristemente
nos pagan menos (un 30% menos). Y el 51% (cifra global) cuando tienen
bebés
abandonan su trabajo por falta de flexibilidad. Entonces nos
encontramos frente
a una sociedad que expulsa el talento de la mitad del universo, que
además
resulta ser la mitad más capacitada. Automáticamente, vemos que no hay
mujeres
en posiciones de liderazgo. Y claro, esto es obvio, si nos expulsan del
sistema
nunca llegaremos a posiciones de liderazgo. El verdadero empoderamiento
de la
mujer comienza con la acción, no basta con la intención. No hace falta intención ni
preparación hace
falta que nuestro empoderamiento sea visible, y claro –ejecutado- de
una vez
por todas.
Sin dudas, nos encontramos anestesiados en
Inteligencia Artificial, es decir, no somos conscientes de sus sesgos.
La
consciencia de la discriminación es el primer paso. No podemos cambiar
sin ser
conscientes de la exclusión de minorías que genera un mal uso de ella.
Convivir
con la virtualidad implica una innovación y un cambio de paradigma.
Incluir a
la mujer como programadora y hábil en Inteligencia Artificial es el
camino para
aplicarla en un estado de derecho. Si las minorías tales como
afroamericanos,
mujeres, comunidad LGTBIQ+, etc. controlamos y formamos parte de esta
revolución
digital y de los algoritmos podemos crear una magnífica herramienta que
va a
propiciar un futuro mejor. Si el problema de la Inteligencia Artificial
es su
discriminación con las minorías, ¿por qué esas minorías no se encargan
de su
control? Si la masculinidad hegemónica junto a los micromachismos
triunfa por
su invisibilidad, ¿cómo pensar que esto no afectaría a la Inteligencia
Artificial?
A medida que avanza la
Inteligencia Artificial, se hacen más necesarios los discursos éticos y
la
denuncia de sesgos de género y xenófobos que reproducen. La
Inteligencia
Artificial no es neutra ni ingenua, se nutre de nuestra inteligencia y
destreza. El problema entonces no es nuevo y no está tampoco limitado a
los
estereotipos de género. La inteligencia artificial ya se ha topado, por
culpa
de los sesgos de datos, con conflictos de racismo. Grandes empresas
como Google
y su buscador de imágenes o YouTube se han enfrentado a importantes
polémicas.
Si buscamos términos como cocina en Google, solo aparecen imágenes de
mujeres,
pero si buscamos CEO solo aparecen hombres. Los adjetivos no son
iguales, los
hombres son valientes, racionales y justos. Las mujeres son bonitas y
sexys. El
problema no está solo en el dato como adelanté, sino en quién crea ese
dato. El
trabajo de diseñar algoritmos lo hacen en su mayoría hombres blancos
asumiendo
su experiencia como término medio. He aquí el quid de la cuestión
-siguiendo a
Caroline Criado- Pérez en “La mujer invisible”- un hombre blanco no es
el
término medio para la humanidad toda.
Los avances tecnológicos se visten de
objetividad. Parecen neutros, sin ideología, pero esto es una catarata
visual
que debe ser operada. En muchos foros se habla de “algocracia”
y del castigo algorítmico: también puede ser racistas
o clasistas: "La ciencia estadística le da más valor a las variables
sobre
las que tenga más datos. Por tanto, de personas de raza distinta a la
mayoritaria, el algoritmo tendrá menos información sobre estas
personas, le
dará menos valor porque no tiene información para dar una fiable. Por
tanto, lo
va a descartar” Es por ello por lo que resulta necesario establecer un
límite
jurídico concreto a esa dependencia algorítmica: para frenar la
proliferación y
expansión de las prácticas abusivas digitales en el procesamiento y
tratamiento
de datos, que terminarán por aniquilar nuestro derecho a la privacidad
y a la
protección y seguridad de nuestros datos.
La ONU, a través de la UNCTAD
(Conferencia de las Naciones Unidas sobre Comercio y Desarrollo) en su
Informe
de Tecnología e Innovación 2021 afirma que “El acceso a la tecnología también puede verse
restringido por las normas
sociales, como en el caso de las mujeres, las minorías étnicas y otros
grupos
desfavorecidos, e incluso en el seno familiar” e inmediatamente propone
dos
soluciones:
1) Perfeccionar las habilidades digitales. Los
planes de educación y formación deben ser inclusivos y promover
específicamente
la participación de las mujeres
2) Aumentar la participación de la mujer. Para
que las mujeres puedan desempeñar plenamente su papel en las
tecnologías de
frontera, los gobiernos y las organizaciones internacionales tendrán
que
alentar a las niñas y las mujeres a estudiar materias científicas y
tecnológicas, así como ingeniería y matemáticas.
Siguiendo este orden de ideas, debemos utilizar
nuestra propia algocracia y no la de otra cultura. Justamente porque
hay
diversidades o diferencias étnicas que nuestro país simplemente no
tiene. Es un
mandato pendiente tener nuestra propia identidad iberoamericana en
Inteligencia
Artificial y sobre todo legislación acorde. Ella sí, va a reflejarnos y
representarnos. Por tanto, eliminar los sesgos de las mayorías
hegemónicas no
es futurista, es entender finalmente que las minorías se construyen su
propio
principado algorítmico.
[1]
Abogada en la Universidad
Pontificia Católica Argentina con Posgrado en Derecho Penal por la
Universidad
de Buenos Aires. Correo electrónico: danispinelli96@gmail.com.
LinkedIn:
https://www.linkedin.com/in/daniela-concepci%C3%B3n-spinelli-7aa65782/
Twitter:
@spinellidaniela
Citar: elDial.com - DC3146
Copyright 2023 - elDial.com - editorial albrematica - Tucumán 1440 (1050) - Ciudad Autónoma de Buenos Aires - Argentina
LIBROS Y CAPACITACIONES QUE PODRÍAN INTERESARTE
