Limpiar filtros

Doctrina

Inicio / Doctrina

abril  19, 2024

(5411) 4371-2806

Resumen de la Doctrina Volver >

Apartar a la Mujer de la Inteligencia Artificial no es inteligente

Por Daniela Spinelli


“A medida que avanza la Inteligencia Artificial, se hacen más necesarios los discursos éticos y la denuncia de sesgos de género y xenófobos que reproducen. La Inteligencia Artificial no es neutra ni ingenua, se nutre de nuestra inteligencia y destreza. El problema entonces no es nuevo y no está tampoco limitado a los estereotipos de género. La inteligencia artificial ya se ha topado, por culpa de los sesgos de datos, con conflictos de racismo. Grandes empresas como Google y su buscador de imágenes o YouTube se han enfrentado a importantes polémicas. Si buscamos términos como cocina en Google, solo aparecen imágenes de mujeres, pero si buscamos CEO solo aparecen hombres. Los adjetivos no son iguales, los hombres son valientes, racionales y justos. Las mujeres son bonitas y sexys. El problema no está solo en el dato como adelanté, sino en quién crea ese dato. El trabajo de diseñar algoritmos lo hacen en su mayoría hombres blancos asumiendo su experiencia como término medio. He aquí el quid de la cuestión -siguiendo a Caroline Criado- Pérez en “La mujer invisible”- un hombre blanco no es el término medio para la humanidad toda.”

Citar: elDial.com - DC3146

Copyright 2024 - elDial.com - editorial albrematica - Tucumán 1440 (1050) - Ciudad Autónoma de Buenos Aires - Argentina

Texto Completo

PLANTILLA CON LINKS


 

 Apartar a la Mujer de la Inteligencia Artificial no es inteligente

 

 

Por Daniela Spinelli[1]

 

 

La inequidad de género es una epidemia mundial, un problema complejo que existe en la realidad social. Dicho esto ¿cómo se traduce esto en la realidad 4.0? ¿el algoritmo es masculino? ¿La Inteligencia Artificial es machista? Estudios han determinado que la Inteligencia Artificial ha demostrado sesgos discriminatorios que podrían eliminar a la mujer de un puesto de trabajo o aumentar la idea de estigmatización femenina en una voz de asistente virtual como símbolo de servidumbre, de asociar a la mujer con puestos de trabajo como secretaria o de asistencia -eliminándola así- de cargos de liderazgo. Entonces ¿cómo eliminar un problema en la Inteligencia Artificial si está originado en un problema anterior? Este rompecabezas resulta difícil de congeniar. Es decir, no se puede pretender que, de una discriminación reiterada a la mujer, femicidios, travesticidios, feminicidios, transfemicidios, surja una Inteligencia Artificial involuta sin ningún tipo de sesgo ni inequidad.

 

La ONU, a través de la UNCTAD (Conferencia de las Naciones Unidas sobre Comercio y Desarrollo) acaba de publicar su Informe de Tecnología e Innovación 2021 y reitera los sesgos incorporados. Así: “…Muchos motivos de preocupación guardan relación con los sesgos en el diseño y las consecuencias no deseadas de la IA. Los sesgos dentro de los sistemas de IA pueden manifestarse de varias maneras, ya sea porque se empleen algoritmos sesgados o porque se utilicen datos sesgados para su entrenamiento. Por ejemplo, la IA puede perpetuar los estereotipos y reducir las ventajas de los productos en el caso de las mujeres.” “…las Tecnologías de la Información (TI) serán determinantes en material de igualdad para bien o para mal. Una de las claves para que este no suceda se encuentra en los gobiernos. Según se desprende del estudio, la tarea de éstos "es maximizar los beneficios potenciales, al tiempo que se mitigan los resultados perjudiciales…". “Todos los países en desarrollo tendrán que preparar a personas y empresas para un período de rápidos cambios. Para tener éxito en el siglo XXI será preciso adoptar un enfoque equilibrado: crear una base industrial sólida y promover tecnologías de frontera que puedan contribuir a culminar la Agenda 2030 y su visión global de sociedades inclusivas, sostenibles y centradas en las personas.

 

La Inteligencia Artificial está compuesta por un data set -conjunto de datos- que procesado por un algoritmo (una secuencia de pasos lógicos) determina una predicción o un resultado. La esencia de la Inteligencia Artificial entonces son los datos, si estos datos son discriminatorios, el resultado así lo será. Si existe un dato sesgado, inexorablemente el resultado es sesgado. Esto nos lleva a preguntarnos por la existencia de datos confiables y representativos para evitar que un algoritmo sea sexista. Por consiguiente, en una sociedad construida a partir de mujeres como seres sexuales y reproductivos, resulta contradictorio pretender que la Inteligencia Artificial arroje otra idea. Es decir, el cambio de paradigma es urgente y colectivo. Debemos –como ciudadanos integrantes de una sociedad- eliminar diferencias, sesgos y todo tipo de exclusión que nos aleje, no solo como integrantes de este mundo sino como seres humanos. Nacemos y morimos en sociedad, entonces, en la Era de la Información debemos disminuir diferencias anárquicas y neocolonialistas. El liderazgo de la mujer incomoda y es algo más profundo y cultural. Los pensamientos ególatras y de masculinidad hegemónica deben ser superados para transitar esta Nueva Revolución hacia un mundo más justo y ecuánime.

 

Hablando de discriminación por cuestiones de género, uno de los casos más llamativos ha sido el de Apple y su polémica al conceder con su tarjeta más crédito a los hombres que a las mujeres. Un emprendedor tecnológico, David Heinemer Hansson, puso a prueba la Apple Card y comprobó los sesgos. A pesar de compartir patrimonio con su mujer, tener bienes gananciales y llevar mucho tiempo casados, la tarjeta le permite a él un límite de crédito 20 veces superior al de su mujer. Otro ejemplo lo podemos encontrar en Amazon: en el año 2014 la compañía comenzó a desarrollar un programa que, utilizando Machine Learning, permitía revisar y evaluar automáticamente cientos de curriculum vitae aprendiendo de los recibidos en los últimos 10 años y el desempeño de las personas contratadas en ese rango de tiempo. El 2015 la compañía se percató de que el nuevo sistema ponderaba de peor manera a las mujeres para puestos de desarrollo de software u otras labores técnicas, dado el reflejo histórico donde predominan los hombres a las mujeres. A pesar de los esfuerzos, Amazon no pudo revertir este aprendizaje y desechó el programa. Y la aplicación de la IA en la selección de personal es algo que muchas grandes empresas están utilizando. Por ejemplo, LinkedIn ofrece a las empresas clasificaciones algorítmicas de candidatos en función de cómo encajan con las ofertas de trabajo en su plataforma. Sin duda, al nutrirse de datos históricos se heredan prejuicios y se traslada la discriminación offline al plano online.

 

Cabe así preguntarse, ¿el sesgo algorítmico puede eliminarse por completo? No. Los sesgos implican prejuicios, parcialidades, discriminación tanto negativa como positiva. Los hombres no podemos ser imparciales a un cien por ciento ni mucho menos ser objetivos. Ahí está el quid de la cuestión, somos seres humanos. La humanidad implica imperfección y sobre todo una visión, forma de pensar, vivir, observar, analizar, etc. desde ópticas infinitas. Todos somos distintos a cada uno, es por eso por lo que trasladamos esos sesgos indefectiblemente. Sin embargo, podemos mitigar esos perjuicios y maximizar los beneficios en la Inteligencia Artificial. Debemos ser conscientes de su importancia e intentar reducirlos utilizando soluciones tales como situar el problema lo mejor posible, recolectar mejores datos, extraer mejores atributos, el usuario debe tener control. La propuesta es hacer muchas muestras y analizarlas, antes de poner el algoritmo en práctica. Consecuentemente, analizar los resultados para ver si son parecidos o heterogéneos. En otros casos, habrá que determinar mejor el contexto social correcto. En definitiva, el mejor consejo es contar con personas más capacitadas y educadas con una buena base para la toma de decisiones. De lo contrario, viviremos en una burbuja cognitiva personalizada. Ignoraremos la realidad.

 

Ser y estar son diferentes. No somos una sociedad sesgada, estamos así. Esto quiere decir que los sesgos deben disminuirse. La ejecutabilidad es lo que falta. Las mujeres hoy logramos la mayor cantidad de títulos universitarios, maestrías y doctorados— tristemente nos pagan menos (un 30% menos). Y el 51% (cifra global) cuando tienen bebés abandonan su trabajo por falta de flexibilidad. Entonces nos encontramos frente a una sociedad que expulsa el talento de la mitad del universo, que además resulta ser la mitad más capacitada. Automáticamente, vemos que no hay mujeres en posiciones de liderazgo. Y claro, esto es obvio, si nos expulsan del sistema nunca llegaremos a posiciones de liderazgo. El verdadero empoderamiento de la mujer comienza con la acción, no basta con la intención.  No hace falta intención ni preparación hace falta que nuestro empoderamiento sea visible, y claro –ejecutado- de una vez por todas.

 

Sin dudas, nos encontramos anestesiados en Inteligencia Artificial, es decir, no somos conscientes de sus sesgos. La consciencia de la discriminación es el primer paso. No podemos cambiar sin ser conscientes de la exclusión de minorías que genera un mal uso de ella. Convivir con la virtualidad implica una innovación y un cambio de paradigma. Incluir a la mujer como programadora y hábil en Inteligencia Artificial es el camino para aplicarla en un estado de derecho. Si las minorías tales como afroamericanos, mujeres, comunidad LGTBIQ+, etc. controlamos y formamos parte de esta revolución digital y de los algoritmos podemos crear una magnífica herramienta que va a propiciar un futuro mejor. Si el problema de la Inteligencia Artificial es su discriminación con las minorías, ¿por qué esas minorías no se encargan de su control? Si la masculinidad hegemónica junto a los micromachismos triunfa por su invisibilidad, ¿cómo pensar que esto no afectaría a la Inteligencia Artificial?

 

A medida que avanza la Inteligencia Artificial, se hacen más necesarios los discursos éticos y la denuncia de sesgos de género y xenófobos que reproducen. La Inteligencia Artificial no es neutra ni ingenua, se nutre de nuestra inteligencia y destreza. El problema entonces no es nuevo y no está tampoco limitado a los estereotipos de género. La inteligencia artificial ya se ha topado, por culpa de los sesgos de datos, con conflictos de racismo. Grandes empresas como Google y su buscador de imágenes o YouTube se han enfrentado a importantes polémicas. Si buscamos términos como cocina en Google, solo aparecen imágenes de mujeres, pero si buscamos CEO solo aparecen hombres. Los adjetivos no son iguales, los hombres son valientes, racionales y justos. Las mujeres son bonitas y sexys. El problema no está solo en el dato como adelanté, sino en quién crea ese dato. El trabajo de diseñar algoritmos lo hacen en su mayoría hombres blancos asumiendo su experiencia como término medio. He aquí el quid de la cuestión -siguiendo a Caroline Criado- Pérez en “La mujer invisible”- un hombre blanco no es el término medio para la humanidad toda.

 

Los avances tecnológicos se visten de objetividad. Parecen neutros, sin ideología, pero esto es una catarata visual que debe ser operada. En muchos foros se habla de “algocracia” y del castigo algorítmico: también puede ser racistas o clasistas: "La ciencia estadística le da más valor a las variables sobre las que tenga más datos. Por tanto, de personas de raza distinta a la mayoritaria, el algoritmo tendrá menos información sobre estas personas, le dará menos valor porque no tiene información para dar una fiable. Por tanto, lo va a descartar” Es por ello por lo que resulta necesario establecer un límite jurídico concreto a esa dependencia algorítmica: para frenar la proliferación y expansión de las prácticas abusivas digitales en el procesamiento y tratamiento de datos, que terminarán por aniquilar nuestro derecho a la privacidad y a la protección y seguridad de nuestros datos.

 

La ONU, a través de la UNCTAD (Conferencia de las Naciones Unidas sobre Comercio y Desarrollo) en su Informe de Tecnología e Innovación 2021 afirma que “El acceso a la tecnología también puede verse restringido por las normas sociales, como en el caso de las mujeres, las minorías étnicas y otros grupos desfavorecidos, e incluso en el seno familiar” e inmediatamente propone dos soluciones:

 

1) Perfeccionar las habilidades digitales. Los planes de educación y formación deben ser inclusivos y promover específicamente la participación de las mujeres

 

2) Aumentar la participación de la mujer. Para que las mujeres puedan desempeñar plenamente su papel en las tecnologías de frontera, los gobiernos y las organizaciones internacionales tendrán que alentar a las niñas y las mujeres a estudiar materias científicas y tecnológicas, así como ingeniería y matemáticas.

 

Siguiendo este orden de ideas, debemos utilizar nuestra propia algocracia y no la de otra cultura. Justamente porque hay diversidades o diferencias étnicas que nuestro país simplemente no tiene. Es un mandato pendiente tener nuestra propia identidad iberoamericana en Inteligencia Artificial y sobre todo legislación acorde. Ella sí, va a reflejarnos y representarnos. Por tanto, eliminar los sesgos de las mayorías hegemónicas no es futurista, es entender finalmente que las minorías se construyen su propio principado algorítmico.

 

 

 



[1] Abogada en la Universidad Pontificia Católica Argentina con Posgrado en Derecho Penal por la Universidad de Buenos Aires. Correo electrónico: danispinelli96@gmail.com. LinkedIn: https://www.linkedin.com/in/daniela-concepci%C3%B3n-spinelli-7aa65782/ Twitter: @spinellidaniela


 

Citar: elDial.com - DC3146

Copyright 2024 - elDial.com - editorial albrematica - Tucumán 1440 (1050) - Ciudad Autónoma de Buenos Aires - Argentina

LIBROS Y CURSOS JURÍDICOS QUE PODRÍAN INTERESARTE