Las Redes Neuronales Artificiales (ANNs por su sigla en inglés) y su entrenamiento en datos provenientes de internet refleja cómo las corporalidades, la traducción y la inteligencia artificial se entrelazan. Esta intersección permite explorar cómo los sesgos sociales presentes en la sociedad son perpetuados y amplificados en las tecnodiversidades.
Las corporalidades, entendidas como la representación de cuerpos y sus atributos asociados (género, raza, clase, etc.), tienen distorsiones significativas cuando se integran en la Inteligencia Artificial entrenados en datos sesgados.
Las búsquedas de imágenes para “CEO” o “soldado” versus “enfermera” o “maestra” refuerzan narrativas limitadas sobre quiénes ocupan determinados roles en la sociedad.
Las Redes Neuronales Artificiales (ANNs por su sigla en inglés) no sólo reproducen, sino que expanden la invisibilidad o la hipervisibilidad de ciertos cuerpos, como mujeres reducidas a estereotipos de sexualidad y familia, o personas racializadas asociadas a profesiones de bajo estatus. Esto crea un “ecosistema algorítmico” que define qué cuerpos son considerados valiosos o normativos en función de los datos disponibles.
La traducción, bien sea literal, técnica, especializada o metafórica, juega un papel clave en cómo la Inteligencia Artificial procesan el lenguaje y las imágenes.
La prevalencia de términos como “bello” o “romántico” para mujeres y “ofensivo” o “diplomático” para hombres en análisis basados en Wikipedia ilustra cómo las construcciones culturales de género se filtran en sistemas de Procesamiento del Lenguaje Natural (NLP por su sigla en inglés).
Tecnodiversidades de reconocimiento de imágenes etiquetan a hombres como “hombres de negocios” y a mujeres con términos relacionados con características físicas (“sonrisa”, “peinado”), evidenciando un filtro cultural que traduce cuerpos femeninos en bases de datos terminológicas relacionadas con la apariencia y cuerpos masculinos en en bases de datos terminológicas relacionadas con el poder.
Las Inteligencias Artificiales al ser entrenadas con datos masivos provenientes de fuentes como Reddit, Wikipedia y Google, inevitablemente reflejan los prejuicios sociales de origen.
Los textos generados por GPT-2, los patrones de lenguaje recogidos de Reddit, como la asociación de mujeres con la prostitución y hombres con posiciones de poder, refuerzan un ciclo de perpetuación de sesgos, donde los estereotipos sociales se convierten en reglas operativas dentro de los sistemas.
Etiquetado de imágenes, los sesgos de género y raza en los conjuntos de datos visuales llevan a etiquetados que marginan a ciertas identidades y privilegian otras, al reproducir jerarquías sociales en los sistemas de IA.
La masificación de estos sesgos tiene implicaciones críticas para las corporalidades. Si el sesgo en los datos ya marginaliza ciertas identidades, la integración de estos sesgos en sistemas que toman decisiones, como asistentes virtuales, sistemas de reconocimiento facial y plataformas de contratación, amplifica estas exclusiones.
Las desigualdades algorítmicas por la forma en que la Inteligencia Artificial aprende, refuerza no solo estereotipos individuales, sino sistemas de poder más amplios, donde ciertos cuerpos (blancos, masculinos, etc.) tienen mayores probabilidades de ser asociados con profesionalismo, éxito y capacidad de liderazgo.
Para interrumpir estos ciclos de sesgo y redefinir el rol de las corporalidades en la Inteligencia Artificial, es crucial adoptar un enfoque transformador.
Los conjuntos de datos deben ser diseñados deliberadamente para incluir la diversidad de cuerpos, culturas y experiencias humanas, al evitar la reproducción de sesgos sistémicos.
Incorporar Inteligencia Artificial feminista y crítica que analice cómo las categorías sociales interactúan en la creación de desigualdades.
Evaluar los tecnodiversidades en todas las etapas, desde la selección de datos hasta su despliegue, para identificar y corregir sesgos antes de que se amplifiquen.
Reconocer que los datos y la tecnología no son neutrales, sino productos sociales, y promover un diseño ético que valore la equidad y la justicia.
La Inteligencia Artificial tiene el potencial de ser una herramienta emancipadora si se diseñan sistemas que respeten y celebren la diversidad de las corporalidades humanas. Al abordar los sesgos en los datos y los algoritmos, se podrían construir tecnologías que no solo reflejen el mundo tal como es, sino que muestren y materialicen un futuro más justo, inclusivo y equitativo.