- Jan 2025
-
feministai.pubpub.org feministai.pubpub.org
-
Collecting the right data with methods that ensure the right disaggregation is an important first step, but to create a more inclusive data system, these data must also be analyzed and interpreted using appropriate and efficient methods.
Corporalidades y fuentes de datos no tradicionales
Las fuentes no tradicionales, como registros administrativos y datos generados por la ciudadanía, pueden proporcionar información más granular sobre las corporalidades. Esto incluye indicadores relacionados con salud, género, y desigualdades espaciales o demográficas, como se observó en el caso de Nepal, donde datos geoetiquetados revelaron variaciones espaciales de desigualdades de género.
Incorporar datos de poblaciones marginadas, como personas trans, no binarias o mujeres en comunidades rurales, puede visibilizar experiencias y desigualdades que los métodos tradicionales ignoran. Por ejemplo, análisis de violencia sexual en El Salvador demuestran cómo el análisis de registros administrativos puede desglosar patrones que afectan a grupos específicos.
Traducción de datos y la alteración de dinámicas de poder
La recopilación de datos generados por la ciudadanía permite reflejar mejor las realidades vividas por distintas corporalidades, particularmente en regiones o contextos donde los métodos tradicionales no capturan su complejidad. Por ejemplo, la traducción de experiencias reportadas a través de encuestas SMS debe respetar las diferencias culturales y lingüísticas de los encuestados.
Al permitir que las comunidades participen directamente en la generación de datos, como en el proyecto de Ghana para reportar resultados en salud materno-infantil, se altera la dinámica de poder en la recopilación de datos. Este enfoque feminista reconoce las experiencias vividas y las traduce en evidencia cuantificable.
IA como herramienta para la equidad de datos
La Inteligencia Artificial puede detectar patrones en fuentes de datos no tradicionales, como redes sociales, imágenes satelitales y registros móviles. Estos patrones pueden revelar desigualdades relacionadas con género, ubicación o acceso a servicios, permitiendo intervenciones informadas.
Las tecnologías de Inteligencia Artificial permiten analizar múltiples capas de desigualdad simultáneamente. Por ejemplo, combinando datos satelitales, móviles y encuestas demográficas, se pueden mapear variaciones interseccionales como la brecha de alfabetización por género y región.
La Inteligencia Artificial puede crear datos sintéticos para suplir vacíos en áreas donde las corporalidades y sus experiencias no están representadas, siempre con atención ética para evitar reforzar sesgos.
Desafíos éticos y metodológicos
La recopilación de datos mediante métodos no tradicionales y herramientas de Inteligencia Artificial plantea preocupaciones sobre la privacidad, especialmente para las corporalidades en situaciones vulnerables.
La interpretación y traducción de datos implica que el análisis automatizado puede no captar matices culturales (culturemas) o de género si no se diseñan algoritmos sensibles e inclusivos.
Muchos gobiernos y comunidades carecen de los recursos técnicos y financieros necesarios para implementar sistemas avanzados de análisis de datos, limitando su capacidad para traducir datos en políticas inclusivas.
Un enfoque transformador para la recopilación de datos
Usar fuentes no tradicionales para incluir experiencias invisibilizadas, como mujeres en zonas rurales o personas no binarias.
Garantizar que los datos recojan las perspectivas locales con sensibilidad cultural y lingüística.
Diseñar algoritmos que no solo procesen datos, sino que también prioricen la equidad y representen realidades interseccionales.
Implementar regulaciones claras para proteger la privacidad y asegurar que las tecnologías beneficien a las poblaciones marginadas.
-
-
feministai.pubpub.org feministai.pubpub.org
-
we shall see how AI algorithms, when trained on these datasets, pick up these biases and amplify them, leading to biased AI systems.
La Inteligencia Artificial y las corporalidades no solo tiene implicaciones técnicas, sino que también expone dinámicas culturales y sociales que determinan cómo los cuerpos son interpretados y clasificados.
El predominio de rostros blancos en datasets como Rostros Etiquetados en la Naturaleza (LFW por su sigla en inglés) crea modelos que reconocen con precisión a personas blancas, pero fallan al identificar a personas de otras razas. Esto marginaliza a cuerpos no blancos, reduciendo su visibilidad tecnológica y reproduciendo jerarquías raciales.
La tendencia de los modelos a asociar características específicas con ciertos grupos (como mujeres en la cocina u hombres en el garaje) refleja cómo las corporalidades son codificadas de manera sesgada en los datos y amplificadas por la Inteligencia Artificial.
El proceso de entrenamiento de la Inteligencia Artificial puede considerarse una forma de traducción algorítmica, donde las corporalidades son reducidas a patrones y etiquetas.
Los modelos tienden a generalizar patrones, lo que significa que las corporalidades que no se ajustan a los estándares dominantes (por ejemplo, caras racializadas o cuerpos fuera de las normas hegemónicas) son malinterpretadas o invisibilizadas.
Durante el entrenamiento, los modelos reciben “recompensas” por predecir correctamente según el dataset. Si el dataset es sesgado, las predicciones correctas refuerzan esas generalizaciones erróneas, consolidando una visión limitada y parcial de las corporalidades.
El uso de métricas como la precisión para evaluar modelos sesgados resalta una desconexión entre la eficiencia técnica y la justicia social, un modelo que alcanza un 85% de precisión al reconocer rostros blancos en un dataset dominado por estas imágenes no es verdaderamente eficiente; simplemente está optimizado para perpetuar el sesgo del dataset.
La creación de datasets verdaderamente diversos y la reformulación de cómo los modelos interactúan con las corporalidades son pasos esenciales para evitar la amplificación de sesgos.
Un dataset diverso no solo debe incluir representaciones equilibradas de diferentes razas y géneros, sino también considerar otras dimensiones de la identidad, como la edad, si tiene alguna condición de discapacidad y los culturemas.
La Inteligencia Artificial debe integrar mecanismos que detecten y mitiguen sesgos inherentes, evitando la reproducción de inequidades.
Incorporar perspectivas interseccionales permite a la Inteligencia Artificial considerar cómo múltiples formas de identidad se cruzan y afectan la representación de las corporalidades.
-
-
-
Los culturemas son, por definición, nociones específico-culturales deun país o de un ámbito cultural y muchos de ellos poseen una estructurasemántica y pragmática compleja. Los culturemas son también unidades decomunicación que necesariamente han de ser tenidas en cuenta einventariadas en diccionarios ad hoc3. Mediante estos diccionarios nosolamente se podrá hacer un estudio comparado de los culturemas impor-tantes en las distintas lenguas del mundo, sino que se hará también unacontribución significativa a la enseñanza de lenguas (a nivel avanzado) y a latraducción. Como es sabido, uno de los escollos importantes de la traducciónson los culturemas, y mediante un estudio comparativo se estará en
-