- Jan 2025
-
feministai.pubpub.org feministai.pubpub.org
-
if we can strategically intervene algorithmically, we have a powerful tool to help break the cycle of discrimination.
Las corporalidades (entendidas como los cuerpos físicos y los ensamblajes que los habitan) son intrínsecas a los datos que alimentan los sistemas de Inteligencia Artificial. Aunque los sistemas se perciban como objetivos o neutrales, los datos que los entrenan están profundamente arraigados en contextos sociales y culturales provenientes del Norte Global. La decisión de qué datos recolectar y cómo procesarlos refleja juicios humanos, que a menudo priorizan ciertas corporalidades sobre otras. Esto explica por qué ciertas Inteligencias Artificiales pueden amplificar inequidades ya existentes, como en el ejemplo de los algoritmos que ofrecen empleo mejor remunerado principalmente a hombres o a personas blancas.
El diseño de la Inteligencia Artificial que ignora las diversidades corporales e identitarias perpetúa su invisibilización y marginalización. Surge la necesidad de considerar cómo las corporalidades se registran, interpretan y representan en los datos.
La traducción implica transformar las experiencias humanas, incluidas las vivencias de corporalidades diversas, en datos que la Inteligencia Artificial pueda procesar. Sin embargo, esta traducción no es neutral. La selección de métricas, variables y optimizaciones refleja decisiones humanas que pueden reforzar dinámicas de poder existentes.
¿Qué cuerpos se incluyen o excluyen?
Si los datos no representan adecuadamente a personas no binarias, racializadas o en condición de discapacidad, la Inteligencia Artificial no podrá abordar sus necesidades ni reconocer sus realidades.
¿Cómo se procesan las diferencias?
Las corporalidades no normativas suelen ser traducidas en categorías reduccionistas o ignoradas por completo en el diseño de algoritmos, lo que perpetúa su exclusión.
La traducción entre corporalidades y modelos computacionales es un acto político, donde los sesgos y prioridades humanos moldean la representación de la realidad.
La Inteligencia Artificial no sólo refleja, sino que también transforma la relación entre corporalidades y sociedades al influir en oportunidades, recursos y visibilidad. La Inteligencia Artificial puede crear bucles de retroalimentación negativos, donde los sesgos iniciales en los datos refuerzan y amplifican desigualdades existentes, afectando las decisiones futuras, entre estos:
Algoritmos que perpetúan la discriminación laboral.
Sistemas que limitan el acceso a recursos como vivienda, educación o servicios.
Esta capacidad de influencia también abre una oportunidad para intervenir. Al desarrollar y aplicar estrategias de desviación algorítmica (debiasing), es posible diseñar sistemas que rompan estos ciclos de discriminación. Esto requiere integrar una conciencia crítica sobre las corporalidades y su representación en los datos.
La percepción de que la Inteligencia Artificial es imparcial desvía la atención de las formas en que las corporalidades y las experiencias humanas son fundamentales para su diseño y funcionamiento. La Inteligencia Artificial no existe separada de las dinámicas humanas, por el contrario, actúa como un espejo que amplifica tanto nuestras virtudes como nuestros sesgos.
La construcción de Inteligencia Artificial más justa requiere:
Reconocer las corporalidades ausentes en los datos y priorizar su inclusión.
Redefinir los procesos de traducción para capturar la complejidad de las realidades humanas en lugar de simplificarlas.
Intervenir estratégicamente en la Inteligencia Artificial para mitigar su impacto negativo y transformar las dinámicas sociales hacia una mayor equidad.
-
-
feministai.pubpub.org feministai.pubpub.org
-
Data Feminism in Action
Corporalidades y representación en los datos
Las corporalidades están en el centro de los datos sobre feminicidio, ya que estos buscan visibilizar la violencia sistémica y letal dirigida a ciertos cuerpos, principalmente de mujeres y personas feminizadas. Sin embargo, los desafíos en la recopilación de estos datos revelan la complejidad de traducir las vivencias de estas corporalidades en registros sistemáticos. La falta de estandarización en las definiciones y categorías relacionadas con feminicidio no solo dificulta el análisis comparativo, sino que también invisibiliza ciertas experiencias de violencia que no encajan en definiciones tradicionales o normativas.
El reconocimiento y representación precisa de estas corporalidades en los datos es un acto político: dar visibilidad a los cuerpos afectados significa reconocer su existencia y exigir justicia.
Traducción de experiencias vividas a datos y narrativas
La recopilación de datos sobre feminicidio no es solo un proceso técnico, es un acto de traducción entre las realidades vividas y las estructuras formales de datos. Este proceso requiere decisiones sobre qué contar, cómo clasificar, y qué significados se asignan a los datos recolectados. Las presentaciones sobre “marcos de datos del feminicidio” y “estandarización de datos” destacaron los retos asociados con la homogeneización de realidades diversas en un formato legible por sistemas globales.
La traducción no solo ocurre a nivel técnico; también se refleja en la narrativa: los datos, cuando se presentan mediante visualizaciones o análisis espaciales, cuentan historias que humanizan las cifras y amplifican las voces de las víctimas.
Inteligencia artificial como herramienta de intervención
La Inteligencia Artificial desempeña un papel crucial en la recopilación, análisis y visibilización de datos sobre feminicidio. Por ejemplo, la presentación de Catherine D’Ignazio sobre un clasificador automatizado para detectar feminicidios subraya cómo los algoritmos pueden ayudar a procesar grandes volúmenes de información, como artículos de noticias. Sin embargo, el uso de IA plantea desafíos éticos y técnicos:
Si los modelos están entrenados con datos incompletos o sesgados, pueden perpetuar exclusiones y desigualdades.
Los algoritmos deben ser lo suficientemente flexibles para adaptarse a contextos regionales y culturales específicos sin forzar definiciones homogéneas.
La Inteligencia Artificial también permite análisis avanzados, como el análisis espacial de feminicidios presentado en el evento, lo que abre nuevas posibilidades para comprender patrones geográficos y contextuales de violencia.
Construcción de comunidad y visibilización
El evento no sólo promovió el uso de datos y tecnologías, sino también la construcción de una comunidad interdisciplinaria de activistas, académicos, periodistas y funcionarios. Este enfoque reconoce que ni la tecnología ni los datos son suficientes por sí solos: el cambio requiere colaboración, solidaridad y una conciencia ética que priorice las experiencias humanas detrás de las cifras.
-
When thinking about
Corporalidades y su representación en los datos
La importancia de las categorías utilizadas en los procesos de recolección de datos, ejemplifica cómo elegir el género en un formulario, puede excluir a millones de personas no binarias. Esta exclusión es un reflejo de cómo las corporalidades y las identidades son frecuentemente invisibilizadas en los sistemas normativos. Las corporalidades no normativas enfrentan barreras sistemáticas que las excluyen de ser reconocidas o contabilizadas, perpetuando la marginalización a nivel político y social.
Los datos sobre feminicidio evidencian la importancia de considerar las particularidades de las corporalidades afectadas. Si no se registran las diversas circunstancias y contextos de los crímenes, se dejan fuera a víctimas y experiencias específicas, generando lo que se llama “datos ausentes”.
Traducción de realidades en datos
El proceso de traducir realidades sociales complejas, como el feminicidio, en categorías legibles para bases de datos o sistemas estadísticos, es un acto de traducción crítico. Este proceso no solo implica transferir información de un medio a otro, sino también decidir qué aspectos de esa realidad se consideran importantes, cómo se clasifican y qué se omite. Por ejemplo, en algunos casos, el acto de clasificar un asesinato como feminicidio puede depender de si se reconoce la motivación de género detrás del crimen, algo que no siempre está bien documentado o considerado por los sistemas legales.
Esta traducción imperfecta entre la experiencia vivida y la representación numérica no solo afecta la visibilidad del problema, sino también la capacidad de diseñar políticas efectivas.
Inteligencia Artificial como herramienta de intervención
La inteligencia artificial tiene el potencial de transformar la manera en que estos problemas son analizados y abordados. Por un lado, puede ayudar a procesar grandes volúmenes de información, como los reportes de feminicidio generados por activistas y periodistas, detectando patrones y tendencias. Por otro lado, las Inteligencias Artificiales deben ser diseñadas con cuidado para no reproducir o amplificar sesgos existentes. Si los modelos de Inteligencia Artificial están entrenados en datos incompletos o sesgados, corren el riesgo de reforzar las mismas dinámicas de exclusión que pretenden combatir.
-
-
feministai.pubpub.org feministai.pubpub.org
-
Bias exists in current data collection practices, leaving women and girls invisible in the data.
Los sesgos en la recopilación de datos y la invisibilización de mujeres y niñas puede relacionarse profundamente con corporalidades, traducción e Inteligencia Artificial.
Corporalidades y recopilación de datos
La invisibilidad de corporalidades diversas en los métodos tradicionales de recopilación de datos tienden a generalizar los cuerpos de las mujeres y niñas, omitiendo diferencias significativas como raza, etnicidad, identidad de género, condición de discapacidad o edad. Un enfoque feminista desvirtuaría estos datos para representar estas corporalidades y sus experiencias específicas.
Los sesgos en tecnologías biométricas y sensores en la Inteligencia Artificial analizan datos corporales, como reconocimiento facial o monitoreo de salud, a menudo fallan en captar la diversidad de cuerpos femeninos o marginados, reforzando estereotipos y exclusión.
Traducción como puente inclusivo
El lenguaje inclusivo en la recopilación de datos, al traducir encuestas, análisis o resultados, se corre el riesgo de eliminar términos culturalmente específicos como los culturemas que reflejan la diversidad de corporalidades y experiencias. Por ejemplo, conceptos relacionados con género o identidad corporal en un idioma pueden no tener equivalentes exactos en otro, lo que invisibiliza problemáticas clave.
La interpretación del significado en la traducción de datos requiere una sensibilidad cultural y feminista que respete las diferencias lingüísticas y semánticas de cómo las corporalidades y el género son comprendidos en distintos contextos. Sin esta sensibilidad, la traducción puede reforzar las inequidades en lugar de corregirlas.
Inteligencia Artificial (IA) y recopilación feminista de datos
Las oportunidades en la Inteligencia Artificial tiene un enorme potencial para analizar grandes volúmenes de datos de manera desagregada, identificar patrones de exclusión y ampliar el uso de fuentes no tradicionales (como redes sociales, sensores, y datos de dispositivos móviles). Esto podría visibilizar experiencias de mujeres y niñas que antes eran ignoradas.
Los riesgos de sesgos algorítmicos sucederían si los algoritmos de Inteligencia Artificial son entrenados con datos históricos sesgados, replicarán esas inequidades. Esto incluye subrepresentar corporalidades no normativas o ignorar contextos culturales específicos al interpretar datos traducidos.
El diseño interseccional sirve para superar estas limitaciones, los algoritmos deben diseñarse con principios feministas que incluyan parámetros explícitos para identificar y corregir sesgos relacionados con género y corporalidades diversas.
- Preguntas críticas para la recopilación inclusiva de datos
Las preguntas pueden adaptarse para incluir corporalidades, traducción e IA:
• ¿Quién define qué corporalidades son relevantes y cómo se representan en los datos? • ¿Quién traduce y cómo garantiza que las voces de las mujeres y niñas sean fielmente representadas? • ¿Cómo asegura la IA que los datos desagregados reflejen experiencias interseccionales y no perpetúen exclusión? • ¿Quién decide qué fuentes de datos se utilizan y con qué criterios éticos?
Hacia una Inteligencia Artificial inclusiva
Una Inteligencia Artificial de recopilación de datos verdaderamente inclusiva debe:
1. Diseñar encuestas y procesos de recopilación que reconozcan la diversidad de corporalidades y vivencias. 2. Incorporar traducciones que respeten el contexto cultural y lingüístico, permitiendo que los datos capturen las realidades de mujeres y niñas en distintos entornos. 3. Utilizar IA para integrar fuentes de datos no tradicionales, asegurando que los modelos sean revisados constantemente para mitigar sesgos algorítmicos. 4. Basarse en principios feministas que guíen cada etapa del proceso, desde la definición del problema hasta el uso de los datos.
-