if we can strategically intervene algorithmically, we have a powerful tool to help break the cycle of discrimination.
Las corporalidades (entendidas como los cuerpos físicos y los ensamblajes que los habitan) son intrínsecas a los datos que alimentan los sistemas de Inteligencia Artificial. Aunque los sistemas se perciban como objetivos o neutrales, los datos que los entrenan están profundamente arraigados en contextos sociales y culturales provenientes del Norte Global. La decisión de qué datos recolectar y cómo procesarlos refleja juicios humanos, que a menudo priorizan ciertas corporalidades sobre otras. Esto explica por qué ciertas Inteligencias Artificiales pueden amplificar inequidades ya existentes, como en el ejemplo de los algoritmos que ofrecen empleo mejor remunerado principalmente a hombres o a personas blancas.
El diseño de la Inteligencia Artificial que ignora las diversidades corporales e identitarias perpetúa su invisibilización y marginalización. Surge la necesidad de considerar cómo las corporalidades se registran, interpretan y representan en los datos.
La traducción implica transformar las experiencias humanas, incluidas las vivencias de corporalidades diversas, en datos que la Inteligencia Artificial pueda procesar. Sin embargo, esta traducción no es neutral. La selección de métricas, variables y optimizaciones refleja decisiones humanas que pueden reforzar dinámicas de poder existentes.
¿Qué cuerpos se incluyen o excluyen?
Si los datos no representan adecuadamente a personas no binarias, racializadas o en condición de discapacidad, la Inteligencia Artificial no podrá abordar sus necesidades ni reconocer sus realidades.
¿Cómo se procesan las diferencias?
Las corporalidades no normativas suelen ser traducidas en categorías reduccionistas o ignoradas por completo en el diseño de algoritmos, lo que perpetúa su exclusión.
La traducción entre corporalidades y modelos computacionales es un acto político, donde los sesgos y prioridades humanos moldean la representación de la realidad.
La Inteligencia Artificial no sólo refleja, sino que también transforma la relación entre corporalidades y sociedades al influir en oportunidades, recursos y visibilidad. La Inteligencia Artificial puede crear bucles de retroalimentación negativos, donde los sesgos iniciales en los datos refuerzan y amplifican desigualdades existentes, afectando las decisiones futuras, entre estos:
Algoritmos que perpetúan la discriminación laboral.
Sistemas que limitan el acceso a recursos como vivienda, educación o servicios.
Esta capacidad de influencia también abre una oportunidad para intervenir. Al desarrollar y aplicar estrategias de desviación algorítmica (debiasing), es posible diseñar sistemas que rompan estos ciclos de discriminación. Esto requiere integrar una conciencia crítica sobre las corporalidades y su representación en los datos.
La percepción de que la Inteligencia Artificial es imparcial desvía la atención de las formas en que las corporalidades y las experiencias humanas son fundamentales para su diseño y funcionamiento. La Inteligencia Artificial no existe separada de las dinámicas humanas, por el contrario, actúa como un espejo que amplifica tanto nuestras virtudes como nuestros sesgos.
La construcción de Inteligencia Artificial más justa requiere:
Reconocer las corporalidades ausentes en los datos y priorizar su inclusión.
Redefinir los procesos de traducción para capturar la complejidad de las realidades humanas en lugar de simplificarlas.
Intervenir estratégicamente en la Inteligencia Artificial para mitigar su impacto negativo y transformar las dinámicas sociales hacia una mayor equidad.