Los cuerpos, la traducción y la Inteligencia Artificial vistos desde una posibilidad ética en la equidad revela tensiones profundas entre lo cuantificable y lo ético, especialmente cuando consideramos cómo la Inteligencia Artificial impacta los cuerpos. En el centro de estas tensiones yace un desafío, traducir conceptos éticos complejos, como la equidad, en métricas operativas que puedan implementarse en modelos matemáticos. Sin embargo, esta traducción no es neutral ni perfecta, es un acto cargado de decisiones políticas, éticas y culturales que afectan directamente a las corporalidades.
Primero que todo, el cuerpo en el centro del problema refleja que los cuerpos son los sujetos finales de las decisiones algorítmicas. Por ejemplo, en el caso de las métricas de paridad demográfica y de igualdad de oportunidades, los cuerpos se convierten en estadísticas como los números de aceptación o rechazo y probabilidades calculadas. Esto despersonaliza a los individuos y reduce sus complejas experiencias a puntos de datos que se integran en sistemas automatizados.
Además, el impacto sobre los cuerpos marginados no puede desvincularse de sus contextos culturales y sociales. Por ejemplo, la paridad demográfica puede corregir desigualdades numéricas, pero si la Inteligencia Artificial perpetúa estereotipos o malinterpreta características culturales en sus métricas de similitud, los cuerpos aún enfrentan injusticias.
segundo, la traducción vista desde las posibilidades éticas hasta la matemática implica que la traducción de conceptos éticos en modelos matemáticos, como los índices de entropía generalizada o las métricas de equidad grupal, enfrenta una paradoja fundamental ya que la ética es intrínsecamente contextual y fluida, mientras que las matemáticas buscan exactitud, consistencia y universalidad. Esto da lugar a dilemas como el teorema de imposibilidad, donde no es posible satisfacer simultáneamente múltiples métricas de equidad.
Este proceso de traducción puede ocultar o amplificar sesgos, dependiendo de cómo se define y mide la similitud entre individuos. Por ejemplo, al intentar medir similitud entre postulantes a un empleo, ¿cómo se traduce la experiencia laboral de una mujer en un contexto cultural donde históricamente se han excluido sus contribuciones? Traducir esta experiencia en un valor numérico puede distorsionar las realidades de los cuerpos que pretende representar.
Tercero, la Inteligencia Artificial como cuerpo traductor indica que no solo traduce datos, sino también cuerpos y experiencias, reduciéndolos a representaciones que interactúan con sistemas automatizados. Por lo tanto, la Inteligencia Artificial actúa como un “cuerpo traductor” que interpreta y reconfigura las relaciones de poder existentes. Un ejemplo es la dificultad de aplicar métricas de equidad grupal en contextos donde las desigualdades históricas han creado disparidades profundas en las oportunidades educativas y económicas.
Por último, el problema surge cuando la Inteligencia Artificial perpetúa, en lugar de mitigar, estas desigualdades. Por ejemplo, si una métrica de igualdad de oportunidades selecciona predominantemente a individuos del grupo mayoritario debido a sus mayores tasas de calificación previa, las dinámicas de poder se refuerzan, y los cuerpos del grupo minoritario quedan relegados.
Para lograr unas posibilidades éticas dentro de las cartografías de tecnodiversidades es necesario que:
Las métricas de equidad deben reevaluarse constantemente en función de los contextos sociales, políticos y culturales en los que se aplican. Esto implica un enfoque repetitivo y dinámico en la toma de decisiones algorítmicas.
Los cuerpos no pueden reducirse a datos estadísticos. Es necesario desarrollar métodos participativos que integren las experiencias vividas de los afectados por las decisiones algorítmicas en el diseño y evaluación de la Inteligencia Artificial.
En lugar de intentar traducir la ética directamente a matemática, podemos fomentar una interacción entre disciplinas, incluyendo la filosofía, las ciencias sociales y la ingeniería, para que la traducción sea más inclusiva y representativa.
Las métricas de similitud deben ser auditadas desde perspectivas interdisciplinarias para garantizar que no perpetúen sesgos ni deshumanicen a los sujetos.