1 Matching Annotations
  1. Jan 2025
    1. Bias in the data and algorithms

      En el contexto de la recolección de datos inclusivos, se puede analizar desde tres perspectivas como puente para comprender realidades diversas, y el uso ético de la Inteligencia Artificial para promover la inclusión.

      Corporalidades y sesgos en los datos y algoritmos

      Las metodologías de recolección de datos tradicionales han invisibilizado a muchas corporalidades, como los cuerpos de mujeres embarazadas, personas trans y no binarias. Por ejemplo, el diseño de cinturones de seguridad que ignora diferencias corporales aumenta el riesgo de lesiones graves para mujeres. La Inteligencia Artificial, si se basa en datos sesgados, amplifica estas desigualdades, perpetuando narrativas dominadas por parámetros masculinos y blancos.

      Los sistemas de clasificación basados en el binario hombre/mujer deben ser replanteados. Incorporar categorías inclusivas en los algoritmos y diseños de recolección de datos es crucial para capturar experiencias interseccionales relacionadas con género, etnia, discapacidad y otras identidades.

      Traducción como herramienta de inclusión

      Traducir no solo significa adaptar el lenguaje, sino también interpretar las realidades vividas por diferentes corporalidades en contextos sociales y culturales específicos. Por ejemplo, las respuestas de mujeres en redes sociales pueden estar condicionadas por el miedo a amenazas digitales, lo que requiere traducir estas limitaciones en análisis más sensibles.

      La traducción de los riesgos y beneficios de la recolección de datos a las comunidades involucradas es esencial para garantizar un consentimiento informado. Esto es especialmente relevante para grupos vulnerables que pueden no comprender completamente cómo se utilizarán sus datos.

      Inteligencia Artificial como aliada para la inclusión y la ética

      La Inteligencia Artificial puede combinar datos tradicionales y no tradicionales para ofrecer información y corregir desigualdades. Sin embargo, el diseño de algoritmos debe incluir parámetros que reflejen normas sociales y realidades políticas, considerando los desafíos específicos de las mujeres y niñas.

      La intersección de big data y la Inteligencia Artificial plantea desafíos éticos en términos de privacidad. Las tecnologías deben garantizar la anonimización de datos y prevenir su mal uso para dañar a comunidades vulnerables. Iniciativas como las directrices del UNDG enfatizan la necesidad de marcos normativos que protejan la privacidad y promuevan el consentimiento informado.

      Para lograr una verdadera transformación, los gobiernos y organizaciones deben invertir en personal técnico capacitado y promover colaboraciones público-privadas que aprovechen el big data para el bien común. Esto incluye proyectos de recopilación de datos enfocados en feminismos interseccionales y en visibilizar a las corporalidades históricamente excluidas.