6 Matching Annotations
  1. Jan 2025
    1. Risks, Limitations and Opportunities

      Corporalidades y Perspectiva Feminista

      El proyecto AymurAI aborda la justicia con un enfoque feminista, reconociendo las corporalidades de las víctimas de violencia de género (VBG por su sigla en inglés) y la necesidad de anonimizar datos sensibles para protegerlas. En Colombia, donde las desigualdades socioeconómicas y regionales afectan el acceso a la justicia, esta herramienta podría garantizar que los datos judiciales reflejen estas realidades y promuevan soluciones inclusivas y éticas.

      Traducción

      Dada la diversidad lingüística y cultural en Colombia, AymurAI podría incluir capacidades de traducción y procesamiento de datos multilingües. Esto sería clave para trabajar con lenguas indígenas, dialectos locales (culturemas) y documentos en formatos mixtos (digital y analógico), permitiendo que las decisiones judiciales sean analizadas y publicadas en contextos específicos de cada región.

      Inteligencia Artificial para Mitigar Sesgos

      Uno de los riesgos identificados es el sesgo en los datos judiciales. En Colombia, donde las jurisdicciones judiciales y los sistemas híbridos (analógico y digital) presentan variabilidad, AymurAI debería adaptarse para identificar y señalar estos sesgos, proporcionando contexto sobre las limitaciones de los datos. Por ejemplo, en zonas rurales con poca densidad poblacional, la anonimización adicional sería crucial para proteger la identidad de las personas.

      Estrategias de Implementación

      El proyecto plantea un enfoque gradual y adaptativo, priorizando casos piloto en tribunales específicos, con miras a extenderse a otras jurisdicciones. En Colombia, esto podría significar iniciar con tribunales especializados en violencia de género y, progresivamente, incorporar otras ramas judiciales. Las herramientas desarrolladas deben ser maleables para adaptarse a diversas necesidades locales, manteniendo una base tecnológica abierta y colaborativa.

      Innovación Social

      Transformar prácticas judiciales al crear oficinas especializadas en tribunales para gestionar datos legales con Inteligencia Artificial, al valorar la experiencia humana y utilizando la Inteligencia Artificial como una herramienta complementaria.

      Fomentar la justicia abierta para facilitar bases de datos públicas accesibles y contextualizadas, útiles para la elaboración de políticas públicas, activismo y generación de conciencia ciudadana.

      Mejorar la experiencia del usuario al incorporar visualizaciones interactivas para comunicar datos de forma comprensible y centrarse en aspectos menos visibles de la justicia.

      Retos en Colombia

      Infraestructura desigual y limitada en zonas rurales.

      Resistencia al cambio en sistemas judiciales tradicionales.

      Necesidad de entrenamiento para operadores judiciales en el uso de tecnodiversidades como la Inteligencia Artificial.

      Oportunidades

      Construcción de una justicia más inclusiva y centrada en las personas.

      Desarrollo de tecnología que respete las diversidades culturales y lingüísticas del país.

      Promoción de la transparencia y la participación ciudadana en los sistemas de justicia.

      AymurAI podría ser un catalizador para modernizar y feminizar la justicia en Colombia, integrando traducción, corporalidades y enfoques de Inteligencia Artificial éticos.

      Su implementación fortalecería la protección de las víctimas, mejoraría la calidad de los datos judiciales y abriría nuevas oportunidades para construir una justicia más accesible, equitativa y adaptada a las necesidades locales.

    1. According to Srinivasan (2019),1 the way people in the global South use and experience digital technologies could help bring a different understanding to tech innovation and its applications in the real world and the ways in which they are built for and by users.

      Las comunidades indígenas en Colombia representan un componente esencial de la diversidad cultural, étnica y epistemológica del país. Estas comunidades poseen conocimientos ancestrales que pueden aportar soluciones innovadoras frente a problemas complejos, como la sostenibilidad ambiental, la gestión de recursos y la convivencia en contextos de diversidad. Estos saberes, aunque históricamente marginados, tienen el potencial de enriquecer la forma en que se diseñan y utilizan las tecnodiversidades, incluida la Inteligencia Artificial, para que sean inclusivas y contextualizadas.

      La implementación de tecnologías que respeten y promuevan las lenguas indígenas puede contribuir a la preservación del patrimonio cultural y facilitar el acceso a derechos fundamentales para estas comunidades.

      Asimismo, la traducción en Colombia, particularmente en el contexto de lenguas indígenas, es una herramienta fundamental para la inclusión y la equidad. Dada la diversidad lingüística del país, la traducción puede actuar como intermediación multilíngue entre estas comunidades y el desarrollo tecnológico.

      La Inteligencia Artificial puede desempeñar un papel crucial en la traducción automática y el procesamiento del lenguaje natural para lenguas indígenas. Sin embargo, esto requiere una infraestructura adecuada y un enfoque ético para garantizar que estas tecnologías respeten las particularidades culturales como los culturemas y no refuercen asimetrías de poder.

      Colombia, desde el Sur Global, enfrenta desafíos significativos en términos de desigualdad y acceso a tecnología. Sin embargo, también tiene la oportunidad de liderar un modelo de innovación que sea sensible a las realidades locales y que priorice la justicia social y ambiental. La Inteligencia Artificial podría:

      Diseñar tecnologías accesibles que respondan a las necesidades específicas de comunidades en contextos de bajos recursos.

      Desarrollar algoritmos y bases de datos que incluyan y prioricen las lenguas y conocimientos indígenas.

      Abordar problemas ambientales de manera contextualizada y sostenible.

      Las políticas públicas deben promover la participación activa de las comunidades indígenas y otros actores marginados en la creación y uso de tecnologías. Esto incluye:

      Financiación para proyectos de traducción y preservación de lenguas indígenas utilizando la Inteligencia Artificial.

      Promoción de la participación comunitaria en el diseño de tecnologías.

      Regulaciones éticas para garantizar que las tecnologías no perpetúen formas de violencia estructural ni exclusión.

    1. Collecting the right data with methods that ensure the right disaggregation is an important first step, but to create a more inclusive data system, these data must also be analyzed and interpreted using appropriate and efficient methods.

      Corporalidades y fuentes de datos no tradicionales

      Las fuentes no tradicionales, como registros administrativos y datos generados por la ciudadanía, pueden proporcionar información más granular sobre las corporalidades. Esto incluye indicadores relacionados con salud, género, y desigualdades espaciales o demográficas, como se observó en el caso de Nepal, donde datos geoetiquetados revelaron variaciones espaciales de desigualdades de género.

      Incorporar datos de poblaciones marginadas, como personas trans, no binarias o mujeres en comunidades rurales, puede visibilizar experiencias y desigualdades que los métodos tradicionales ignoran. Por ejemplo, análisis de violencia sexual en El Salvador demuestran cómo el análisis de registros administrativos puede desglosar patrones que afectan a grupos específicos.

      Traducción de datos y la alteración de dinámicas de poder

      La recopilación de datos generados por la ciudadanía permite reflejar mejor las realidades vividas por distintas corporalidades, particularmente en regiones o contextos donde los métodos tradicionales no capturan su complejidad. Por ejemplo, la traducción de experiencias reportadas a través de encuestas SMS debe respetar las diferencias culturales y lingüísticas de los encuestados.

      Al permitir que las comunidades participen directamente en la generación de datos, como en el proyecto de Ghana para reportar resultados en salud materno-infantil, se altera la dinámica de poder en la recopilación de datos. Este enfoque feminista reconoce las experiencias vividas y las traduce en evidencia cuantificable.

      IA como herramienta para la equidad de datos

      La Inteligencia Artificial puede detectar patrones en fuentes de datos no tradicionales, como redes sociales, imágenes satelitales y registros móviles. Estos patrones pueden revelar desigualdades relacionadas con género, ubicación o acceso a servicios, permitiendo intervenciones informadas.

      Las tecnologías de Inteligencia Artificial permiten analizar múltiples capas de desigualdad simultáneamente. Por ejemplo, combinando datos satelitales, móviles y encuestas demográficas, se pueden mapear variaciones interseccionales como la brecha de alfabetización por género y región.

      La Inteligencia Artificial puede crear datos sintéticos para suplir vacíos en áreas donde las corporalidades y sus experiencias no están representadas, siempre con atención ética para evitar reforzar sesgos.

      Desafíos éticos y metodológicos

      La recopilación de datos mediante métodos no tradicionales y herramientas de Inteligencia Artificial plantea preocupaciones sobre la privacidad, especialmente para las corporalidades en situaciones vulnerables.

      La interpretación y traducción de datos implica que el análisis automatizado puede no captar matices culturales (culturemas) o de género si no se diseñan algoritmos sensibles e inclusivos.

      Muchos gobiernos y comunidades carecen de los recursos técnicos y financieros necesarios para implementar sistemas avanzados de análisis de datos, limitando su capacidad para traducir datos en políticas inclusivas.

      Un enfoque transformador para la recopilación de datos

      Usar fuentes no tradicionales para incluir experiencias invisibilizadas, como mujeres en zonas rurales o personas no binarias.

      Garantizar que los datos recojan las perspectivas locales con sensibilidad cultural y lingüística.

      Diseñar algoritmos que no solo procesen datos, sino que también prioricen la equidad y representen realidades interseccionales.

      Implementar regulaciones claras para proteger la privacidad y asegurar que las tecnologías beneficien a las poblaciones marginadas.

    2. Bias exists in current data collection practices, leaving women and girls invisible in the data.

      Los sesgos en la recopilación de datos y la invisibilización de mujeres y niñas puede relacionarse profundamente con corporalidades, traducción e Inteligencia Artificial.

      Corporalidades y recopilación de datos

      La invisibilidad de corporalidades diversas en los métodos tradicionales de recopilación de datos tienden a generalizar los cuerpos de las mujeres y niñas, omitiendo diferencias significativas como raza, etnicidad, identidad de género, condición de discapacidad o edad. Un enfoque feminista desvirtuaría estos datos para representar estas corporalidades y sus experiencias específicas.

      Los sesgos en tecnologías biométricas y sensores en la Inteligencia Artificial analizan datos corporales, como reconocimiento facial o monitoreo de salud, a menudo fallan en captar la diversidad de cuerpos femeninos o marginados, reforzando estereotipos y exclusión.

      Traducción como puente inclusivo

      El lenguaje inclusivo en la recopilación de datos, al traducir encuestas, análisis o resultados, se corre el riesgo de eliminar términos culturalmente específicos como los culturemas que reflejan la diversidad de corporalidades y experiencias. Por ejemplo, conceptos relacionados con género o identidad corporal en un idioma pueden no tener equivalentes exactos en otro, lo que invisibiliza problemáticas clave.

      La interpretación del significado en la traducción de datos requiere una sensibilidad cultural y feminista que respete las diferencias lingüísticas y semánticas de cómo las corporalidades y el género son comprendidos en distintos contextos. Sin esta sensibilidad, la traducción puede reforzar las inequidades en lugar de corregirlas.

      Inteligencia Artificial (IA) y recopilación feminista de datos

      Las oportunidades en la Inteligencia Artificial tiene un enorme potencial para analizar grandes volúmenes de datos de manera desagregada, identificar patrones de exclusión y ampliar el uso de fuentes no tradicionales (como redes sociales, sensores, y datos de dispositivos móviles). Esto podría visibilizar experiencias de mujeres y niñas que antes eran ignoradas.

      Los riesgos de sesgos algorítmicos sucederían si los algoritmos de Inteligencia Artificial son entrenados con datos históricos sesgados, replicarán esas inequidades. Esto incluye subrepresentar corporalidades no normativas o ignorar contextos culturales específicos al interpretar datos traducidos.

      El diseño interseccional sirve para superar estas limitaciones, los algoritmos deben diseñarse con principios feministas que incluyan parámetros explícitos para identificar y corregir sesgos relacionados con género y corporalidades diversas.

      1. Preguntas críticas para la recopilación inclusiva de datos

      Las preguntas pueden adaptarse para incluir corporalidades, traducción e IA:

      •   ¿Quién define qué corporalidades son relevantes y cómo se representan en los datos?
      •   ¿Quién traduce y cómo garantiza que las voces de las mujeres y niñas sean fielmente representadas?
      •   ¿Cómo asegura la IA que los datos desagregados reflejen experiencias interseccionales y no perpetúen exclusión?
      •   ¿Quién decide qué fuentes de datos se utilizan y con qué criterios éticos?
      

      Hacia una Inteligencia Artificial inclusiva

      Una Inteligencia Artificial de recopilación de datos verdaderamente inclusiva debe:

      1.  Diseñar encuestas y procesos de recopilación que reconozcan la diversidad de corporalidades y vivencias.
      2.  Incorporar traducciones que respeten el contexto cultural y lingüístico, permitiendo que los datos capturen las realidades de mujeres y niñas en distintos entornos.
      3.  Utilizar IA para integrar fuentes de datos no tradicionales, asegurando que los modelos sean revisados constantemente para mitigar sesgos algorítmicos.
      4.  Basarse en principios feministas que guíen cada etapa del proceso, desde la definición del problema hasta el uso de los datos.
      
    1. we shall see how AI algorithms, when trained on these datasets, pick up these biases and amplify them, leading to biased AI systems.

      La Inteligencia Artificial y las corporalidades no solo tiene implicaciones técnicas, sino que también expone dinámicas culturales y sociales que determinan cómo los cuerpos son interpretados y clasificados.

      El predominio de rostros blancos en datasets como Rostros Etiquetados en la Naturaleza (LFW por su sigla en inglés) crea modelos que reconocen con precisión a personas blancas, pero fallan al identificar a personas de otras razas. Esto marginaliza a cuerpos no blancos, reduciendo su visibilidad tecnológica y reproduciendo jerarquías raciales.

      La tendencia de los modelos a asociar características específicas con ciertos grupos (como mujeres en la cocina u hombres en el garaje) refleja cómo las corporalidades son codificadas de manera sesgada en los datos y amplificadas por la Inteligencia Artificial.

      El proceso de entrenamiento de la Inteligencia Artificial puede considerarse una forma de traducción algorítmica, donde las corporalidades son reducidas a patrones y etiquetas.

      Los modelos tienden a generalizar patrones, lo que significa que las corporalidades que no se ajustan a los estándares dominantes (por ejemplo, caras racializadas o cuerpos fuera de las normas hegemónicas) son malinterpretadas o invisibilizadas.

      Durante el entrenamiento, los modelos reciben “recompensas” por predecir correctamente según el dataset. Si el dataset es sesgado, las predicciones correctas refuerzan esas generalizaciones erróneas, consolidando una visión limitada y parcial de las corporalidades.

      El uso de métricas como la precisión para evaluar modelos sesgados resalta una desconexión entre la eficiencia técnica y la justicia social, un modelo que alcanza un 85% de precisión al reconocer rostros blancos en un dataset dominado por estas imágenes no es verdaderamente eficiente; simplemente está optimizado para perpetuar el sesgo del dataset.

      La creación de datasets verdaderamente diversos y la reformulación de cómo los modelos interactúan con las corporalidades son pasos esenciales para evitar la amplificación de sesgos.

      Un dataset diverso no solo debe incluir representaciones equilibradas de diferentes razas y géneros, sino también considerar otras dimensiones de la identidad, como la edad, si tiene alguna condición de discapacidad y los culturemas.

      La Inteligencia Artificial debe integrar mecanismos que detecten y mitiguen sesgos inherentes, evitando la reproducción de inequidades.

      Incorporar perspectivas interseccionales permite a la Inteligencia Artificial considerar cómo múltiples formas de identidad se cruzan y afectan la representación de las corporalidades.

    1. Los culturemas son, por definición, nociones específico-culturales deun país o de un ámbito cultural y muchos de ellos poseen una estructurasemántica y pragmática compleja. Los culturemas son también unidades decomunicación que necesariamente han de ser tenidas en cuenta einventariadas en diccionarios ad hoc3. Mediante estos diccionarios nosolamente se podrá hacer un estudio comparado de los culturemas impor-tantes en las distintas lenguas del mundo, sino que se hará también unacontribución significativa a la enseñanza de lenguas (a nivel avanzado) y a latraducción. Como es sabido, uno de los escollos importantes de la traducciónson los culturemas, y mediante un estudio comparativo se estará en