8 Matching Annotations
  1. Jan 2025
    1. we want diverse women proactively involved in all AI processes, shaping the technology that affects every part of our lives.

      La exclusión tecnológica y los sesgos en la Inteligencia Artificial tienen un impacto directo en las corporalidades diversas en Colombia, especialmente entre mujeres y niñas en contextos rurales, urbanos y marginalizados.

      La iniciativa aboga por incluir experiencias de vida y conocimientos de primera línea para informar el diseño de algoritmos y decisiones tecnológicas. Esto implica no solo abrir espacios en universidades y sectores públicos y privados, sino también asegurar que las corporalidades diversas sean representadas en las mesas donde se toman decisiones sobre intervenciones tecnológicas, incluidas las relacionadas con la Inteligencia Artificial.

      Un modelo participativo que conecte a expertas feministas, científicas sociales, ingenieras, economistas y comunidades, creando un ecosistema inclusivo y multidisciplinario para corregir desigualdades de género, raza y clase.

      Esto busca evitar que las Inteligencias Artificiales repliquen y amplifiquen los sesgos existentes, promoviendo en cambio algoritmos que reflejen y sirvan a las realidades locales.

      En Colombia, donde las dinámicas de exclusión son especialmente complejas, esto es crucial para garantizar que la tecnología no solo sea inclusiva, sino que también respete y valore las corporalidades diversas. Implementar estas propuestas puede contribuir a soluciones más justas y representativas, fomentando un futuro colectivo donde las voces y experiencias de las mujeres sean motor de transformación.

    1. three essential recommendations for building equality from scratch when designing e-procurement systems: civic participation, automation of reparation rules, and the constant improvement of the e-procurement platforms:

      En Colombia, las comunidades indígenas, afrodescendientes y campesinas enfrentan barreras estructurales que limitan su acceso a la participación económica y política, agravadas por la desigualdad en la distribución de recursos tecnológicos.

      La implementación de sistemas de contratación pública automatizados (e-procurement) en Colombia podría:

      Promover la participación activa de mujeres, personas con discapacidades y grupos étnicos en la lista de proveedores.

      Compensar desigualdades históricas al aplicar reglas de reparación que prioricen a las comunidades marginalizadas en la asignación de contratos.

      Por ejemplo, podrían diseñarse mecanismos para priorizar la contratación de mujeres rurales y pequeñas cooperativas lideradas por minorías en sectores como la agricultura o la tecnología.

      Colombia tiene una rica diversidad lingüística con lenguas indígenas, criollas y el español. Para que la Inteligencia Artificial sea verdaderamente inclusiva, es crucial desarrollar datasets localizados y traducir contenidos a lenguas como el wayuunaiki, emberá o nasa yuwe.

      Garantizar que las comunidades no hispanohablantes puedan participar en procesos de contratación pública.

      Reducir el sesgo en la Inteligencia Artificial al incorporar datos lingüísticos y culturales diversos en el entrenamiento de algoritmos.

      Tal como se observa en iniciativas como la plataforma Common Voice en África, Colombia podría promover proyectos similares para recopilar y digitalizar lenguas locales, fortaleciendo la inclusión en sistemas automatizados de gobernanza.

      Inspirándose en el enfoque presentado, Colombia puede utilizar Inteligencia Artificial y e-procurement para mejorar los procesos de contratación pública con énfasis en equidad e inclusión:

      1. Participación cívica

      Crear plataformas abiertas donde las comunidades puedan participar activamente en el diseño y mejora de los sistemas.

      Incluir mecanismos de retroalimentación para que las decisiones sean transparentes y respondan a las necesidades locales.

      1. Reglas de reparación automatizadas:

      Implementar medidas temporales que prioricen a mujeres, minorías étnicas y personas con discapacidad en los procesos de contratación.

      Diseñar incentivos económicos para cooperativas lideradas por mujeres y comunidades indígenas, promoviendo la redistribución equitativa de recursos públicos.

      1. Mejora constante de los sistemas:

      Garantizar que las plataformas sean de código abierto para permitir auditorías y mejoras colaborativas.

      Documentar públicamente los cambios realizados en los sistemas, asegurando que respondan a las demandas ciudadanas.

      Principios feministas en la tecnología gubernamental

      Adoptar un enfoque feminista en la implementación de tecnologías emergentes en Colombia puede:

      Promover la igualdad de género al incorporar principios de equidad desde el diseño de Inteligencia Artificial.

      Aumentar la transparencia diseñar sistemas que prioricen los derechos humanos y eviten prácticas discriminatorias.

      Fortalecer la gobernanza democrática al integrar la perspectiva de género en las políticas públicas de contratación.

      Por ejemplo, los sistemas de contratación pública podrían evaluar automáticamente la representación de género entre los proveedores, asegurando una distribución justa de oportunidades.

    1. Additional Ethical Considerations

      Las corporalidades deben ser el centro en la creación de la Inteligencia Artificial, ya que los sistemas impactan directamente a las personas. Es crucial incluir las voces de poblaciones vulnerables, quienes suelen ser ignoradas en los procesos de diseño. Esto implica entender las expectativas de justicia y equidad de los diversos grupos sociales y cómo estas varían según factores como el estatus socioeconómico, la experiencia tecnológica y el nivel de impacto directo que puedan experimentar.

      La traducción con Inteligencia Artificial no solo implica convertir datos en decisiones, sino hacerlo de manera comprensible para todos. La interpretación va más allá de la simple explicación técnica, buscando que cualquier ciudadano pueda entender cómo opera un sistema y confiar en sus resultados. Este proceso de traducción también debe integrar valores éticos como la privacidad y la equidad, equilibrando estas metas para evitar comprometer una en favor de la otra.

      Las Inteligencias Artificiales no funcionan aisladas; interactúan con los humanos que las usan y son afectadas por ellos. Esto es evidente en escenarios como la revisión de libertad condicional, donde las decisiones finales las toman jueces basándose en las predicciones de la Inteligencia Artificial. La interacción entre sesgos humanos y algorítmicos puede amplificar injusticias si no se diseña cuidadosamente todo el sistema. Por ello, la colaboración entre humanos y máquinas debe ser auditada y diseñada para reducir los sesgos, no perpetuarlos.

    2. Classification Rebalancing Ranking Sampling

      Las corporalidades son esenciales en la Inteligencia Artificial, ya que los datos utilizados reflejan las experiencias vividas de las personas. Sin embargo, estas experiencias están mediadas por atributos protegidos como género, raza o condición de discapacidad, los cuales a menudo están ausentes o mal representados en los sistemas algorítmicos. Esto limita la capacidad de los algoritmos para abordar inequidades estructurales. Por ejemplo, si un proceso de selección de personal omite mujeres en etapas iniciales, el sistema no podrá generar una representación justa más adelante.

      Traducir conceptos como equidad o no discriminación en métricas procesables es un desafío. Los algoritmos deben manejar definiciones de justicia, pero no siempre pueden satisfacerlas simultáneamente. Esto requiere soluciones que minimicen las injusticias en distintos contextos. Además, los sistemas actuales comienzan a abordar problemas como la ausencia de atributos protegidos en los datos, utilizando técnicas que implican trabajar de forma implícita con la información demográfica.

      La Inteligencia Artificial no es monolítica; es un conjunto de algoritmos interconectados que toman decisiones en varias etapas. El sesgo puede introducirse en cualquier punto, desde la preselección de datos hasta la etapa final de decisión. Por ejemplo, en procesos como la búsqueda web o la contratación, los sesgos en etapas iniciales limitan la capacidad de los algoritmos posteriores para producir resultados diversos y justos. Por ello, es crucial considerar la equidad en todas las partes del sistema, no solo en su resultado final.

    1. Addressing problems of traditional data collection

      Superar las limitaciones de los métodos tradicionales de recopilación de datos mediante enfoques inclusivos y feministas incluye la consideración de cuerpos diversos, la sensibilidad cultural y lingüística en la traducción de datos, y el uso de Inteligencia Artificial para identificar y corregir sesgos inherentes.

      Corporalidades y sesgos en la recopilación de datos

      Los métodos tradicionales tienden a homogeneizar las experiencias corporales, ignorando diferencias relacionadas con género, identidad no binaria, edad, condición de discapacidad, o situación socioeconómica. Esto invisibiliza las realidades de las mujeres y otros grupos marginados.

      Los datos recopilados a nivel de hogar ignoran desigualdades dentro del mismo, lo que perpetúa la invisibilización de corporalidades y experiencias individuales. Por ejemplo, las contribuciones económicas de mujeres y niñas suelen ser subestimadas o ignoradas.

      Las corporalidades en situaciones de vulnerabilidad extrema, como mujeres refugiadas, personas trans y no binarias, enfrentan mayores riesgos de ser omitidas. Estas exclusiones limitan la capacidad de crear políticas que respondan a sus necesidades.

      Traducción como mediadora inclusiva

      El diseño de preguntas en las encuestas refleja sesgos culturales y de género, lo que perpetúa desigualdades. Por ejemplo, las preguntas que asumen roles tradicionales, como identificar a una mujer como “ama de casa” sin considerar su trabajo remunerado, invisibilizan sus contribuciones económicas. Traducir estos términos con sensibilidad feminista puede ayudar a visibilizar estas realidades.

      La traducción debe permitir incorporar categorías de género inclusivas, como “no binario” o “otra”, asegurando que los datos reflejen corporalidades no normativas y realidades locales.

      Inteligencia artificial como herramienta inclusiva

      La Inteligencia Artificial puede identificar y mitigar sesgos en el diseño de encuestas y en la recopilación de datos al analizar patrones de exclusión. Por ejemplo, puede destacar cómo ciertas preguntas excluyen a las mujeres trans o no binarias al imponer categorías binarias de género.

      Los algoritmos pueden descomponer datos por variables interseccionales, como género, edad, ingresos y etnicidad, para revelar desigualdades invisibles en los métodos tradicionales. Esto incluye medir desigualdades dentro de los hogares y entre grupos marginados.

      La Inteligencia Artificial puede utilizar fuentes de datos no tradicionales, como redes sociales o sensores, para captar experiencias de corporalidades excluidas en contextos conflictivos o difíciles de alcanzar con métodos estándar.

    1. feminist AI should

      Las tecnologías de Inteligencia Artificial están mediada por las estructuras de poder que moldean qué datos se recopilan, cómo se interpretan y qué usos se les da. Esto es especialmente evidente en las brechas de datos de género, donde las experiencias y necesidades de ciertos cuerpos, particularmente los de mujeres, personas no binarias y otras corporalidades marginalizadas, son omitidas, invisibilizadas o mal representadas.

      Los ecosistemas diversos y el rol de los actores sociales consiste en que la producción de datos es un proceso profundamente social, influido por las decisiones de múltiples agendas del Norte Global. Para abordar las brechas de género en los datos, es esencial reconocer este ecosistema diverso (gobiernos, empresas tecnológicas, organizaciones de la sociedad civil, activistas y comunidades de base).

      Las corporalidades invisibilizadas en los datos pueden emerger a través de esfuerzos colaborativos entre sociedad civil y ministerios gubernamentales. Por ejemplo, iniciativas donde organizaciones feministas trabajan con gobiernos para construir políticas de datos con perspectiva de género.

      Estas colaboraciones no solo reducen las brechas de datos, sino que también desvirtúan estructuras de poder tradicionales al movilizar a las comunidades hacia el cambio.

      Las dinámicas de coerción interna y externa en la transformación tecnológica.

      Para construir una Inteligencia Artificial feminista, es necesario emplear estrategias que combinen herramientas internas (cambios dentro de las instituciones) y externas (presión desde movimientos sociales).

      Las estrategias internas incluyen la integración de equipos interdisciplinarios que combinen conocimientos técnicos y teóricos, como data scientists, activistas y académicas feministas, para diseñar sistemas que reflejen la diversidad de experiencias corporales.

      Las estrategias externas implican la presión de movimientos feministas para exigir transparencia y responsabilidad a las grandes empresas tecnológicas y gobiernos, promoviendo cambios en las políticas y normativas que rigen la tecnología.

      Investigación sobre ejemplos exitosos (“bright spots”): Para avanzar hacia una Inteligencia Artificial más inclusiva, es vital identificar casos donde actuantes feministas hayan logrado cerrar brechas de género o implementar sistemas tecnológicos más equitativos. Por ejemplo, proyectos que han utilizado datos de género para visibilizar el trabajo de cuidado no remunerado o reducir las desigualdades en salud materna pueden servir como modelos para futuras iniciativas.

      Estas experiencias también resaltan el papel de las comunidades locales en traducir las necesidades corporales específicas en soluciones tecnológicas efectivas y contextualizadas.

      la investigación interdisciplinaria y colaborativa podría abrir las brechas en los datos de género y el diseño de una IA feminista con enfoques que integren disciplinas que tradicionalmente no dialogan entre sí.

      La traducción de corporalidades a datos digitales puede ser abordada por equipos que combinen desarrolladores tecnológicos, expertas en teoría de género y organizadoras comunitarias, generando sistemas que reflejen tanto las dinámicas sociales como los contextos técnicos.

      Este enfoque también fomenta sistemas de Inteligencia Artificial que sean culturalmente sensibles y diseñados para promover equidad.

      La construcción de plataformas y prácticas feministas de Inteligencia Artificial requiere plataformas políticas y prácticas informales que incluyan múltiples niveles de acción, desde cambios individuales hasta transformaciones sistémicas.

      A nivel individual, esto incluye sensibilización sobre cómo las tecnologías reproducen desigualdades de género y su impacto en los cuerpos marginalizados.

      A nivel sistémico, implica movilizar políticas que aseguren la representatividad y la inclusión en la gobernanza de la tecnología, así como fomentar prácticas que desmantelen las jerarquías opresivas incrustadas en los sistemas algorítmicos.

      Utilizar herramientas interdisciplinarias, movilizar a diversos actuantes sociales y articular estrategias internas y externas que impulsen el cambio. De este modo, la Inteligencia Artificial feminista no sólo traduce las experiencias humanas a datos, sino que lo hace desde un lugar de justicia social, visibilizando y empoderando a las corporalidades históricamente excluidas.

    1. “Feminist principles can be a handy framework to understand and transform the impact of AI systems. Key principles include reflexivity, participation, intersectionality, and working towards structural change.”

      Las corporalidades, la traducción y la Inteligencia Artificial desde una posibilidad feminista puede articularse en torno a la idea de cómo las tecnologías emergentes interactúan con los cuerpos y las experiencias humanas, particularmente aquellas de grupos marginalizados, y cómo la traducción de esos datos corporales a sistemas digitales puede ser transformada para subvertir estructuras de poder.

      Las tecnodiversidades y en especial la Inteligencia Artificial, tiene el poder de traducir las experiencias humanas en datos cuantificables. No obstante, esta traducción está mediada por estructuras de poder que asignan mayor valor a ciertas corporalidades y vivencias mientras invisibilizan otras.

      La forma en que los datos relacionados con la salud o el trabajo de las mujeres suelen quedar subrepresentados o malinterpretados en los sistemas de Inteligencia Artificial debido a sesgos en las fuentes de datos desde las agendas del Norte Global.

      Estos sesgos son reflejo de desigualdades estructurales arraigadas en el patriarcado, el racismo y el capitalismo.

      Desde una posibilidad feminista, es importante aplicar principios como la reflexividad, la participación y la interseccionalidad al proceso de traducción de corporalidades a sistemas digitales.

      La reflexividad cuestiona cómo las relaciones de poder moldean tanto los datos recolectados como las decisiones tomadas durante el diseño de Inteligencia Artificial. Esto invita a pensar en cómo el diseño técnico puede reconocer y rediseñar las jerarquías sociales que privilegian ciertas experiencias corporales sobre otras.

      La participación asegura que las corporalidades más afectadas por los sistemas de Inteligencia Artificial tengan voz en su diseño y gobernanza. En el ámbito de la salud, esto podría significar incluir a pacientes, trabajadoras comunitarias y activistas en el diseño de sistemas de diagnóstico que reflejen sus experiencias vividas. Esta traducción participativa de las necesidades humanas a sistemas digitales puede mejorar la adopción de tecnodiversidades, y redistribuir el poder hacia las comunidades.

      La interseccionalidad destaca cómo las experiencias corporales son multidimensionales, determinadas por factores como género, raza, clase y condición de discapacidad.

      Si bien las tecnologías de Inteligencia Artificial tienden a homogeneizar y simplificar estas diferencias, la interseccionalidad exige diseñar sistemas que reconozcan y respeten estas complejidades. A modo de ejemplo, los sistemas que clasifiquen imágenes corporales deben evitar perpetuar estándares corporales eurocéntricos o normas de género binarias, asegurando que los datos reflejen la diversidad de experiencias humanas.

      Cuando la Inteligencia Artificial se apropia desde principios feministas, se convierte en una herramienta para cuestionar y reconfigurar la traducción de cuerpos humanos a sistemas algorítmicos. Esto implica resistir los usos autoritarios de la Inteligencia Artificial como la vigilancia y la exclusión y crear sistemas alternativos que desafíen la desigualdad y promuevan una práctica tecnológica inclusiva y transformadora. Por ejemplo, proyectos que buscan erradicar el discurso de odio en línea pueden considerarse feministas en tanto protegen a grupos históricamente marginados, aunque no aborden explícitamente la violencia de género.

      Incorporar principios feministas en la Inteligencia Artificial significa diseñar tecnodiversidades que no solo traduzcan datos corporales con precisión, sino que también reconozcan y valoren las relaciones sociales que los producen. A través de sistemas inclusivos, participativos y reflexivos, se puede trabajar hacia una tecnología que desafíe las estructuras de dominación, promoviendo corporalidades libres, dignas y diversas.

    1. Selection bias and stereotypes

      Los algoritmos, lejos de ser neutrales, reproducen y amplifican las dinámicas históricas de exclusión y estereotipación que afectan a cuerpos específicos, en particular aquellos asociados con el género, la raza y la edad.

      La segmentación de anuncios según patrones algorítmicos perpetúa la exclusión de ciertas corporalidades en industrias específicas. Por ejemplo, los anuncios de trabajos en la industria maderera dirigidos predominantemente a hombres blancos refuerzan una asociación histórica de estos cuerpos con el trabajo físico y bien remunerado, mientras que las mujeres son redirigidas hacia roles tradicionalmente feminizados y de menor estatus, como cajeras.

      Esto no solo limita las opciones laborales, sino que también reproduce narrativas corporales sobre quién “pertenece” en ciertos espacios laborales.

      Los algoritmos no solo reflejan los sesgos históricos, sino que los incorporan como patrones normativos. Por ejemplo, el hecho de que más hombres hayan estado históricamente en industrias como la maderera lleva a que el algoritmo excluya automáticamente a las mujeres de esas oportunidades, asociando sus corporalidades con intereses y capacidades predeterminadas. Esto cristaliza estereotipos de género y perpetúa las barreras sociales que restringen la movilidad de ciertos cuerpos en sectores laborales.

      Aunque Facebook eliminó la capacidad de segmentar explícitamente por género, raza o edad, el algoritmo utiliza otras características como proxies de estas categorías.

      Esto significa que las corporalidades racializadas, feminizadas o envejecidas siguen siendo excluidas de manera indirecta, manteniéndolas invisibles en oportunidades laborales de alto estatus y mejores ingresos.

      Las prácticas algorítmicas que refuerzan estereotipos no son solo técnicas; tienen un impacto directo en las corporalidades que ya enfrentan discriminación sistémica. Negarles acceso a ciertos anuncios laborales no solo limita sus opciones económicas, sino que también reafirma su exclusión de espacios de poder, estabilidad financiera y autonomía.

      Los cuerpos afectados por estas prácticas como mujeres, personas racializadas, o personas mayores, son el espacio donde estas exclusiones toman forma y donde deben combatirse.

      La eliminación de la segmentación explícita es un paso, pero la persistencia del sesgo en los resultados muestra que las soluciones técnicas son insuficientes si no se abordan las raíces estructurales de la discriminación.