- Jan 2025
-
feministai.pubpub.org feministai.pubpub.org
-
groups are emerging
Estudio de Caso en Colombia
La digitalización de territorios en proyectos de conservación en Colombia puede tener implicaciones graves si no se respetan los derechos indígenas. Por ejemplo:
Proyectos de conservación basados en Inteligencia Artificial que clasifican áreas protegidas sin considerar que estos territorios son habitados y administrados por comunidades indígenas pueden generar conflictos y despojo.
La ausencia de perspectivas colectivas en los algoritmos de Inteligencia Artificial refuerza narrativas individualistas que no reflejan la cosmovisión indígena sobre la naturaleza como un ente vivo y compartido.
La posición ética planteada por Indigenous AI resalta la necesidad de redefinir cómo se colectivizan el conocimiento y la identidad digital, respetando los valores comunitarios y evitando procesos extractivos.
-
-
feministai.pubpub.org feministai.pubpub.org
-
Bias exists in current data collection practices, leaving women and girls invisible in the data.
Los sesgos en la recopilación de datos y la invisibilización de mujeres y niñas puede relacionarse profundamente con corporalidades, traducción e Inteligencia Artificial.
Corporalidades y recopilación de datos
La invisibilidad de corporalidades diversas en los métodos tradicionales de recopilación de datos tienden a generalizar los cuerpos de las mujeres y niñas, omitiendo diferencias significativas como raza, etnicidad, identidad de género, condición de discapacidad o edad. Un enfoque feminista desvirtuaría estos datos para representar estas corporalidades y sus experiencias específicas.
Los sesgos en tecnologías biométricas y sensores en la Inteligencia Artificial analizan datos corporales, como reconocimiento facial o monitoreo de salud, a menudo fallan en captar la diversidad de cuerpos femeninos o marginados, reforzando estereotipos y exclusión.
Traducción como puente inclusivo
El lenguaje inclusivo en la recopilación de datos, al traducir encuestas, análisis o resultados, se corre el riesgo de eliminar términos culturalmente específicos como los culturemas que reflejan la diversidad de corporalidades y experiencias. Por ejemplo, conceptos relacionados con género o identidad corporal en un idioma pueden no tener equivalentes exactos en otro, lo que invisibiliza problemáticas clave.
La interpretación del significado en la traducción de datos requiere una sensibilidad cultural y feminista que respete las diferencias lingüísticas y semánticas de cómo las corporalidades y el género son comprendidos en distintos contextos. Sin esta sensibilidad, la traducción puede reforzar las inequidades en lugar de corregirlas.
Inteligencia Artificial (IA) y recopilación feminista de datos
Las oportunidades en la Inteligencia Artificial tiene un enorme potencial para analizar grandes volúmenes de datos de manera desagregada, identificar patrones de exclusión y ampliar el uso de fuentes no tradicionales (como redes sociales, sensores, y datos de dispositivos móviles). Esto podría visibilizar experiencias de mujeres y niñas que antes eran ignoradas.
Los riesgos de sesgos algorítmicos sucederían si los algoritmos de Inteligencia Artificial son entrenados con datos históricos sesgados, replicarán esas inequidades. Esto incluye subrepresentar corporalidades no normativas o ignorar contextos culturales específicos al interpretar datos traducidos.
El diseño interseccional sirve para superar estas limitaciones, los algoritmos deben diseñarse con principios feministas que incluyan parámetros explícitos para identificar y corregir sesgos relacionados con género y corporalidades diversas.
- Preguntas críticas para la recopilación inclusiva de datos
Las preguntas pueden adaptarse para incluir corporalidades, traducción e IA:
• ¿Quién define qué corporalidades son relevantes y cómo se representan en los datos? • ¿Quién traduce y cómo garantiza que las voces de las mujeres y niñas sean fielmente representadas? • ¿Cómo asegura la IA que los datos desagregados reflejen experiencias interseccionales y no perpetúen exclusión? • ¿Quién decide qué fuentes de datos se utilizan y con qué criterios éticos?
Hacia una Inteligencia Artificial inclusiva
Una Inteligencia Artificial de recopilación de datos verdaderamente inclusiva debe:
1. Diseñar encuestas y procesos de recopilación que reconozcan la diversidad de corporalidades y vivencias. 2. Incorporar traducciones que respeten el contexto cultural y lingüístico, permitiendo que los datos capturen las realidades de mujeres y niñas en distintos entornos. 3. Utilizar IA para integrar fuentes de datos no tradicionales, asegurando que los modelos sean revisados constantemente para mitigar sesgos algorítmicos. 4. Basarse en principios feministas que guíen cada etapa del proceso, desde la definición del problema hasta el uso de los datos.
-
-
feministai.pubpub.org feministai.pubpub.org
-
The seven principles of data feminism are as follows:
El feminismo de datos, tal como se describe, ofrece una oportunidad para interconectar conceptos de corporalidades, traducción e inteligencia artificial, ya que estas tres áreas se entrelazan en las dinámicas de poder, representación y conocimiento. Esto se puede apreciar en tres dimensiones:
Corporalidades y Feminismo de Datos
Elevar la emoción y la corporalidad:
Este principio resalta la importancia de reconocer a las personas como cuerpos vivos y sensibles. En el contexto de la Inteligencia Artificial, esto desafía la tendencia a despersonalizar los datos y tratar a los sujetos como abstracciones numéricas. Por ejemplo, al diseñar sistemas de reconocimiento facial, los cuerpos no normativos (como aquellos racializados o con diversidad funcional) son a menudo mal representados. Incorporar una perspectiva feminista exige cuestionar estas omisiones y visibilizar la experiencia corporal diversa.
Repensar los binarismos y las jerarquías:
El binarismo de género frecuentemente excluye corporalidades no conformes, tanto en los datos como en los algoritmos que los procesan. Esto tiene implicaciones tangibles, desde la falta de representación de personas no binarias en formularios digitales hasta los sesgos en modelos predictivos que perpetúan desigualdades. Integrar las corporalidades en la Inteligencia Artificial significa desestabilizar estas jerarquías y crear tecnologías más inclusivas.
Traducción y Feminismo de Datos
Adoptar el pluralismo:
La traducción aquí no solo se refiere a lenguas, sino a la intermediación entre perspectivas diversas, como los saberes indígenas y los sistemas de datos occidentales. Por ejemplo, la traducción de indicadores de género en datos cuantitativos puede borrar o simplificar las experiencias locales si no se contextualiza adecuadamente. Un feminismo de datos traducido con cuidado prioriza estos conocimientos y los integra en el análisis tecnológico.
Considerar el contexto:
La traducción de datos a diferentes idiomas y culturas requiere sensibilidad para no neutralizar las relaciones de poder que los generan. Por ejemplo, una Inteligencia Artificial que analiza patrones de violencia de género debe ser consciente de cómo se interpreta este fenómeno en diferentes contextos culturales, lo que implica una traducción crítica de términos y categorías.
Hacer visible el trabajo:
La traducción es una labor colectiva que a menudo queda invisibilizada en los procesos de desarrollo tecnológico. Desde los equipos de localización hasta los traductores de interfaces, el feminismo de datos puede destacar estas contribuciones como parte esencial de la ciencia de datos.
IA y Feminismo de Datos
Examinar el poder y desafiarlo:
La Inteligencia Artificial refleja las estructuras de poder subyacentes en los datos que utiliza. Por ejemplo, los algoritmos entrenados con datos sesgados perpetúan desigualdades sistémicas. Un enfoque feminista en la Inteligencia Artificial busca desmantelar estos sistemas cuestionando las fuentes de los datos, las metodologías empleadas y los objetivos finales de la tecnología.
Repensar binarismos y jerarquías:
En el diseño de la Inteligencia Artificial, los sistemas categóricos rígidos (hombre/mujer, blanco/no blanco) limitan la representación de la diversidad humana. El feminismo de datos propone un rediseño de los sistemas de clasificación, favoreciendo representaciones fluidas y menos jerárquicas que reconozcan las identidades interseccionales.
Elevar la emoción y la corporalidad:
La Inteligencia Artificial suele ignorar las dimensiones emocionales y corporales del conocimiento humano. Por ejemplo, las Inteligencias Artificiales están diseñadas para imitar respuestas humanas, pero carecen de la sensibilidad para responder adecuadamente a experiencias humanas complejas, como el dolor o el trauma. Incorporar un enfoque feminista podría llevar a tecnologías que reflejen estas realidades de manera más ética.
Adoptar el pluralismo:
La diversidad en el desarrollo de la Inteligencia Artificial, incluyendo voces marginadas y saberes locales, no solo enriquece la tecnología, sino que la hace más ética y eficaz. El feminismo de datos puede guiar estos procesos, garantizando que la Inteligencia Artificial no sea solo un reflejo de las agendas del Norte Global.
-
-
feministai.pubpub.org feministai.pubpub.org
-
strong critiques of AI from a feminist standpoint
Las corporalidades y feminismos en la Inteligencia Artificial se podría ver reflejada en la invisibilidad del cuerpo en la tecnología.
La Inteligencia Artificial, frecuentemente percibida como desprovista de corporalidad aunque goza de ensamblajes ya que son organizaciones de personas las que operan sobre datos que representan cuerpos humanos en la Inteligencia Artificial. Sin embargo, las brechas de datos de género reflejan cómo ciertas corporalidades (como las de mujeres, personas racializadas o no conformes con el género) son ignoradas o mal representadas. Esto afecta directamente la producción de sistemas de IA que perpetúan desigualdades corporales y sociales.
La materialidad de los datos es la falta de datos sobre cuidados no remunerados o violencia de género que invisibiliza las experiencias corporales. Estos datos “faltantes” no solo son números, son ausencias que impactan cuerpos reales, reproduciendo desigualdades en políticas y decisiones tecnológicas.
Las estrategias normativas y la performatividad del cambio se centran en las estrategias educativas para la transformación de normas (como entrenamientos en género y diversidad) que pueden incluir perspectivas corporales para abordar las maneras en que las tecnologías moldean las experiencias físicas, desde interfaces hasta el impacto del reconocimiento facial en personas racializadas.
La traducción como herramienta feminista aplicaría a la traducción de conceptos complejos como “feminismo de datos” o “IA feminista” que requiere una mediación cultural y lingüística que haga accesibles estos temas en contextos diversos. Las herramientas normativas, como las guías educativas sobre Inteligencia Artificial, pueden ser traducidas y adaptadas para comunidades no angloparlantes, fomentando un cambio inclusivo.
Los sesgos lingüísticos en la Inteligencia Artificial se manifiestan porque los algoritmos de procesamiento de lenguaje natural incorporan sesgos culturales que pueden reforzar estereotipos de género. Por ejemplo, traductores automáticos que perpetúan roles de género (“doctor” vs. “enfermera”) necesitan intervenciones basadas en datos de género de alta calidad para minimizar estas desigualdades.
La traducción como puente disciplinar e intermediación lingüística. Dado que las estrategias para la IA feminista requieren la colaboración entre tecnólogos, activistas y teóricos, la traducción también puede entenderse como una práctica de mediación entre disciplinas, ayudando a alinear epistemologías divergentes.
La IA feminista y el potencial transformador en los datos para cuerpos diversos se puede percibir para crear y usar datos sobre experiencias corporales diversas, como el impacto del diseño de ciudades en mujeres, personas en condición de discapacidad, o personas trans, es crucial para una IA feminista que considere a todas las corporalidades.
La educación para la inclusión abarcaría las normativas que fomenten el uso de herramientas educativas, como guías sobre los riesgos de la Inteligencia Artificial, ya que son vitales para garantizar que las tecnodiversidades no reproduzcan exclusiones históricas.
El diálogo interdisciplinar de la traducción entre datos (cuantitativos y cualitativos) y las narrativas sobre género puede ser el punto de partida para superar las barreras de autoridad que limitan los cambios en la Inteligencia Artificial. Esto incluye no solo traducir términos técnicos, sino también experiencias humanas.
-