- Jan 2025
-
feministai.pubpub.org feministai.pubpub.org
-
What are our values as a society? And which policies and regulations do we need in order to live up to them? What can we regulate, and in which ways can and should we regulate it?
La regulación debe centrarse en proteger y representar a las corporalidades humanas en toda su diversidad. Esto implica diseñar políticas que aborden las necesidades y derechos de las personas afectadas por la Inteligencia Artificial. Para lograrlo, es crucial que los responsables de políticas comprendan las implicaciones tecnológicas y que los tecnólogos integren valores sociales y éticos en sus diseños. Por ejemplo, aunque se desaconseje el uso de características protegidas en predicciones de la Inteligencia Artificial, la recopilación de estos datos podría ser esencial para auditar impactos demográficos y garantizar que no se perpetúen inequidades.
La traducción, como puente necesario entre disciplinas, abarca desde la tecnología hasta las políticas públicas. Se requiere un lenguaje común que permita a tecnólogos, legisladores y comunidades colaborar para crear soluciones responsables que sean aplicables en contextos específicos. Este proceso de traducción debe ser dinámico y reflexivo, adaptándose al impacto continuo de la tecnología en las personas.
La Inteligencia Artificial y las sociedades son dinámicas, lo que implica que no basta con diseñar una tecnología y desplegarla. Es necesario un proceso de auditoría continua que evalúe cómo los sistemas afectan a las corporalidades y modifican los datos y comportamientos sociales con el tiempo. Esto subraya la necesidad de reguladores confiables y terceros independientes que garanticen que las tecnologías sigan siendo justas y responsables a medida que evolucionan.
-
-
feministai.pubpub.org feministai.pubpub.org
-
strong critiques of AI from a feminist standpoint
Las corporalidades y feminismos en la Inteligencia Artificial se podría ver reflejada en la invisibilidad del cuerpo en la tecnología.
La Inteligencia Artificial, frecuentemente percibida como desprovista de corporalidad aunque goza de ensamblajes ya que son organizaciones de personas las que operan sobre datos que representan cuerpos humanos en la Inteligencia Artificial. Sin embargo, las brechas de datos de género reflejan cómo ciertas corporalidades (como las de mujeres, personas racializadas o no conformes con el género) son ignoradas o mal representadas. Esto afecta directamente la producción de sistemas de IA que perpetúan desigualdades corporales y sociales.
La materialidad de los datos es la falta de datos sobre cuidados no remunerados o violencia de género que invisibiliza las experiencias corporales. Estos datos “faltantes” no solo son números, son ausencias que impactan cuerpos reales, reproduciendo desigualdades en políticas y decisiones tecnológicas.
Las estrategias normativas y la performatividad del cambio se centran en las estrategias educativas para la transformación de normas (como entrenamientos en género y diversidad) que pueden incluir perspectivas corporales para abordar las maneras en que las tecnologías moldean las experiencias físicas, desde interfaces hasta el impacto del reconocimiento facial en personas racializadas.
La traducción como herramienta feminista aplicaría a la traducción de conceptos complejos como “feminismo de datos” o “IA feminista” que requiere una mediación cultural y lingüística que haga accesibles estos temas en contextos diversos. Las herramientas normativas, como las guías educativas sobre Inteligencia Artificial, pueden ser traducidas y adaptadas para comunidades no angloparlantes, fomentando un cambio inclusivo.
Los sesgos lingüísticos en la Inteligencia Artificial se manifiestan porque los algoritmos de procesamiento de lenguaje natural incorporan sesgos culturales que pueden reforzar estereotipos de género. Por ejemplo, traductores automáticos que perpetúan roles de género (“doctor” vs. “enfermera”) necesitan intervenciones basadas en datos de género de alta calidad para minimizar estas desigualdades.
La traducción como puente disciplinar e intermediación lingüística. Dado que las estrategias para la IA feminista requieren la colaboración entre tecnólogos, activistas y teóricos, la traducción también puede entenderse como una práctica de mediación entre disciplinas, ayudando a alinear epistemologías divergentes.
La IA feminista y el potencial transformador en los datos para cuerpos diversos se puede percibir para crear y usar datos sobre experiencias corporales diversas, como el impacto del diseño de ciudades en mujeres, personas en condición de discapacidad, o personas trans, es crucial para una IA feminista que considere a todas las corporalidades.
La educación para la inclusión abarcaría las normativas que fomenten el uso de herramientas educativas, como guías sobre los riesgos de la Inteligencia Artificial, ya que son vitales para garantizar que las tecnodiversidades no reproduzcan exclusiones históricas.
El diálogo interdisciplinar de la traducción entre datos (cuantitativos y cualitativos) y las narrativas sobre género puede ser el punto de partida para superar las barreras de autoridad que limitan los cambios en la Inteligencia Artificial. Esto incluye no solo traducir términos técnicos, sino también experiencias humanas.
-
-
feministai.pubpub.org feministai.pubpub.org
-
“We shape our tools, and thereafter our tools shape us”
Las posibilidades críticas en las corporalidades y la traducción en tiempos de Inteligencia Artificial permite repensar cómo estas tecnodiversidades interactúan con cuerpos e identidades diversas, y cómo pueden ser transformadas en herramientas de resistencia contra las desigualdades históricas.
Los sesgos de género, racismo, estereotipos y otras formas de discriminación, profundamente incrustados en las tecnodiversidades, afectan a las corporalidades y cómo una posibilidad feminista puede abrir caminos para un cambio transformador.
Casos como la aplicación DeepNude y los bots deepfake en Telegram exponen cómo los cuerpos femeninos son desproporcionadamente vulnerables a formas de explotación y violencia digital. Estas tecnodiversidades convierten a las corporalidades en objetos de vigilancia, control y deshumanización, reforzando dinámicas de poder que han existido históricamente.
Los sistemas de autocompletado que representan a los hombres en trajes y a las mujeres en bikinis son un ejemplo claro de cómo los algoritmos perpetúan estereotipos de género. Estas representaciones no solo reflejan los sesgos sociales, sino que activamente los amplifican, definiendo cómo las corporalidades son vistas y entendidas en el espacio digital.
La Inteligencia Artificial, entrenada con datos históricos, hereda y codifica desigualdades sociales, afectando a las corporalidades en múltiples dimensiones (género, raza, orientación sexual, edad, etc.). Sin una intervención crítica, estas tecnologías corren el riesgo de cristalizar estas desigualdades en las agendas del Norte Globla para la toma de decisiones.
Los anuncios de spyware dirigidos a hombres para espiar a mujeres refuerzan la narrativa de que las corporalidades feminizadas deben ser controladas y vigiladas, lo cual perpetúa dinámicas de poder patriarcales en el ámbito digital.
Las corporalidades no son sólo receptores pasivos de las tecnodiversidades, sino también el terreno donde se materializan las desigualdades y las posibilidades de transformación. Una posibilidad crítica feminista implica entender cómo estas tecnodiversidades afectan a las personas en su materialidad y subjetividad.
El texto subraya la necesidad de movilizar equipos interdisciplinarios que incluyan perspectivas feministas, antirracistas para diseñar Inteligencias Artificiales que no solo mitiguen los sesgos, sino que avancen hacia sistemas que promuevan la equidad. Esto requiere integrar voces históricamente marginadas, especialmente de mujeres y niñas del Sur Global.
La frase “Nosotros le damos forma a nuestras herramientas y por ende, nuestras herramientas nos dan forma a nosotros” destaca la urgencia de diseñar Inteligencias Artificiales que reflejen los valores de igualdad, justicia y derechos humanos. Esto implica establecer estándares éticos y normativos para la creación de tecnologías que no perpetúen dinámicas de explotación.
Una Inteligencia Artificial feminista debe imaginar nuevas formas de interacción tecnológica que empoderen a las corporalidades históricamente marginadas. Esto incluye a la traducción con Inteligencia Artificial y generación de lenguaje que respeten y representen la diversidad de experiencias humanas, evitando la imposición de estereotipos.
-