
El término «injusticias epistémicas» se refiere a las formas de desigualdad relacionadas con el acceso, la producción, y la validación del conocimiento. Cuando este concepto se aplica al uso de las inteligencias artificiales (IA), puede abarcar varios aspectos que afectan la forma en que el conocimiento se genera, distribuye y utiliza. Algunas posibles conexiones incluyen:
1. Exclusión de voces en la construcción de la IA
- Las IA suelen ser entrenadas en bases de datos creadas por un grupo limitado de personas, usualmente provenientes de culturas, idiomas y contextos específicos. Esto puede excluir perspectivas de comunidades marginadas o minoritarias, lo que genera un sesgo en los sistemas de IA.
- Por ejemplo, los modelos de lenguaje pueden no reconocer dialectos, términos culturales o problemas específicos de ciertas regiones.
2. Bias y discriminación en los algoritmos
- Los sesgos existentes en los datos utilizados para entrenar modelos de IA pueden perpetuar o amplificar desigualdades sociales. Esto puede llevar a decisiones discriminatorias, como sistemas de contratación que favorecen perfiles masculinos o sistemas de crédito que excluyen a comunidades con antecedentes financieros desfavorecidos.
- Esta situación refleja una injusticia epistémica al no considerar ciertos conocimientos y experiencias como válidos.
3. Acceso desigual al conocimiento
- El desarrollo y uso de tecnologías basadas en IA están concentrados en ciertas regiones del mundo (generalmente en países desarrollados), mientras que otras zonas tienen acceso limitado a estas herramientas o carecen de la infraestructura para desarrollarlas o aplicarlas.
- Esto puede significar que ciertos grupos no tengan la capacidad de influir en la generación de conocimiento tecnológico o científico, lo que perpetúa desigualdades globales.
4. Subestimación de capacidades humanas
- Las IA a menudo se posicionan como «objetivas» o «neutrales,» lo que puede invalidar las contribuciones humanas, especialmente en áreas donde el conocimiento cultural, contextual o tácito es crítico.
- Por ejemplo, reemplazar a profesionales de ciertas disciplinas con IA puede disminuir el reconocimiento del valor del juicio humano y los conocimientos tradicionales.
5. Falta de representación en la gobernanza de la IA
- Las decisiones sobre cómo se desarrollan, regulan y usan las IA generalmente están en manos de un pequeño grupo de actores, como grandes corporaciones tecnológicas. Esto excluye a comunidades vulnerables de participar en la toma de decisiones que las afectan directamente.
6. Erosión del conocimiento local
- La globalización de los sistemas de IA puede desplazar conocimientos locales o indígenas, al imponer estándares y valores tecnológicos que no reflejan las realidades ni las prioridades de estas comunidades.
Para concluir, las injusticias epistémicas en la IA destacan cómo ciertas voces, conocimientos y experiencias son excluidos o ignorados en los procesos de desarrollo, implementación y uso de estas tecnologías. Superarlas implica diseñar sistemas más inclusivos, transparentes y éticos que consideren la diversidad de perspectivas humanas.




