Análisis de cómo la inteligencia artificial reproduce sesgos raciales y sociales, desmontando su supuesta neutralidad.
Key Takeaways
- La IA refleja los sesgos de sus creadores y no es una herramienta objetiva.
- El sesgo algorítmico puede causar discriminación sistemática en diferentes ámbitos sociales.
- Es fundamental cuestionar y analizar críticamente el uso de la IA en la gestión pública y cultural.
- La educación y la visibilización son claves para desmontar mitos sobre la neutralidad de la IA.
- La diversidad en los equipos de desarrollo es necesaria para reducir la reproducción de desigualdades.
Summary
- La inteligencia artificial (IA) no es neutral, reproduce desigualdades sociales y raciales.
- Los algoritmos son creados por personas con sesgos, generalmente hombres blancos de clase media-alta.
- La IA actúa como un mecanismo de racialización que jerarquiza socialmente a las personas.
- El sesgo algorítmico genera resultados injustos y discriminatorios en ámbitos como créditos, empleo y justicia.
- Ejemplos históricos y actuales muestran discriminación algorítmica en educación, búsqueda de empleo y sistemas policiales.
- Herramientas como VeriPol y VioGén evidencian problemas en la aplicación de IA en la justicia y protección social.
- La percepción común de la IA como objetiva y neutral es un mito que se debe desmontar.
- La importancia de visibilizar y educar sobre la relación entre IA y racismo para promover un debate público informado.
- El colectivo Algorace trabaja en investigación, formación y educación para desracializar la inteligencia artificial.
- La ponencia busca explicar de forma sencilla y práctica cómo la IA reproduce patrones de poder y privilegio.











