La inteligencia artificial como mecanismo de racializac… — Transcript

Análisis de cómo la inteligencia artificial reproduce sesgos raciales y sociales, desmontando su supuesta neutralidad.

Key Takeaways

  • La IA refleja los sesgos de sus creadores y no es una herramienta objetiva.
  • El sesgo algorítmico puede causar discriminación sistemática en diferentes ámbitos sociales.
  • Es fundamental cuestionar y analizar críticamente el uso de la IA en la gestión pública y cultural.
  • La educación y la visibilización son claves para desmontar mitos sobre la neutralidad de la IA.
  • La diversidad en los equipos de desarrollo es necesaria para reducir la reproducción de desigualdades.

Summary

  • La inteligencia artificial (IA) no es neutral, reproduce desigualdades sociales y raciales.
  • Los algoritmos son creados por personas con sesgos, generalmente hombres blancos de clase media-alta.
  • La IA actúa como un mecanismo de racialización que jerarquiza socialmente a las personas.
  • El sesgo algorítmico genera resultados injustos y discriminatorios en ámbitos como créditos, empleo y justicia.
  • Ejemplos históricos y actuales muestran discriminación algorítmica en educación, búsqueda de empleo y sistemas policiales.
  • Herramientas como VeriPol y VioGén evidencian problemas en la aplicación de IA en la justicia y protección social.
  • La percepción común de la IA como objetiva y neutral es un mito que se debe desmontar.
  • La importancia de visibilizar y educar sobre la relación entre IA y racismo para promover un debate público informado.
  • El colectivo Algorace trabaja en investigación, formación y educación para desracializar la inteligencia artificial.
  • La ponencia busca explicar de forma sencilla y práctica cómo la IA reproduce patrones de poder y privilegio.

Full Transcript — Download SRT & Markdown

00:31
Speaker A
Buenos días a todos, bienvenidos de nuevo a este espacio dos, vamos a continuar con la programación de esta mañana. Tenemos con nosotros a Paula Guerra Cáceres, que viene del colectivo Algorace, de Racializando la Inteligencia Artificial, que es un proyecto de investigación, de formación, de educación, que trabaja por poner en la agenda pública cómo la inteligencia artificial tiene también una incidencia en las personas racializadas.
01:30
Speaker A
Y nos parecía interesante traer este tema que puede parecer muy alejado de la cultura como es la inteligencia artificial, porque es un mecanismo de tomas de decisiones que cada vez está ocupando más espacio en el ámbito público, en esta esfera de de gestión pública, también en el ámbito de la cultura. Por ello queríamos contar con con Algorace, que nos que ellos trabajan por desmontar ese mito de la neutralidad en torno a la inteligencia artificial, que bueno, debido otra vez al desconocimiento que nos produce, a lo difícil que es desentrañar qué hay exactamente detrás de estos mecanismos, pero que en realidad están reproduciendo determinados sesgos que tienen que ver con el antirracismo, con la discriminación.
02:36
Speaker A
Entonces, sin más, os voy a dejar con con Paula Guerra Cáceres, que ella además de ser miembro de del colectivo Algorace.
02:50
Speaker A
Ella es comunicadora social, trabaja para medios como la revista Píkara, el diario .es o el periódico, ha sido también, bueno, es activista antirracista, ha sido presidenta de de Sorracismo y Paula, como experta, te lo dejamos en tus manos. Muchas gracias.
03:16
Speaker B
Vale, perfecto, muchas gracias. Se me escucha bien, ¿verdad? Se oye bien, vale. A ver, bueno, primero que todo, gracias por la invitación a participar en este evento, gracias a todas las personas que están aquí presentes, el la temática de la relación entre inteligencia artificial y racismo no es no es muy conocida.
03:43
Speaker B
Por lo tanto, a veces vemos que este tema no convoca lo suficiente, así que me alegro de ver varias caras aquí presentes el día de hoy. Eh, bueno, como bien decía la persona que me presentó, yo soy Paula Guerra Cáceres, formo parte de un de un colectivo que se llama Algorace, Desracializando la IA.
04:22
Speaker B
Eh, somos un equipo multidisciplinar compuesto por personas que investigan la inteligencia artificial, personas científicas en el ámbito de la inteligencia artificial y personas que provenimos del ámbito del periodismo, las comunicaciones y el antirracismo. Entonces, nos reunimos en este proyecto para empezar a visibilizar la forma en que la inteligencia artificial reproduce desigualdades sociales, entre ellas, opresión racial, discriminación racial.
05:02
Speaker B
Eh, voy a hacer una ponencia que intentaré que sea breve y lo más, digamos, práctica posible, o sea, no voy a no voy a entrar en tecnicismos, ¿no? Para para no complicar la la temática, sino hacerlo lo más lo más simple posible. A ver, le he puesto a la ponencia la IA como mecanismo de racialización.
05:44
Speaker B
Porque voy a ir explicando a lo largo de la ponencia cómo la inteligencia artificial termina actuando como un mecanismo de racialización que hace que determinadas personas estén en una situación de jerarquía social superior que otras. Si puedes pasar la siguiente, por favor.
06:22
Speaker B
Creo que no me escucha.
06:23
Speaker B
Puedes pasar la siguiente.
06:24
Speaker B
Gracias.
06:25
Speaker B
A ver, lo primero, ¿qué es la inteligencia artificial? O sea, hay que partir como de de nociones básicas, ¿no? Eh, el lenguaje sencillo, bueno, la inteligencia artificial se define como ese conjunto o esa combinación de algoritmos que se instalan en un en un ordenador, en una máquina, eh para reproducir los procesos cognitivos de la mente humana. Eso es a grandes rasgos y muy resumidamente lo que es la inteligencia artificial, eh que es un conjunto de algoritmos.
07:21
Speaker B
¿Y qué es un algoritmo? Pues un conjunto de reglas y pasos ordenados que se utilizan para procesar datos, para resolver un problema. Entonces, un conjunto de algoritmos instalados en un ordenador para resolver un problema o procesar datos es lo que vendríamos a llamar inteligencia artificial.
07:37
Speaker B
¿Cómo se nos ha vendido?
07:40
Speaker B
Creo que es la primera.
07:41
Speaker B
Me parece.
07:42
Speaker B
Eh, compañera.
07:43
Speaker B
Creo que es la.
07:44
Speaker B
Perdona.
07:45
Speaker B
Es la.
07:46
Speaker B
La que viene después del título.
07:47
Speaker B
Eso es.
07:48
Speaker B
¿Cómo se nos ha vendido hasta ahora la inteligencia artificial? Bueno, se nos ha vendido como una herramienta objetiva que produce resultados neutrales. ¿Por qué objetiva? Porque son operaciones matemáticas, ¿no? Es lo que se nos dice.
08:20
Speaker B
Una operación matemática tiene que producir por fuerza un resultado objetivo porque son algoritmos y los algoritmos, como dicen suelen decir las personas que se trabajan en este ámbito, no piensan ni sienten.
08:35
Speaker B
Por lo tanto, la inteligencia artificial es una herramienta objetiva que produce resultados neutrales. Esto es así, o sea, tenemos todas todas esa idea en la cabeza de que la inteligencia artificial es una herramienta objetiva que produce resultados neutrales.
08:50
Speaker B
Probablemente sí, ¿no?
08:52
Speaker B
O sea, yo creo que si aquí hiciéramos una una encuesta y preguntáramos a las personas que estamos aquí si creen que la inteligencia artificial es objetiva y neutral, probablemente nos digan que sí por este motivo, ¿no?
09:04
Speaker B
Porque no hay intervención humana.
09:10
Speaker B
Bueno, eso se descarta de manera muy muy rápida y muy sencilla por una razón muy simple, porque los algoritmos no se crean por generación espontánea.
09:28
Speaker B
La inteligencia artificial no surge por generación espontánea, hay personas de carne y hueso detrás de cada algoritmo que se crea y para crear un algoritmo.
09:46
Speaker B
Tú tienes que decidir qué información vas a tomar en cuenta, qué información vas a dejar fuera, cómo vas a clasificar esa información, qué parámetros vas a utilizar para para procesarla.
10:00
Speaker B
Eh, qué variables vas a tomar en cuenta, cuáles no, por lo tanto, hay ahí una mirada, un punto de vista al momento en que se crea cada algoritmo.
10:12
Speaker B
Que normalmente tiene que ver con el perfil endogámico de los desarrolladores de algoritmos, que suelen ser hombres, hombres blancos, de clase media, media alta.
10:22
Speaker B
Quienes por lo general se han formado en las mismas universidades y se mueven por los mismos círculos sociales.
10:32
Speaker B
La IA no es neutral, representa el punto de vista del desarrollador.
10:40
Speaker B
Reproduce patrones de poder y privilegio y perjudica a grupos históricamente discriminados por clase, género, raza, etcétera.
10:47
Speaker B
¿Qué es un sesgo algorítmico?
10:50
Speaker B
Sesgo algorítmico: hace referencia a errores sistemáticos y repetidos que crean resultados injustos.
11:00
Speaker B
Por ejemplo, un algoritmo de puntuación de crédito puede negar sistemáticamente un préstamo a un grupo de población en particular.
11:10
Speaker B
Basándose en criterios no estrictamente económicos, sino sociales (código postal donde viven las personas, apellidos extranjeros, etc.).
11:20
Speaker B
Una de las primeras denuncias públicas: 1988 en Reino Unido.
11:30
Speaker B
La Comisión de Igualdad Racial acusó a la Escuela de Medicina de St. George de discriminar por sexo y raza en sus pruebas de admisión.
11:40
Speaker B
Desde los años 70 utilizaban programa que analizaba el nombre o el lugar de nacimiento de los postulantes (descartaron durante décadas a mujeres y personas racializadas en general).
11:50
Speaker B
Motores de búsqueda que relacionan palabras con el género masculino (abogado, médico) y otras con el femenino (hogar, familia, limpieza, hijos).
12:00
Speaker B
(entrevistas de trabajo, becas...) Fallos de Ley Rider.
12:10
Speaker B
A partir de 2021 obligación para empresas.
12:20
Speaker B
Ejemplos de sesgo algorítmico.
12:23
Speaker B
VeriPol: La Policía Nacional dispone desde 2018 en todas sus comisarías de VeriPol.
12:30
Speaker B
Cuya función es determinar la veracidad de las denuncias por robo.
12:40
Speaker B
Se basa en un algoritmo entrenado con 1.122 denuncias.
12:50
Speaker B
Analiza el lenguaje empleado por los denunciantes.
13:00
Speaker B
¿Qué pasa con las personas no nativas? ¿La ansiedad, el nerviosismo?
13:10
Speaker B
VioGén: Registro Central para la Protección de las Víctimas de Violencia Doméstica.
13:20
Speaker B
Herramienta de IA que recoge y administra las denuncias por violencia de género.
13:30
Speaker B
Desde 2019 incluye predicciones proporcionadas por dos algoritmos.
13:40
Speaker B
Uno que estima el riesgo de reincidencia y otro el riesgo de que los hechos denunciados puedan terminar en feminicidio.
13:50
Speaker B
EuroCop: Empresa que desarrolló una herramienta de patrullaje predictivo basándose en multas, atestados, videovigilancia.
14:00
Speaker B
Ofrece servicios a municipios como Leganés y Alcorcón en Madrid.
14:10
Speaker B
Policía predictiva: En EE.UU. muchas ciudades utilizan el sistema Pred-Pol.
14:20
Speaker B
Ha llevado a la sobrepresencia policial en barrios de personas negras y latinas.
14:30
Speaker B
Refuerza los sesgos racistas y clasistas de la policía.
14:40
Speaker B
La ciudad de L.A. decidió dejar de usarlo.
14:50
Speaker B
StarUp SANAS: occidentaliza el acento de los teleoperadores de call center. EE.UU.
15:00
Speaker B
Los errores en los algoritmos de reconocimiento facial.
15:03
Speaker B
Google en 2015: Tuvo que pedir disculpas tras demostrarse que su aplicación Google Photos etiquetaba a personas negras como gorilas.
15:10
Speaker B
Facebook en 2021: También tuvo que pedir disculpas.
15:20
Speaker B
Estos errores ya habían sido denunciados por Joy Buolamwini, en el marco de un trabajo que realizaba para el MIT.
15:30
Speaker B
Su rostro no era leído por los algoritmos a menos que se pusiera una máscara blanca.
15:40
Speaker B
Creó la "Liga de justicia algorítmica" (impacto de la IA/ voz de comunidades afectadas).
15:50
Speaker B
2019: Instituto Nacional de Estándares y Tecnología de EE.UU.
16:00
Speaker B
189 algoritmos de 99 desarrolladores.
16:10
Speaker B
Más de 18 millones de imágenes.
16:20
Speaker B
Fallos rostros no caucásicos (falsos positivos y falsos negativos).
16:30
Speaker B
La "frontera inteligente".
16:32
Speaker B
En 2017 el Parlamento Europeo aprueba un nuevo modelo fronterizo con el nombre de EES (Entry/Exit System).
16:40
Speaker B
Desde 2003 ya existe Eurodac, base de datos comunitaria que almacena las huellas de las personas solicitantes de asilo.
16:50
Speaker B
(trasladan a las personas de un país a otro contra su voluntad - Reglamento de Dublín).
17:00
Speaker B
En 2020, en el marco de este nuevo modelo fronterizo, los Estados miembros de la UE acuerdan invertir 302.500 millones de euros.
17:10
Speaker B
Para el diseño e implementación del control biométrico en las fronteras exteriores de la UE.
17:20
Speaker B
Este año se va a implementar en 2022 la llamada "frontera inteligente" en los pasos fronterizos de Ceuta y Melilla.
17:30
Speaker B
Tecnología de reconocimiento facial (posibilidad de errores, vulneración de derechos).
17:40
Speaker B
La Comisión Europea, en su propuesta de regulación sobre inteligencia artificial presentada en 2021, califica estos sistemas como de "alto riesgo".
17:50
Speaker B
Pero deja la puerta abierta a su uso en áreas vinculadas a la seguridad y la lucha contra el terrorismo.
18:00
Speaker B
Recogida de datos biométricos (4 huellas digitales) e información personal como nombre, tipo de identificación, etc.
18:10
Speaker B
Eurodac: Base de datos solo a solicitantes de asilo.
18:20
Speaker B
EES: a todas las personas que entren.
18:30
Speaker B
Justificación: procedimientos más expeditos y lucha contra el terrorismo.
18:40
Speaker B
La IA racializa.
18:41
Speaker B
La racialización es el proceso mediante el cual el sistema nos asigna características/cualidades positivas o negativas.
18:50
Speaker B
En base a la categoría étnico-racial con la que se nos identifica (negros/as, gitanos/as, blancos/as, latinos/as, indígenas, asiáticos/as, árabes).
19:00
Speaker B
El lugar que ocupamos en el mundo va a depender de si somos racializados en la superioridad o en la inferioridad.
19:10
Speaker B
Al existir un entrenamiento del algoritmo con datos sesgados, incompletos o tendenciosos, la IA hace desaparecer a la persona real.
19:20
Speaker B
Y la reemplaza por un conjunto de atribuciones positivas o negativas (igual que hace el proceso de racialización) que van a determinar sus posibilidades de futuro.
19:30
Speaker B
La IA reproduce patrones históricos de marginación, exclusión y criminalización al actuar como un mecanismo de racialización.
19:40
Speaker B
Hace que colectivos de personas con privilegios vuelven a ser privilegiados y que comunidades y pueblos de personas que sufren discriminación vuelven a ser discriminados.
Topics:inteligencia artificialsesgo algorítmicoracializacióndiscriminaciónalgoritmosantirracismojusticia algorítmicaAlgoracetecnología y racismoeducación tecnológica

Frequently Asked Questions

¿Por qué la inteligencia artificial no es neutral?

La inteligencia artificial no es neutral porque los algoritmos son diseñados por personas que toman decisiones sobre qué datos incluir y cómo procesarlos, reflejando sus propios sesgos y perspectivas, generalmente de desarrolladores mayoritariamente hombres blancos de clase media-alta.

¿Qué es un sesgo algorítmico y cómo afecta a las personas?

El sesgo algorítmico se refiere a errores sistemáticos en los algoritmos que generan resultados injustos, como negar préstamos o discriminar en procesos de admisión, afectando principalmente a grupos históricamente discriminados por raza, género o clase social.

¿Qué ejemplos existen de discriminación algorítmica en la vida real?

Ejemplos incluyen programas que discriminaban en admisiones universitarias en Reino Unido, motores de búsqueda que asocian profesiones con género, y herramientas policiales como VeriPol que pueden perjudicar a personas no nativas o con ansiedad al analizar denuncias.

Get More with the Söz AI App

Transcribe recordings, audio files, and YouTube videos — with AI summaries, speaker detection, and unlimited transcriptions.

Or transcribe another YouTube video here →