Si la IA aprende de nosotros, ¿qué le estamos enseñando?

Illustration of two people in quiet conversation with abstract chat bubbles, representing human-centered artificial intelligence and ethical dialogue.

🌿 Nota de Catalina:
Este blog nace de una mente neurodivergente y un corazón inmigrante. Es una mezcla de recuerdos, plantas, recetas, viajes y reflexiones—sin líneas rectas, solo historias de un cerebro que piensa distinto.
Escribo para ser la voz que una vez necesité—para quienes alguna vez se sintieron fuera de lugar, incomprendidos, o “demasiado.” No están solos.

Este ensayo fue escrito originalmente para mi clase de Ética en Inteligencia Artificial en Miami Dade College.

Decidí compartirlo aquí porque las preguntas que plantea —sobre equidad, prejuicio y responsabilidad— no pertenecen solo a las aulas ni a los textos académicos. Aparecen en la vida cotidiana, en las decisiones que determinan quién tiene acceso, quién es juzgado, quién es escuchado y quién queda fuera.

La inteligencia artificial suele describirse como neutral u objetiva. Pero la IA no existe fuera de la sociedad. Aprende de nuestros datos, de nuestros sistemas y de nuestra historia. Y cuando esos sistemas son desiguales, la IA no los corrige: los amplifica.

Este texto refleja mi propia perspectiva como mujer latina, inmigrante y estudiante que regresó a la universidad en sus cuarentas, alguien que navega la tecnología tanto desde la experiencia vivida como desde la formación académica. Combina teoría ética, investigación y ejemplos cotidianos para plantear una pregunta simple pero incómoda:

¿puede la inteligencia artificial ser justa si la sociedad que la entrena no lo es?


Prejuicio, equidad y juicio algorítmico: un problema humano

Introducción

La inteligencia artificial suele describirse como objetiva: un conjunto de sistemas matemáticos que toman decisiones neutrales. Pero la IA no nace neutral. Aprende de nosotros, de nuestros datos, de nuestras estructuras, de nuestros puntos ciegos morales y de nuestros fracasos. Y si nuestra sociedad tiene dificultades para tratar a las personas con justicia, la IA heredará y automatizará esa injusticia a gran escala.

Para mí, la ética en la IA no es un concepto abstracto. Es algo personal. Está arraigado en la historia de personas reales que son juzgadas sin contexto, cuyas vidas se reducen a simples datos. Hace unos meses leí sobre una madre arrestada por dejar a su hijo de diez años a cargo de su hermano menor mientras iba a trabajar. Muchas personas se apresuraron a juzgarla como irresponsable. Pero casi nadie preguntó:

¿Por qué no tenía acceso a cuidado infantil?

¿Por qué la supervivencia se criminaliza cuando eres pobre?

¿Por qué ignoramos el sistema que la empujó a esa situación?

Este caso se quedó conmigo porque revela una verdad central en la ética de la IA: los seres humanos juzgamos sin comprender. La IA aprende de esos juicios. Y por eso la equidad importa. La IA será un reflejo de nosotros. La pregunta entonces es: ¿qué le estamos mostrando?

Como mujer latina, inmigrante y estudiante que regresa a la educación formal en la adultez, he vivido tanto la vulnerabilidad como el privilegio. Sé lo que significa que los sistemas te pasen por alto, y también sé lo que implica tener voz y la oportunidad de hablar. Esta doble perspectiva da forma a mi argumento central: la inteligencia artificial no puede ser justa si la sociedad que la entrena no es justa. Si queremos una IA ética, primero debemos examinar los sistemas humanos que le enseñan qué significa “equidad”.


Comprender la equidad algorítmica (y la injusticia)

La equidad algorítmica suele discutirse en términos matemáticos: precisión equitativa, tasas de error iguales, igualdad de oportunidades. Investigadores como Narayanan y Kapoor señalan que la equidad no es una sola fórmula, sino una decisión basada en valores. Pero la equidad no es solo matemática; también es emocional, cultural y política.

Si la IA es diseñada únicamente por personas que nunca han experimentado pobreza, desplazamiento, barreras lingüísticas, discriminación racial o la dificultad de reconstruir una vida, esos sistemas reflejarán su visión del mundo. La equidad colapsa cuando quienes diseñan los sistemas no pueden imaginar la vida de quienes serán juzgados por ellos.

Aquí es donde el “velo de la ignorancia” de John Rawls se vuelve fundamental. Rawls propone que las sociedades justas se construyen cuando las reglas se diseñan sin saber si uno mismo será privilegiado o vulnerable. La IA necesita urgentemente este principio. Los sistemas deberían diseñarse como si no supiéramos quién seremos ante sus ojos: paciente o médico, inmigrante o ciudadano, pobre o rico, madre o hijo.


Sesgo en los sistemas de IA: aprendiendo las lecciones equivocadas

El sesgo en la IA suele comenzar con datos sesgados, pero debemos ser honestos sobre lo que eso significa. La IA aprende de:

  • sistemas de vigilancia moldeados por el racismo
  • sistemas de salud marcados por el acceso desigual
  • sistemas educativos condicionados por la pobreza
  • historiales laborales atravesados por la discriminación
  • políticas de vivienda basadas en la segregación
  • redes sociales guiadas por la popularidad, no por la verdad

Cuando la IA predice “riesgo”, “confiabilidad”, “elegibilidad” o “merecimiento”, no está prediciendo el futuro: está repitiendo la historia.

Las personas terminan codificadas como:

  • pobre → irresponsable
  • inmigrante → sospechoso
  • madre soltera → negligente
  • paciente negro → “siente menos dolor”
  • persona con discapacidad → no empleable
  • clase trabajadora → fracaso individual en lugar de falla sistémica

Estos patrones no son accidentales. Son reflejos matemáticos de prejuicios sociales.

Pérez et al. (2023) explican que mitigar el sesgo puede reducir la precisión de los sistemas, pero la equidad no debe sacrificarse por conveniencia o eficiencia. Un sistema de IA que es “eficiente” para los privilegiados pero dañino para los vulnerables no es ético; está incompleto.


Impactos reales: salud, educación y lo que la sociedad decide ver

La atención médica muestra algunas de las consecuencias más peligrosas de los sistemas sesgados. Kuo, Tseng y Kim encontraron que muchas herramientas de IA en salud funcionan peor para grupos minoritarios y subrepresentados simplemente porque nuestros datos están ausentes o mal clasificados. Cuando la IA no nos ve, el sistema de salud tampoco nos cuida.

Pero el problema va mucho más allá de la medicina. Toca el núcleo de cómo una sociedad organiza las oportunidades.

Un ejemplo claro de equidad bien aplicada es el modelo de educación pública de Finlandia. Allí, las escuelas privadas son prácticamente inexistentes. Hijos de médicos, millonarios, trabajadores de limpieza, inmigrantes y funcionarios públicos asisten a las mismas escuelas. Las personas privilegiadas no escapan del sistema: lo mejoran. Invierten en él. Exigen equidad porque sus propios hijos viven esas condiciones.

Esto es justicia a través de la vulnerabilidad compartida.

Esto es Rawls en acción.

Cuando menciono Finlandia —especialmente a madres en Estados Unidos— la respuesta suele ser:

“Por eso hago homeschooling. No quiero que mis hijos vayan a escuelas públicas.”

Pero para mí, esa respuesta revela el problema. La educación en casa muchas veces nace del privilegio: la capacidad de salir del sistema. Aísla a los niños de la complejidad de la sociedad: la pobreza, la diversidad, la desigualdad, los derechos humanos, las distintas realidades culturales.

Una sociedad no puede funcionar si todos se refugian en su propia burbuja.

Salir del sistema protege a individuos, pero debilita lo colectivo. Esto refleja exactamente lo que ocurre en el desarrollo de la IA: cuando las personas privilegiadas se distancian de los sistemas públicos, estos se deterioran. El resultado es predecible: sistemas que sirven a unos pocos y fallan para muchos.

Mi propia experiencia refuerza esta idea. Sí, soy latina, inmigrante y mujer en tecnología más adelante en la vida, pero también soy privilegiada en muchos sentidos. Tengo voz. Tengo acceso a educación. Puedo aprender, cuestionar y escribir este ensayo. Muchas personas no tienen esa oportunidad.

El privilegio es complejo y tiene capas.

Nombrarlo también es un acto ético.


Objeción y respuesta

Algunas personas argumentan que los requisitos de equidad ralentizan la innovación tecnológica o reducen el rendimiento de los sistemas. Sostienen que priorizar la justicia introduce limitaciones que frenan el potencial de la IA. Sin embargo, este argumento ignora una realidad ética fundamental: un sistema no puede considerarse eficiente si solo funciona bien para los privilegiados. Como diría Rawls, la justicia debe evaluarse desde la perspectiva de quienes sufren mayor daño. Una IA que produce resultados rápidos mientras refuerza la desigualdad no es eficiente: es peligrosa. La verdadera innovación debe incluir la equidad, o corre el riesgo de amplificar las injusticias que la sociedad ya enfrenta.


Reflexión ética: lo que nos debemos unos a otros

Rawls nos enseña que la equidad comienza cuando nos imaginamos en el lugar de otra persona. Finlandia demuestra que la equidad se vuelve real cuando el privilegio y la vulnerabilidad comparten los mismos sistemas.

La IA, sin embargo, suele diseñarse de arriba hacia abajo, aislada de las personas a las que impactará.

La IA ética requiere más que métricas.

Requiere empatía, humildad, contexto, diversidad, responsabilidad y valentía.

Creo esto profundamente porque he vivido en ambos lados: con voz y sin ella. Y sé que si la IA solo aprende de los poderosos, borrará las experiencias y luchas de todos los demás.

Las máquinas son espejos.

Si queremos que la IA sea justa, debemos mostrarle una sociedad que tome la justicia en serio.


Conclusión

La IA nos reflejará.

Por eso debemos elegir con cuidado lo que le enseñamos.

¿Queremos un mundo donde las madres que luchan por sobrevivir sean criminalizadas?

¿Donde el privilegio determine quién merece oportunidades?

¿Donde la equidad sea opcional para quienes pueden escapar?

¿Donde las personas vulnerables desaparezcan dentro de datos sesgados?

¿O queremos un mundo donde la justicia sea compartida, donde los sistemas se construyan para todos, donde la empatía y la ética guíen nuestras decisiones?

La inteligencia artificial es una herramienta, pero puede volverse peligrosa si solo aprende de nuestros peores hábitos. La equidad no es un problema algorítmico; es una obligación moral. Y si construimos la IA con los valores que deseamos para la sociedad —no solo con los que actualmente refleja— podemos crear tecnología que eleve a las personas en lugar de empujarlas hacia abajo.

Nos debemos esto unos a otros.

Y se lo debemos al futuro que estamos construyendo.


Referencias

Kuo, T. T., Tseng, C., & Kim, H. E. (2023). Bias and fairness in artificial intelligence–driven healthcare: A systematic review of the literature. Journal of Medical Internet Research, 25, e43251. https://doi.org/10.2196/43251

Narayanan, A., & Kapoor, S. (2021). Algorithmic fairness: Choices, assumptions, and definitions. Communications of the ACM, 64(6), 30–33. https://doi.org/10.1145/3464903

Pérez, D., Delgado-Santos, J., & Morell, C. (2023). Algorithmic fairness in AI: A systematic review of bias mitigation methods. Scientific Reports, 13, 15487. https://doi.org/

Gracias Por Leer
Catyobi

One response to “Si la IA aprende de nosotros, ¿qué le estamos enseñando?”

  1. Muy interesante, nos deja mucho trabajo por hacer

    Like

Leave a comment