WhatsApp
Pronostico del tiempo
Puentes Internacionales
Twitter
Instagram
YouTube
Facebook

+

Matemáticas, ¿herramienta usada para discriminar?

En un nuevo libro Weapons of Math Destruction, Cathy O'Neil detalla todas las formas en que las matemáticas esencialmente están siendo utilizadas para el mal.

  • 220

En un nuevo libro Weapons of Math Destruction, Cathy O'Neil detalla todas las formas en que las matemáticas esencialmente están siendo utilizadas para el mal.

Por: Agencias 

CNNMoney | Nueva York.- No es ninguna sorpresa que la desigualdad en Estados Unidos vaya en aumento. Pero lo que quizás no sabí­as es que las matemáticas tienen parte de la culpa.

En ámbitos como la publicidad selectiva, los seguros, la educación y la creación de polí­ticas, O'Neil analiza cómo los algoritmos y las prácticas de big data (grandes volúmenes de datos) se enfocan en los pobres, lo que refuerza el racismo y amplí­a la desigualdad.

Estas “armas de destrucción matemática”, como ella las llama, tienen tres caracterí­sticas principales: son opacas, escalables e injustas.

¿Te han rechazado en un empleo debido a un test de personalidad? Qué mal: el algoritmo dijo que no eres el candidato adecuado. ¿Te cobraron una tasa más alta por un préstamo? Bueno, las personas en tu código postal tienden a ser prestatarios de mayor riesgo. ¿Recibiste una sentencia de prisión más dura? Esta es la causa: tus amigos y familiares tienen antecedentes penales también, así­ que es muy probable que reincidas. (Alerta de spoiler: La gente en el extremo receptor de estos mensajes realmente ni obtiene una explicación).

Los modelos de los que O'Neil escribe utilizan sustitutos para lo que realmente están tratando de medir. La policí­a analiza los códigos postales para desplegar agentes, los empleadores utilizan puntuaciones de crédito para medir la responsabilidad, los que prestan sobre los salarios evaluar la gramática para determinar la solvencia. Sin embargo, los códigos postales también son un sustituto de 'raza', las puntuaciones de crédito de 'riqueza', y la gramática deficiente de 'inmigrante'.

O'Neil, quien tiene un doctorado en Matemáticas por la Universidad de Harvard, ha trabajado en el mundo académico, también en un fondo de cobertura durante la crisis financiera y como cientí­fica de datos en una startup. Fue allí­ â€”en conjunción con el trabajo que estaba haciendo con Occupy Wall Street— que quedó desilusionada por la forma en que las personas estaban usando los datos.

“Me preocupó la separación entre los modelos técnicos y las personas reales, y las repercusiones morales de esa separación”, escribe O'Neill.

Comenzó a bloguear —en mathbabe.org— acerca de sus frustraciones, lo cual eventualmente se convirtió en Weapons of Math Destruction.

Una de las secciones más atractivas del libro es sobre los “modelos de reincidencia”. Durante aí±os, la sentencia penal era inconsistente y sesgada contra las minorí­as. Así­ que algunos estados de Estados Unidos comenzaron a utilizar los modelos de reincidencia para guiar las sentencias. Estos consideran aspectos como condenas anteriores, el sitio de residencia, consumo de drogas y alcohol, encuentros previos con la policí­a y antecedentes penales de amigos y familiares.

Recomendamos: El G20 urge a combatir la desigualdad

Estas puntuaciones se utilizan para determinar la sentencia.

“Esto es injusto”, escribe O'Neil. “De hecho, si un fiscal tratara de manchar a un acusado al mencionar los antecedentes penales de su hermano o la alta tasa de criminalidad en su vecindario, cualquier abogado de defensa decente rugirí­a: '¡Protesto, su Seí±orí­a!'”.

Pero en este caso, es poco probable que la persona conozca la combinación de factores que influyeron en su sentencia; y no tiene absolutamente ningún recurso para impugnarlos.

O considera el hecho de que casi la mitad de los empleadores estadounidenses piden a sus potenciales empleados su historial crediticio, lo que equivale a equiparar una buena puntuación de crédito con responsabilidad o fiabilidad.

Esto “crea un ciclo de pobreza peligroso”, escribe O'Neil. “Si no puedes conseguir un trabajo debido a tu historial crediticio, es probable que el registro empeore, lo cuál le hará aún más difí­cil trabajar”.

Este ciclo se extiende a lo largo de lí­neas raciales, sostiene, considerando la brecha de riqueza entre las familias blancas y negras. Esto significa que los afroamericanos tienen menos de colchón al cual recurrir y son más propensos a ver caí­das en su crédito.

No obstante, los empleadores ven un informe de crédito como datos abundantes y superiores al juicio humano, sin cuestionar los supuestos sobre los cuales se calcularon.

En el vací­o, estos modelos son bastante malos, pero O'Neil enfatiza: “Se están alimentando uno del otro”. La educación, las perspectivas de empleo, la deuda y el encarcelamiento están interconectados, y la manera en que se utilizan las técnicas de big data los inclina más a permanecer de ese modo.

“Los pobres son más propensos a tener mal crédito y a vivir en barrios de alta criminalidad, rodeados de otras personas pobres”, escribe. “Una vez que... las armas de destrucción matemática digieren esos datos, los colman de préstamos de alto riesgo o de escuelas de paga. Enví­a más policí­as a arrestarlos y cuando están condenados los condena a penas más graves”.

A su vez, un nuevo conjunto de armas de destrucción matemática utiliza estos datos para cobrar tasas más altas para hipotecas, préstamos y seguros.

Así­ que, como ves, es fácil desanimarse.

Sin embargo O'Neil tiene esperanzas, porque la gente está empezando a prestar atención. Hay una creciente comunidad de abogados, sociólogos y estadí­sticos comprometidos con la búsqueda de lugares donde los datos sean utilizados para perjudicar y averiguar cómo solucionarlo.

Ella es optimista de que leyes como la HIPAA y la Americans with Disabilities Act (Ley de Estadounidenses con Discapacidades) serán modernizadas para cubrir y proteger más de sus datos personales, de que los reguladores como la Ofinica para la Protección Financiera del Consumidor (CFPB, por sus siglas en inglés) y la Comisión Federal de Comercio (FTC, por sus siglas en inglés) aumentarán su revisión de los procesos, y que habrán requisitos de transparencia estandarizados.

Y además está el hecho de que estos modelos de hecho tienen mucho potencial.

Imagí­nate si se utilizaran los modelos de reincidencia para proporcionar a los internos en situación de riesgo asesoramiento y capacitación laboral mientras están en prisión. O si la policí­a duplicara los patrullajes a pie en los códigos postales de alta criminalidad, trabajando para construir relaciones con la comunidad en lugar de detener a personas por delitos menores.

Puedes notar que hay un elemento humano en estas soluciones. Porque, en realidad, esa es la clave. Los algoritmos pueden informar, iluminar y complementar nuestras decisiones y polí­ticas. Pero para obtener resultados no-malvados, los humanos y los datos realmente tienen que trabajar juntos.

“Los procesos de big data codifican el pasado”, escribe O'Neil. “No inventan el futuro. Para ello es necesaria una imaginación moral, y eso es algo que solo los seres humanos pueden proporcionar”.

Publicación anterior Aquí los niños prefieren morir que seguir viviendo la guerra
Siguiente publicación Investigan el hallazgo de toma clandestina en Tabasco
Entradas relacionadas
Comentarios
  Estaciones ;