Alemania.
Las personas tenemos prejuicios, pero, ¿es posible crear sistemas de valores neutrales mediante algoritmos? ¿La inteligencia artificial no tiene prejuicios? Los datos son una valiosa materia prima de nuestro tiempo.
A partir de datos, la inteligencia artificial aprende a detectar y reproducir patrones en estructuras existenciales. Genera así también juicios sobre personas: en solicitudes de empleo, préstamos bancarios, trámites administrativos, policiales y judiciales. Pero, ¿en qué se basan estas valoraciones?
Los datos que facilitamos a una IA son generados por nosotros. Nuestros prejuicios humanos quedan retratados en ella. Por ejemplo, el exceso de vigilancia en barrios con un alto índice de migración conlleva una mayor cantidad de información sobre los residentes.
Entonces, el algoritmo interpreta los datos así: estas personas tienen más probabilidades de cometer un delito, porque se detuvo a más gente en estos distritos.
Otro ejemplo es Amazon, la empresa quiso filtrar a solicitantes por medio de una IA. La IA se basó en las contrataciones de Amazon en los últimos diez años. Estas fueron en su mayoría hombres. Y la IA interpretó que los hombres tienen preferencia.
El algoritmo es una caja negra, no sabemos exactamente cómo evalúa los datos que dispone. Pero las valoraciones que hacemos los humanos tampoco son siempre explicables.
Cuanto más intervenga la inteligencia artificial en nuestra vidas, más tenemos que reaccionar ante el hecho de que puede ser injusto. Los humanos somos responsables de regular la IA.
- El consumo de fentanilo, un problema latente en la frontera norte de México - noviembre 18, 2024
- El aborto en EE. UU.: un tema sensible ante el nuevo gobierno - noviembre 18, 2024
- Inteligencia artificial y música clásica se unen en un concierto en Alemania - noviembre 18, 2024