El aprendizaje automático es un punto importante en los procesos de Inteligencia artificiales y para que funcionen es necesario disponer de una gran cantidad de datos. De manera que la precisión de la Inteligencia Artificial depende en gran medida de la calidad de los datos y los parámetros codificados en los algoritmos de entrenamiento.
En mucho ámbitos los datos actuales presentan sesgos o carencia de diversidad, así que el uso de estos datos puede llevar, a los algoritmos de inteligencia artificial, a conclusiones que retroalimentadas agrandan ese sesgo de los datos de origen.
Asi por ejemplo, se están dando casos en los que los algoritmos otorgan a los hombres límites de crédito mucho más altos que a las mujeres y Amazón ha detectado una discriminación de las mujeres en el sistema de reclutamiento laboral, porque la mayoría de los curricular pertenecían a hombres o porque el reclutamiento manual ya estaba filtrando las mujeres. En este caso, además, es menor el número de mujeres que de hombres que desarrollan software de IA. El algoritmo aprendió de esos datos y se retroalimentó de manera que acabó penalizando aqeullos que incluían referencias femeninas.
De acuerdo con los detalles que revela Reuters, los profesionales de la compañía modificaron los programas de reclutamiento laboral para hacerlos neutros a estos términos particulares que jugaban en contra de las posibilidades de las candidatas, pero al parecer no aseguraba la ausencia de sesgos.
Por ello es tan importante los principios sobre expuestos por la Comisión Europea sobre IA, y en concreto el de Diversidad, no discriminación y equidad.
Categorías:Inteligencia artificial, Mujer, Uncategorized
Deja una respuesta