edición general

Amazon ha dejado de usar por sexista a la inteligencia artificial que le revisaba los currículums

#26 si y no. Los que entrenan tienen que preparar y limpiar los datos, pero no son ellos los responsables del sesgo en el juego de datos.
Si entrenas a un sistema de machine learning para reconocer caras de personas y no le enseñas ninguna foto de un negro, de quien es la responsabilidad? De quien prepara el dataset, de quien lo usa o de ambos? En cualquier caso no se puede decir que el algoritmo sea racista
#27 Pues de quien prepara esos datos, de quien los usa o de ambos. Personas que están involucradas al fin y al cabo. Lo que he llamado de forma errónea "equipo de programadores".
Pero vengo a decir lo mismo. Si esas personas no contemplan ciertas sensibilidades, pues luego pasa lo que pasa.

menéame