edición general

Amazon ha dejado de usar por sexista a la inteligencia artificial que le revisaba los currículums

#25 Bien, no son programadores, son personas que entrenan la IA. Al entrenarla, como tú bien dices, terminarán aprendiendo cosas muy chungas si los chats o conversaciones son muy chungas. Y supongo que eso pasará unas pruebas para ver si funciona, supervisadas por personas. Esas personas, si son machistas, no verán el machismo en su funcionamiento. Lo verán algo normal. ¿Me equivoco?
#26 si y no. Los que entrenan tienen que preparar y limpiar los datos, pero no son ellos los responsables del sesgo en el juego de datos.
Si entrenas a un sistema de machine learning para reconocer caras de personas y no le enseñas ninguna foto de un negro, de quien es la responsabilidad? De quien prepara el dataset, de quien lo usa o de ambos? En cualquier caso no se puede decir que el algoritmo sea racista
#27 Pues de quien prepara esos datos, de quien los usa o de ambos. Personas que están involucradas al fin y al cabo. Lo que he llamado de forma errónea "equipo de programadores".
Pero vengo a decir lo mismo. Si esas personas no contemplan ciertas sensibilidades, pues luego pasa lo que pasa.

menéame