edición general

Las computadoras que rechazan tu currículum cuando te postulas a un puesto de trabajo

#91 El problema es que seguramente el conjunto de entrenamiento tenía sesgos (porque está hecho por personas).

Realmente no podemos estar seguros de eso. Si lo hubiera hecho yo, como datos de entrenamiento habría tomado datos de personas contratadas junto con sus curriculums y resultados. De esa forma la IA puede aprender a correlacionar un curriculum con el desempeño en el trabajo. De esa forma no hay sesgos: son datos totalmente objetivos. Pero no puedo asegurar que lo hayan hecho así.
#102 Bueno, parece que ellos si creen que hubo problemas al diseñar la IA. De eso va la noticia. No están diciendo "la IA no sirve para seleccionar candidatos". Están diciendo "esta IA no vale para seleccionar candidatos". Por otra parte, la misma medición de los "resultados" puede tener sus sesgos. ¿Quién determina esos resultados? ¿Cómo se ha medido? Si por ejemplo en la empresa mayoritariamente hay hombres, porque "tradicionalmente" no había mujeres en esos puestos, lo normal es que no haya mujeres con buenos resultados (las primeras y pocas que habrán tendrán poco historial laboral). Así es muy fácil que la IA asuma que "si eres mujer no duras en la empresa", porque no hay mujeres con más de X años. Y esto es solo un ejemplo. La descripción que haces en una frase "Si lo hubiera hecho yo, como datos de entrenamiento habría tomado datos de personas contratadas junto con sus curriculums y resultados" es muy bonita, pero puede ser dificilísimo de implementar si quieres que salga bien la cosa.
#109 Bueno, parece que ellos si creen que hubo problemas al diseñar la IA

Yo más bien diría que les pasó como a los de Google cuando su IA reconocía monos como humanos de raza negra.
Hay cosas que son tabús y no se pueden decir y por lo tanto hay que condenar a la IA que lo dijo. En el caso de Google fue una IA que decía que los negros se parecen a monos. En el caso de Amazon la IA dijo que les convenía contratar a hombres. Ambas cosas están "prohibidas" por los tabús modernos.
#119 No es que sea tabú, es que es una cagada. Si parece una persona, pero por su color de piel no le cuadra (ya que ha aprendido que las personas son de piel blanca) y lo intenta catalogar con el animal más parecido, le salía un gorila. Es un problema de sesgo evidente (al suponer una influencia excesiva en el color de piel para reconocer a las personas), y un claro error, no se rechaza por ser "prohibido" si no por ser claramente equivocado.
#159 No es que sea tabú, es que es una cagada. Si parece una persona, pero por su color de piel no le cuadra (ya que ha aprendido que las personas son de piel blanca) y lo intenta catalogar con el animal más parecido,

La IA no tiene prejuicios. Simplemete ha aprendido lo que ha aprendido. Yo no tengo absolutamente ningún problema con los negros, pero hay que reconocer que se parecen mucho más a los monos que los blancos. La IA no hizo más que buscar similitudes. Obviamente eso no gustó a mucha gente y hubo que "sacrificarla".
#162 La verdad, me resulta extraño que pienses que una persona negra se parece más a un gorila que a otra persona, para no considerar como errónea ese comportamiento de su IA.
#169 No se... a mi me lo parecen por la forma de la cara y sobre todo la nariz. Pero también dependerá de qué zona provengan.
De hecho, para empezar la IA ha hecho bien en determinar que los humanos y los monos nos parecemos mucho. Por otro lado también se podería decir que los blancos nos parecemos más a chimpancés, que tienen la cara de color claro.
#113 Muchos ascensos se dan por tener buena relacion o amigismo, lo que es muy humano, pero tal vez no lo mejor para la empresa.
LAs IA apredende a obtener datos como los que les muestras, pero de ahi a lo mejor no sacan lo que te interesa.
En un buscador de zapatillas, encontraba zapatillas del mismo estilo, pero tambien la misma postura del modelo y ropa similiar a las fotos con las que se ha entrenado. Se pueden usar tecnicas para que se centren en la zapatilla, como hacer zoom a ella o mover un recorte de la zapatilla o rotarla.

Tambien hay trabajos que no se ven los resultados evidentemente. En un Equipo de futbol, meten mas goles los delantero, pero como se contabilizan los buenos pases y regateos y frustrar lo intentos de gol.
Lo que no se mide no existe y hay cosas que cuesta medirlos mucho. Un click a una noticia se mide facil, pero si al lector le ha gustado es mas dificil de medir.
#109 El procesado de los datos es una parte muy importante, no se si mas que el diseño de red neuronal, y creo que no se le da tanta importancia. andres Torrubia decia que habia que "desarrollar un relacion intima con los datos"
#119 Creo que fue una foto concreta, igual que hay personas sobre todo mayores que no queda claro por la cara si son hombres o mujeres. Pero no solia confundir negros con primates. Creo que el fondo era vegetal eso tambien lo tiene en cuenta y lo despisto, igual que en una cocina un hombre penso que era una mujer.
#170 Es que los blancos tenemos la nariz menos chata que el resto de razas, salvo en algunas zonas de america.


#121 #130 Si buscas zapatilla eliminas de las fotos lo que no es zapatilla. Otras cosas son mas opinables, pero no se hasta que punto hay subjetividad.
#181 Si buscas zapatilla eliminas de las fotos lo que no es zapatilla. Otras cosas son mas opinables, pero no se hasta que punto hay subjetividad.
¿Y si resulta que hay alguna otra cosa que podría usarse como calzado y tu lo descartaste porque con criterio humano pensaste que no podía existir ningún calzado que no fueran zapatillas o zapatos?

menéame