edición general

Las computadoras que rechazan tu currículum cuando te postulas a un puesto de trabajo

#8 De hecho, yo me pregunto por qué le han pasado el sexo como dato a la IA
Está bien como dato estadístico, pero no para usarlo en los filtros
#17 Ese es exactamente el problema. La IA falló porque el entrenamiento fue deficiente, justo la parte que depende de los humanos.
#17 Y tu qué sabes si es un dato relevante o no? Justamente usamos IAs porque aprenden por sí mismas qué es lo necesario para cumplir su tarea lo mejor posible. Lo correcto es darle toda la información que tengas y sea la IA la que aprenda qué parte de esa información es útil y qué relación tiene con el resto de los datos y el resultado.
#55 Deberían pasarle también raza y nivel socioeconómico
Así todos hombres, ricos y blancos
El objetivo es contratar talento.
Y en eso no influye si eres negro o blanco ni hombre o mujer ni rico ni pobre
Aunque estadísticamente sí haya más talentos descubiertos hombres, blancos y ricos

Digo descubiertos, eh
#66 Deberían pasarle también raza y nivel socioeconómico
Y qué te hace pensar que no lo hicieron?

El objetivo es contratar talento.
Y en eso no influye si eres negro o blanco ni hombre o mujer ni rico ni pobre


Eso lo dices porque tu opinión está sesgada por la sociedad. Se ha machacado tanto con la igualdad que asumes que todos somos iguales sin plantearte que tal vez haya gente mejor en algunas cosas y otra mejor en otras cosas. La I.A no ha hecho más que descubrir lo mismo que descubrieron con el experimeto que comenta #35
#78 No es un planteamiento imaginario..
Cuando se da la oportunidad, se ve que somos iguales.

Cuando el primer negro que trabajaba en las plantaciones de algodón, fue a la escuela, se vió que somos iguales
Antes, no, claro.. Bueno, el negro se lo podía imaginar, aunque estaría tan machacado con el discurso de que era inferior que a lo mejor ni reconocía su propio talento.

Offtopic: me parece un poco surrealista estar en el s XXI discutiendo si somos iguales aunque seamos ricos o pobres, negros o blancos, hombres o mujeres...
#85 Cuando se da la oportunidad, se ve que somos iguales.

A ver, es bien sabido por estudios antropológicos que NO somos iguales. Ninguno es peor que el otro. Simplemente tenemos habilidades diferentes. Por ejemplo las mujeres son muchísimo mejores distinguiendo colores o comunicando información.
#95 Eso son tonterías y en todo caso sería "algunos" o "la mayoría"
Tú coges a un individuo y no sabes, porque cada persona es única
#85 cuando se da la oportunidad se ve que somos iguales. Pues no, en el colegio no sacabamos todos las mismas notas a pesar de tener las mismas oportunidades. Pero a parte de eso, las mismas oportunidades... ¿Tú quién crees que tiene mayor oportunidad de ir a las mejores universidades, los ricos o los pobres? Yo creo que los ricos, por tanto el dinero importa.
#129 Pues nada, se acabó la meritocracia y el corregir las desigualdades, el que nazca pobre, que se joda.
Y el que nazca rico, que nos gobierne a todos, ya sea más tonto que una piedra.
#78 no le pasa nivel socioeconómico porque los candidatos no lo incluimos en el CV.

Y el sexo, aunque no lo incluyeses, va relacionado con el nombre de pila.
#78 Si echas un vistazo al comentario #135 que responde al #35 que mencionas quizá puedas ver que, como nos pasa a todos en cierto modo, te afecta el sesgo que menciona el experimento de Jennifer y John.
#66 sí influye y eso fue lo que encontró la IA. Por mucho que haya mujeres capaces, los hombres son mayoría en tecnología, por tanto con más probabilidad encontrarás hombres válidos.

Un pobre puede ser un genio pero por lo general un rico tiene más dinero para recibir una buena educación, por tanto es más probable que los ricos sean mejores para un puesto en concreto.

Hay muchos factores a tener en cuenta, un rico también puede ser un patán pero su dinero influye.

La IA es la que no tiene prejuicios y por tanto nos enseña las obviedades que insistimos en tapar con nuestro buenrollismo de la igualdad.

Queremos igualdad pero no somos iguales y eso no es malo, el problema es pensar que ser diferente es malo. Las mujeres por estadística no serán adecuadas para ese puesto pero eso no significa que no puedan llegar a hacer bien ese trabajo sino que se suelen dedicar a otras cosas y en esas cosas serán más adecuadas que los hombres.
#17 Eso es lo que no se entiende. El sexo nunca debería ser una variable de entrada. Es lo que los verdaderos defensores de la igualdad llamamos agnosticismo de género.

#66 El problema es que se está usando una IA de una forma que ese tipo de IA no se debe usar. Este tipo de redes neuronales lo que hacen es una regresión multivariable, pero eso en ningún caso es inteligencia. Es normal que ciertas características luego vayan correlacionadas más con un sexo que con otro. El problema, es que después de entrenar la IA y guardar esa correlación en su red neuronal, si le metes como input perfiles (inventados) idénticos en los que sólo cambia el sexo acaba discriminando a mujeres, simplemente porque su correlación dice que la proporción de individuos más aptos para esos puestos son hombres. Y esto es un resultado de selección erróneo.
#55 Si partes de la suposición de que el sexo puede ser un dato relevante, al menos no deberías luego rechazar un algoritmo que utiliza el sexo como dato relevante.
#68 Si vas a darle el trabajo a una I.A., debes partir de la suposición de que cualquier cosa puede ser relevante y pasarle todos los datos que tengas. La IA será la que aprenda por sí misma a darle peso cero a lo que no tenga importancia.
#77 No, porque el conjunto de entrenamiento puede tener sesgos. Si una variable no debe tenerse en cuenta, no se le da. Simplificas el problema y te ahorras estos problemas.
#77 Discrepo. La parte más importante del trabajo del data scientist consiste en analizar la clase de problema, la clase de datos, como organizarlos, y cómo hacer la tarea más sencilla prescindiendo de unos datos en favor de otros.
#105 El problema es que si dejas que una persona analice los datos y elimine los que no le parecen relevantes es que aplicará su criterio humano y sesgará los datos.

Lo ideal sería pasarle todos los datos que tengas. Claro que en algunas situaciones no es viable pero en el caso de un currículum sí lo es.
#116 Ok. Yo eliminaría los datos irrelevantes para tener un modelo más rápido, con menor ruido, y con mayor capacidad de predicción.

El criterio de la relevancia puede medirse de forma objetiva en la fase del análisis del problama. No se haría de forma arbitraria.
#55 No exactamente. El problema es que seguramente el conjunto de entrenamiento tenía sesgos (porque está hecho por personas). Por tanto la IA replicaba esos sesgos. Y en cualquier caso es tarea del que diseña la IA seleccionar las variables relevantes. Si hay alguna que se sabe que no debe influir en la decisión (sexo, tiempo atmosférico del momento en que se mandó el currículum....) pues no se incluye. Las IAs no son mágicas y, o haces un proceso de entrenamiento muy diseñado y correcto o pasan estas cosas. No vale "tu mete todo a ver qué sale".
#91 El problema es que seguramente el conjunto de entrenamiento tenía sesgos (porque está hecho por personas).

Realmente no podemos estar seguros de eso. Si lo hubiera hecho yo, como datos de entrenamiento habría tomado datos de personas contratadas junto con sus curriculums y resultados. De esa forma la IA puede aprender a correlacionar un curriculum con el desempeño en el trabajo. De esa forma no hay sesgos: son datos totalmente objetivos. Pero no puedo asegurar que lo hayan hecho así.
#102 Bueno, parece que ellos si creen que hubo problemas al diseñar la IA. De eso va la noticia. No están diciendo "la IA no sirve para seleccionar candidatos". Están diciendo "esta IA no vale para seleccionar candidatos". Por otra parte, la misma medición de los "resultados" puede tener sus sesgos. ¿Quién determina esos resultados? ¿Cómo se ha medido? Si por ejemplo en la empresa mayoritariamente hay hombres, porque "tradicionalmente" no había mujeres en esos puestos, lo normal es que no haya mujeres con buenos resultados (las primeras y pocas que habrán tendrán poco historial laboral). Así es muy fácil que la IA asuma que "si eres mujer no duras en la empresa", porque no hay mujeres con más de X años. Y esto es solo un ejemplo. La descripción que haces en una frase "Si lo hubiera hecho yo, como datos de entrenamiento habría tomado datos de personas contratadas junto con sus curriculums y resultados" es muy bonita, pero puede ser dificilísimo de implementar si quieres que salga bien la cosa.
#109 Bueno, parece que ellos si creen que hubo problemas al diseñar la IA

Yo más bien diría que les pasó como a los de Google cuando su IA reconocía monos como humanos de raza negra.
Hay cosas que son tabús y no se pueden decir y por lo tanto hay que condenar a la IA que lo dijo. En el caso de Google fue una IA que decía que los negros se parecen a monos. En el caso de Amazon la IA dijo que les convenía contratar a hombres. Ambas cosas están "prohibidas" por los tabús modernos.
#119 No es que sea tabú, es que es una cagada. Si parece una persona, pero por su color de piel no le cuadra (ya que ha aprendido que las personas son de piel blanca) y lo intenta catalogar con el animal más parecido, le salía un gorila. Es un problema de sesgo evidente (al suponer una influencia excesiva en el color de piel para reconocer a las personas), y un claro error, no se rechaza por ser "prohibido" si no por ser claramente equivocado.
#113 Muchos ascensos se dan por tener buena relacion o amigismo, lo que es muy humano, pero tal vez no lo mejor para la empresa.
LAs IA apredende a obtener datos como los que les muestras, pero de ahi a lo mejor no sacan lo que te interesa.
En un buscador de zapatillas, encontraba zapatillas del mismo estilo, pero tambien la misma postura del modelo y ropa similiar a las fotos con las que se ha entrenado. Se pueden usar tecnicas para que se centren en la zapatilla, como hacer zoom a ella o mover un recorte de la zapatilla o rotarla.

Tambien hay trabajos que no se ven los resultados evidentemente. En un Equipo de futbol, meten mas goles los delantero, pero como se contabilizan los buenos pases y regateos y frustrar lo intentos de gol.
Lo que no se mide no existe y hay cosas que cuesta medirlos mucho. Un click a una noticia se mide facil, pero si al lector le ha gustado es mas dificil de medir.
#109 El procesado de los datos es una parte muy importante, no se si mas que el diseño de red neuronal, y creo que no se le da tanta importancia. andres Torrubia decia que habia que "desarrollar un relacion intima con los datos"
#119 Creo que fue una foto concreta, igual que hay personas sobre todo mayores que no queda claro por la cara si son hombres o mujeres. Pero no solia confundir negros con primates. Creo que el fondo era vegetal eso tambien lo tiene en cuenta y lo despisto, igual que en una cocina un hombre penso que era una mujer.
#170 Es que los blancos tenemos la nariz menos chata que el resto de razas, salvo en algunas zonas de america.


#121 #130 Si buscas zapatilla eliminas de las fotos lo que no es zapatilla. Otras cosas son mas opinables, pero no se hasta que punto hay subjetividad.
#181 Si buscas zapatilla eliminas de las fotos lo que no es zapatilla. Otras cosas son mas opinables, pero no se hasta que punto hay subjetividad.
¿Y si resulta que hay alguna otra cosa que podría usarse como calzado y tu lo descartaste porque con criterio humano pensaste que no podía existir ningún calzado que no fueran zapatillas o zapatos?
#55 Lo correcto es darle toda la información que tengas y sea la IA la que aprenda qué parte de esa información es útil y qué relación tiene con el resto de los datos y el resultado.

Es que las IAs no hacen eso. A las IAs les das un listado de las personas contratadas durante los últimos treinta años y van a aprender a replicar eso de cara al futuro, pero nada más. Tú sólo puedes decirles lo que es un resultado correcto y lo que no lo es, y luego ellas replican eso.

Si la muestra está sesgada, el resultado de la IA también va a estarlo. La IA no va a llegar a la conclusión de que la muestra estaba sesgada, no sabe hacer eso.

Obligatorio para entender este tema y cómo funciona realmente una IA (a muchos se les va a caer un mito): www.youtube.com/watch?v=R9OHn5ZF4Uo
#183 No se lo que hicieron ellos pero yo le daría la información de los currículums y el resultado de cuan eficiente ha sido el trabajador después de contratado. De esa forma al darle un currículum nuevo va a poder decirte que tan bueno o malo resultará si lo contratas.
#17 #28 No le pasaron el sexo como parámetro directamente. La IA se las apaño para discriminar según la universidad donde había estudiado, cursos que había hecho, etc.
#17 Por lo que recuerdo (puede haber sido otro caso similar) lo que hacía la IA era discriminar contra gente que tuviese marcadores típicamente femeninos, como haber ido a una universidad para mujeres o tener en tu CV actividades como haber sido animadora. Es decir, aunque no le daban el sexo del candidato, la IA lo infería y lo usaba como criterio de exclusión. Es por estas cosas que dejar procesos enteros en manos de IA sin supervisión es un problema.

menéame