edición general

Las computadoras que rechazan tu currículum cuando te postulas a un puesto de trabajo

#7 Pero filtrar por sexo no es IA :-) Eso lo hace un algoritmo guarrindogo. Por el mismo precio te filtro yo por edad y tamaño de tetas.
#8 De hecho, yo me pregunto por qué le han pasado el sexo como dato a la IA
Está bien como dato estadístico, pero no para usarlo en los filtros
#17 Ese es exactamente el problema. La IA falló porque el entrenamiento fue deficiente, justo la parte que depende de los humanos.
#17 Y tu qué sabes si es un dato relevante o no? Justamente usamos IAs porque aprenden por sí mismas qué es lo necesario para cumplir su tarea lo mejor posible. Lo correcto es darle toda la información que tengas y sea la IA la que aprenda qué parte de esa información es útil y qué relación tiene con el resto de los datos y el resultado.
#55 Deberían pasarle también raza y nivel socioeconómico
Así todos hombres, ricos y blancos
El objetivo es contratar talento.
Y en eso no influye si eres negro o blanco ni hombre o mujer ni rico ni pobre
Aunque estadísticamente sí haya más talentos descubiertos hombres, blancos y ricos

Digo descubiertos, eh
#66 Deberían pasarle también raza y nivel socioeconómico
Y qué te hace pensar que no lo hicieron?

El objetivo es contratar talento.
Y en eso no influye si eres negro o blanco ni hombre o mujer ni rico ni pobre


Eso lo dices porque tu opinión está sesgada por la sociedad. Se ha machacado tanto con la igualdad que asumes que todos somos iguales sin plantearte que tal vez haya gente mejor en algunas cosas y otra mejor en otras cosas. La I.A no ha hecho más que descubrir lo mismo que descubrieron con el experimeto que comenta #35
#78 No es un planteamiento imaginario..
Cuando se da la oportunidad, se ve que somos iguales.

Cuando el primer negro que trabajaba en las plantaciones de algodón, fue a la escuela, se vió que somos iguales
Antes, no, claro.. Bueno, el negro se lo podía imaginar, aunque estaría tan machacado con el discurso de que era inferior que a lo mejor ni reconocía su propio talento.

Offtopic: me parece un poco surrealista estar en el s XXI discutiendo si somos iguales aunque seamos ricos o pobres, negros o blancos, hombres o mujeres...
#78 no le pasa nivel socioeconómico porque los candidatos no lo incluimos en el CV.

Y el sexo, aunque no lo incluyeses, va relacionado con el nombre de pila.
#78 Si echas un vistazo al comentario #135 que responde al #35 que mencionas quizá puedas ver que, como nos pasa a todos en cierto modo, te afecta el sesgo que menciona el experimento de Jennifer y John.
#66 sí influye y eso fue lo que encontró la IA. Por mucho que haya mujeres capaces, los hombres son mayoría en tecnología, por tanto con más probabilidad encontrarás hombres válidos.

Un pobre puede ser un genio pero por lo general un rico tiene más dinero para recibir una buena educación, por tanto es más probable que los ricos sean mejores para un puesto en concreto.

Hay muchos factores a tener en cuenta, un rico también puede ser un patán pero su dinero influye.

La IA es la que no tiene prejuicios y por tanto nos enseña las obviedades que insistimos en tapar con nuestro buenrollismo de la igualdad.

Queremos igualdad pero no somos iguales y eso no es malo, el problema es pensar que ser diferente es malo. Las mujeres por estadística no serán adecuadas para ese puesto pero eso no significa que no puedan llegar a hacer bien ese trabajo sino que se suelen dedicar a otras cosas y en esas cosas serán más adecuadas que los hombres.
#17 Eso es lo que no se entiende. El sexo nunca debería ser una variable de entrada. Es lo que los verdaderos defensores de la igualdad llamamos agnosticismo de género.

#66 El problema es que se está usando una IA de una forma que ese tipo de IA no se debe usar. Este tipo de redes neuronales lo que hacen es una regresión multivariable, pero eso en ningún caso es inteligencia. Es normal que ciertas características luego vayan correlacionadas más con un sexo que con otro. El problema, es que después de entrenar la IA y guardar esa correlación en su red neuronal, si le metes como input perfiles (inventados) idénticos en los que sólo cambia el sexo acaba discriminando a mujeres, simplemente porque su correlación dice que la proporción de individuos más aptos para esos puestos son hombres. Y esto es un resultado de selección erróneo.
#55 Si partes de la suposición de que el sexo puede ser un dato relevante, al menos no deberías luego rechazar un algoritmo que utiliza el sexo como dato relevante.
#68 Si vas a darle el trabajo a una I.A., debes partir de la suposición de que cualquier cosa puede ser relevante y pasarle todos los datos que tengas. La IA será la que aprenda por sí misma a darle peso cero a lo que no tenga importancia.
#77 No, porque el conjunto de entrenamiento puede tener sesgos. Si una variable no debe tenerse en cuenta, no se le da. Simplificas el problema y te ahorras estos problemas.
#77 Discrepo. La parte más importante del trabajo del data scientist consiste en analizar la clase de problema, la clase de datos, como organizarlos, y cómo hacer la tarea más sencilla prescindiendo de unos datos en favor de otros.
#55 No exactamente. El problema es que seguramente el conjunto de entrenamiento tenía sesgos (porque está hecho por personas). Por tanto la IA replicaba esos sesgos. Y en cualquier caso es tarea del que diseña la IA seleccionar las variables relevantes. Si hay alguna que se sabe que no debe influir en la decisión (sexo, tiempo atmosférico del momento en que se mandó el currículum....) pues no se incluye. Las IAs no son mágicas y, o haces un proceso de entrenamiento muy diseñado y correcto o pasan estas cosas. No vale "tu mete todo a ver qué sale".
#91 El problema es que seguramente el conjunto de entrenamiento tenía sesgos (porque está hecho por personas).

Realmente no podemos estar seguros de eso. Si lo hubiera hecho yo, como datos de entrenamiento habría tomado datos de personas contratadas junto con sus curriculums y resultados. De esa forma la IA puede aprender a correlacionar un curriculum con el desempeño en el trabajo. De esa forma no hay sesgos: son datos totalmente objetivos. Pero no puedo asegurar que lo hayan hecho así.
#102 Bueno, parece que ellos si creen que hubo problemas al diseñar la IA. De eso va la noticia. No están diciendo "la IA no sirve para seleccionar candidatos". Están diciendo "esta IA no vale para seleccionar candidatos". Por otra parte, la misma medición de los "resultados" puede tener sus sesgos. ¿Quién determina esos resultados? ¿Cómo se ha medido? Si por ejemplo en la empresa mayoritariamente hay hombres, porque "tradicionalmente" no había mujeres en esos puestos, lo normal es que no haya mujeres con buenos resultados (las primeras y pocas que habrán tendrán poco historial laboral). Así es muy fácil que la IA asuma que "si eres mujer no duras en la empresa", porque no hay mujeres con más de X años. Y esto es solo un ejemplo. La descripción que haces en una frase "Si lo hubiera hecho yo, como datos de entrenamiento habría tomado datos de personas contratadas junto con sus curriculums y resultados" es muy bonita, pero puede ser dificilísimo de implementar si quieres que salga bien la cosa.
#55 Lo correcto es darle toda la información que tengas y sea la IA la que aprenda qué parte de esa información es útil y qué relación tiene con el resto de los datos y el resultado.

Es que las IAs no hacen eso. A las IAs les das un listado de las personas contratadas durante los últimos treinta años y van a aprender a replicar eso de cara al futuro, pero nada más. Tú sólo puedes decirles lo que es un resultado correcto y lo que no lo es, y luego ellas replican eso.

Si la muestra está sesgada, el resultado de la IA también va a estarlo. La IA no va a llegar a la conclusión de que la muestra estaba sesgada, no sabe hacer eso.

Obligatorio para entender este tema y cómo funciona realmente una IA (a muchos se les va a caer un mito): www.youtube.com/watch?v=R9OHn5ZF4Uo
#183 No se lo que hicieron ellos pero yo le daría la información de los currículums y el resultado de cuan eficiente ha sido el trabajador después de contratado. De esa forma al darle un currículum nuevo va a poder decirte que tan bueno o malo resultará si lo contratas.
#17 #28 No le pasaron el sexo como parámetro directamente. La IA se las apaño para discriminar según la universidad donde había estudiado, cursos que había hecho, etc.
#17 Por lo que recuerdo (puede haber sido otro caso similar) lo que hacía la IA era discriminar contra gente que tuviese marcadores típicamente femeninos, como haber ido a una universidad para mujeres o tener en tu CV actividades como haber sido animadora. Es decir, aunque no le daban el sexo del candidato, la IA lo infería y lo usaba como criterio de exclusión. Es por estas cosas que dejar procesos enteros en manos de IA sin supervisión es un problema.
#8 Hay IAs que concluyen que los algoritmos guarrindongos funcionan.
#8 es que por ser IA es el propio algoritmo el que se dió cuenta de que si contrataba más hombres se ganaba en años de experiencia
no es un filtro, es autoaprendizaje
#39 No es autoaprendizaje, es el entrenamiento. Si han entrenado a la IA sólo con curriculums de trabajadores varones blancos y ojos azules, la IA puntuará mejor las personas que cumplen esos requisitos que a las que no.
#8 Cierto. Pero el tema aquí es que la IA aprendió por sí misma a seleccionar. Nadie le dijo que discriminar por sexo. Simplemente dedujo que era un factor a tener en cuenta.
#8 te llevarias alguna sorpresa en tios de +40 años de mas 120 kilos...:troll:
#61 ¡Oye! Que hay muchas personas de menos de 40 con muchos kilos
#8 Lo que hizo esa IA (es un caso conocido desde hace tiempo) es determinar que el sexo era un criterio a considerar.
#8 no funcionan así las IA, no son filtros que alguien mete "if"

La potencia de las IA y los modelos radica en que son capaces de ver patrones que el humano no los detecta, le metas el modelo que le metas si dejas que la IA aprenda termina sacando esos patrones.

Muchas tendencias salen precisamente de esos patrones ocultos que el humano no mete en el modelo pero la IA es capaz de aprender por ingestar muchos datos.
#111 pues ese patronde discernir por sexos el humano lo ha detectado...:troll: :troll: :troll:
#8 no es un filtro por sexo, es un filtro heurístico que ha aprendido la IA

menéame