edición general
230 meneos
4347 clics
Las computadoras que rechazan tu currículum cuando te postulas a un puesto de trabajo

Las computadoras que rechazan tu currículum cuando te postulas a un puesto de trabajo  

Entonces, ¿el reclutamiento de inteligencia no es un motivo de preocupación? El gigante minorista de compras en línea Amazon no lo cree así. En 2018, se informó ampliamente de que había eliminado su propio sistema porque mostraba prejuicios contra las mujeres que se presentaban a puestos. La agencia de noticias Reuters dijo que el sistema de inteligencia artificial de Amazon se había "enseñado por sí mismo que los candidatos masculinos eran preferibles" porque con mayor frecuencia tenían una mayor experiencia en la industria tecnológica.

| etiquetas: inteligencia artificial , trabajo
Comentarios destacados:                                  
#5 #2: La recomendación no es por lógica sino por prejuicios. Es decir, asocian el sexo a la experiencia en el puesto (lo pone en la entradilla), y de ahí deducen que si eres hombre vas a saber más.

Por supuesto eso es un fallo, porque puede haber mujeres muy válidas que se vean rechazadas por ese prejuicio de que por ser mujeres van a tener menos experiencia.
Entonces la IA falla por recomendar la opción más lógica. Interesante.
#2 ¿Estás pidiendo lógica a la sociedad moderna paternalista-ofendidita? Iluso....
#2: La recomendación no es por lógica sino por prejuicios. Es decir, asocian el sexo a la experiencia en el puesto (lo pone en la entradilla), y de ahí deducen que si eres hombre vas a saber más.

Por supuesto eso es un fallo, porque puede haber mujeres muy válidas que se vean rechazadas por ese prejuicio de que por ser mujeres van a tener menos experiencia.
#5 es lógica difusa o heurística: "porque con mayor frecuencia tenían una mayor experiencia" eso es una métrica estadística.
si tu recibes 5000 cv ni la IA ni tú te los vas a leer... obviarán personas de cualquier sexo válidas. En eso consiste una selección, en filtrar.. en reducir la lista a unos cuantos a entrevistar.
#7 Pero filtrar por sexo no es IA :-) Eso lo hace un algoritmo guarrindogo. Por el mismo precio te filtro yo por edad y tamaño de tetas.
#8 De hecho, yo me pregunto por qué le han pasado el sexo como dato a la IA
Está bien como dato estadístico, pero no para usarlo en los filtros
#17 Ese es exactamente el problema. La IA falló porque el entrenamiento fue deficiente, justo la parte que depende de los humanos.
#17 Y tu qué sabes si es un dato relevante o no? Justamente usamos IAs porque aprenden por sí mismas qué es lo necesario para cumplir su tarea lo mejor posible. Lo correcto es darle toda la información que tengas y sea la IA la que aprenda qué parte de esa información es útil y qué relación tiene con el resto de los datos y el resultado.
#55 Deberían pasarle también raza y nivel socioeconómico
Así todos hombres, ricos y blancos
El objetivo es contratar talento.
Y en eso no influye si eres negro o blanco ni hombre o mujer ni rico ni pobre
Aunque estadísticamente sí haya más talentos descubiertos hombres, blancos y ricos

Digo descubiertos, eh
#66 Deberían pasarle también raza y nivel socioeconómico
Y qué te hace pensar que no lo hicieron?

El objetivo es contratar talento.
Y en eso no influye si eres negro o blanco ni hombre o mujer ni rico ni pobre


Eso lo dices porque tu opinión está sesgada por la sociedad. Se ha machacado tanto con la igualdad que asumes que todos somos iguales sin plantearte que tal vez haya gente mejor en algunas cosas y otra mejor en otras cosas. La I.A no ha hecho más que descubrir lo mismo que descubrieron con el experimeto que comenta #35
#78 No es un planteamiento imaginario..
Cuando se da la oportunidad, se ve que somos iguales.

Cuando el primer negro que trabajaba en las plantaciones de algodón, fue a la escuela, se vió que somos iguales
Antes, no, claro.. Bueno, el negro se lo podía imaginar, aunque estaría tan machacado con el discurso de que era inferior que a lo mejor ni reconocía su propio talento.

Offtopic: me parece un poco surrealista estar en el s XXI discutiendo si somos iguales aunque seamos ricos o pobres, negros o blancos, hombres o mujeres...
#85 Cuando se da la oportunidad, se ve que somos iguales.

A ver, es bien sabido por estudios antropológicos que NO somos iguales. Ninguno es peor que el otro. Simplemente tenemos habilidades diferentes. Por ejemplo las mujeres son muchísimo mejores distinguiendo colores o comunicando información.
#95 Eso son tonterías y en todo caso sería "algunos" o "la mayoría"
Tú coges a un individuo y no sabes, porque cada persona es única
#85 cuando se da la oportunidad se ve que somos iguales. Pues no, en el colegio no sacabamos todos las mismas notas a pesar de tener las mismas oportunidades. Pero a parte de eso, las mismas oportunidades... ¿Tú quién crees que tiene mayor oportunidad de ir a las mejores universidades, los ricos o los pobres? Yo creo que los ricos, por tanto el dinero importa.
#78 no le pasa nivel socioeconómico porque los candidatos no lo incluimos en el CV.

Y el sexo, aunque no lo incluyeses, va relacionado con el nombre de pila.
#78 Si echas un vistazo al comentario #135 que responde al #35 que mencionas quizá puedas ver que, como nos pasa a todos en cierto modo, te afecta el sesgo que menciona el experimento de Jennifer y John.
#66 sí influye y eso fue lo que encontró la IA. Por mucho que haya mujeres capaces, los hombres son mayoría en tecnología, por tanto con más probabilidad encontrarás hombres válidos.

Un pobre puede ser un genio pero por lo general un rico tiene más dinero para recibir una buena educación, por tanto es más probable que los ricos sean mejores para un puesto en concreto.

Hay muchos factores a tener en cuenta, un rico también puede ser un patán pero su dinero influye.

La IA es la que no tiene…   » ver todo el comentario
#17 Eso es lo que no se entiende. El sexo nunca debería ser una variable de entrada. Es lo que los verdaderos defensores de la igualdad llamamos agnosticismo de género.

#66 El problema es que se está usando una IA de una forma que ese tipo de IA no se debe usar. Este tipo de redes neuronales lo que hacen es una regresión multivariable, pero eso en ningún caso es inteligencia. Es normal que ciertas características luego vayan correlacionadas más con un sexo que con otro. El problema, es que…   » ver todo el comentario
#55 Si partes de la suposición de que el sexo puede ser un dato relevante, al menos no deberías luego rechazar un algoritmo que utiliza el sexo como dato relevante.
#68 Si vas a darle el trabajo a una I.A., debes partir de la suposición de que cualquier cosa puede ser relevante y pasarle todos los datos que tengas. La IA será la que aprenda por sí misma a darle peso cero a lo que no tenga importancia.
#77 No, porque el conjunto de entrenamiento puede tener sesgos. Si una variable no debe tenerse en cuenta, no se le da. Simplificas el problema y te ahorras estos problemas.
#77 Discrepo. La parte más importante del trabajo del data scientist consiste en analizar la clase de problema, la clase de datos, como organizarlos, y cómo hacer la tarea más sencilla prescindiendo de unos datos en favor de otros.
#55 No exactamente. El problema es que seguramente el conjunto de entrenamiento tenía sesgos (porque está hecho por personas). Por tanto la IA replicaba esos sesgos. Y en cualquier caso es tarea del que diseña la IA seleccionar las variables relevantes. Si hay alguna que se sabe que no debe influir en la decisión (sexo, tiempo atmosférico del momento en que se mandó el currículum....) pues no se incluye. Las IAs no son mágicas y, o haces un proceso de entrenamiento muy diseñado y correcto o pasan estas cosas. No vale "tu mete todo a ver qué sale".
#91 El problema es que seguramente el conjunto de entrenamiento tenía sesgos (porque está hecho por personas).

Realmente no podemos estar seguros de eso. Si lo hubiera hecho yo, como datos de entrenamiento habría tomado datos de personas contratadas junto con sus curriculums y resultados. De esa forma la IA puede aprender a correlacionar un curriculum con el desempeño en el trabajo. De esa forma no hay sesgos: son datos totalmente objetivos. Pero no puedo asegurar que lo hayan hecho así.
#55 Lo correcto es darle toda la información que tengas y sea la IA la que aprenda qué parte de esa información es útil y qué relación tiene con el resto de los datos y el resultado.

Es que las IAs no hacen eso. A las IAs les das un listado de las personas contratadas durante los últimos treinta años y van a aprender a replicar eso de cara al futuro, pero nada más. Tú sólo puedes decirles lo que es un resultado correcto y lo que no lo es, y luego ellas replican eso.

Si la muestra está…   » ver todo el comentario
#17 #28 No le pasaron el sexo como parámetro directamente. La IA se las apaño para discriminar según la universidad donde había estudiado, cursos que había hecho, etc.
#17 Por lo que recuerdo (puede haber sido otro caso similar) lo que hacía la IA era discriminar contra gente que tuviese marcadores típicamente femeninos, como haber ido a una universidad para mujeres o tener en tu CV actividades como haber sido animadora. Es decir, aunque no le daban el sexo del candidato, la IA lo infería y lo usaba como criterio de exclusión. Es por estas cosas que dejar procesos enteros en manos de IA sin supervisión es un problema.
#8 Hay IAs que concluyen que los algoritmos guarrindongos funcionan.
#8 es que por ser IA es el propio algoritmo el que se dió cuenta de que si contrataba más hombres se ganaba en años de experiencia
no es un filtro, es autoaprendizaje
#39 No es autoaprendizaje, es el entrenamiento. Si han entrenado a la IA sólo con curriculums de trabajadores varones blancos y ojos azules, la IA puntuará mejor las personas que cumplen esos requisitos que a las que no.
#8 Cierto. Pero el tema aquí es que la IA aprendió por sí misma a seleccionar. Nadie le dijo que discriminar por sexo. Simplemente dedujo que era un factor a tener en cuenta.
#8 te llevarias alguna sorpresa en tios de +40 años de mas 120 kilos...:troll:
#61 ¡Oye! Que hay muchas personas de menos de 40 con muchos kilos
#8 Lo que hizo esa IA (es un caso conocido desde hace tiempo) es determinar que el sexo era un criterio a considerar.
#8 no funcionan así las IA, no son filtros que alguien mete "if"

La potencia de las IA y los modelos radica en que son capaces de ver patrones que el humano no los detecta, le metas el modelo que le metas si dejas que la IA aprenda termina sacando esos patrones.

Muchas tendencias salen precisamente de esos patrones ocultos que el humano no mete en el modelo pero la IA es capaz de aprender por ingestar muchos datos.
#8 no es un filtro por sexo, es un filtro heurístico que ha aprendido la IA
#7 tú no, pero a una máquina no le supone ningún problema leer 5000 o 50000 CV
#21 #73 #97 #147 "no lo va a leer"

si vamos tomarlo por lo literal , pues la IA no va a hacer un OCR del cv¿verdad? :troll:
ya he puesto explicitamente que se procesan por heurística.
#7 si tu recibes 5000 cv ni la IA ni tú te los vas a leer Precisamente uno de los motivos principales de sustituir a alguien de RH por una IA es que la IA puede leerse todos los CV. Para tirar CVs a la basura sin leer ya tenemos a la gente.
#7 Si recibes 5000 CV la IA los puede leer y los debe leer, que para eso está :-D .

Que haya deducido que el sexo te hace más válido o menos es simplemente porque ha llegado a una conclusión errónea.
#7 mentira, como que la IA no los va a leer? Exhaustivamente. De eso se trata, lo que hace es inferir por lo que escribes hasta que punto estabas realmente haciendo cosas relacionadas .
#5 por fortuna en España no se utilizan ias y priman las subvenciones a la contratacion de mujeres.
#9 Y a los que priman y a los primos de los que priman xD
#5 Literlamente no es un prejuicio, es una correlación estadística de una inteligencia que ha sido entrenada con datos en bruto sin connotaciones previas en los sexos. Es todo lo post-juicio que puede ser. Hay que distinguir entre probabilidad y prejuicio joder, que sería como decir que es un prejuicio pensar que no te va a tocar la lotería porque hay gente a la que le toca.
#19 Es prejuicio cuando la IA descarta perfiles femeninos antes de leer el CV que es lo que sucedia.
#28 la IA no descarta los currículums antes de leerlos. La IA analiza el curriculum entre otras cosas y lo puntúa, descartando los que no llegan a un baremo.
#19 Una IA es tan buena como son sus datos. Si los datos están sesgados, la IA está sesgada.
#30 sesgar los datos habría sido no darle información de sexo a la IA.
La IA hizo lo que sabía hacer: buscar la probabilidad más alta de cumplir su tarea.
#57 Quizás, quizás no.

Si entreno a una IA para que me de los platos más sabrosos del mundo, y le doy lo que como yo cada día para que aprenda, no aprenderá a encontrar la mejor comida, sino los platos que más me gustarán a mi en particular. Aquí es igual, si hay sesgo sexista en los datos de contratación, la IA aprenderá a replicarlos.
#64 Diría yo que esta gente que entrenó la IA sabe eso... No?

Yo creo que lo que ha pasado aquí es que la IA ha descubierto lo mismo que la sociedad sabe desde siempre: que el sexo sí determina algunas habilidades en las personas. Por ejemplo las mujeres son mucho mejores comunicándose o identificando colores. Mientras que los hombres son mejores en razonamiento espacial o fuerza física. Claro que habrá excepciones pero justamente el trabajo de una IA es aprender la regla general sin dejarse influir por los casos aislados.
#65 En lo de razonamiento te has columpiado bien
#70 No dije razonamiento a secas. Dije razonamiento espacial. Es bien conocido por los antropólogos que, en general, los hombres son mejores formando mapas mentales por ejemplo.
#65 A la vista está que no. Sesgo precisamente significa que pasas exactamente el mismo CV con el sexo cambiado, y la IA preferirá al hombre. No hay ninguna razón para ello, lo mires por donde lo mires.

No idealices a la IA, un rankeador de curriculums no ha descubierto una realidad profunda sobre la condición humana.
#75 A la vista está que no

Yo no he visto eso. He visto que la IA descubrió lo mismo que comenta #35

Sesgo precisamente significa que pasas exactamente el mismo CV con el sexo cambiado, y la IA preferirá al hombre.

Al congtrario: sesgo sería pensar que el sexo nunca es relevante. Es posible que la IA haya descubierto que para determinados trabajos hay una probabilidad más alta de que determinado sexo sea más adecuado.

No idealices a la IA, un rankeador de curriculums no ha descubierto una realidad profunda sobre la condición humana.

Tu dices eso porque lo que ha descubierto no concuerda con los prejuicios de la sociedad actual.
#82 Yo ni he dicho, ni pienso que el sexo nunca es relevante, no juegues a leer mis pensamientos. De hecho no objeto nada a #35. Pero espero que veas la ironía de que esos resultados se obtengan precisamente al SESGAR la información que reciben los entrevistadores.
#89 No me parece ironía... sencillamente en algunas profesiones es más probable que sea más apta una persona de determinado sexo y la IA lo ha descubierto. No lo veo irónico.
#98 Lo decía por tu comentario en #30. Da la impresión de que solo estás de acuerdo en sesgar los datos (tus palabras) cuando los resultados concuerdan con tus expectativas.
#65 Si fuese una IA que siguiese un modelo de aprendizaje no supervisado podría llegar a pensar que algún patrón puede que si esté viendo la IA. Aun así ese patrón emerge de los datos, que pueden estar sesgados igualmente aunque no haya supervisión.

Pero es que me juego lo que sea a que esta IA utiliza aprendizaje supervisado, es decir se basa en señales de recompensa o castigo en función de si su predicción coincide con la del humano que ha supervisado los datos o no. Más que nada porque…   » ver todo el comentario
#57 Los datos seguramente esten sesgados porque seguramente las selecciones de perfiles de esos datos han sido realizadas con prejuicios, donde se tendía más a contratar hombres.

Básicamente es uno de los problemas de la IA actual, que los datos que usamos tienen nuestro prejuicios y la IA los aprende.
#19 Que se traduce en una confirmación del sesgo. La mayoría de los que trabajamos en tecnología lo hacemos rodeados de hombres blancos y jóvenes. Cada nuevo CV que llegue y que no encaje en estas características sería rechazado ante otros de hombres blancos y jóvenes y, al final, todo el tema de la diversidad que se trata de buscar en algunas empresas se iría a tomar viento.
Además de que evaluar el sexo, la edad y la raza para una posición tecnológica es basar la selección en criterio irrelevantes para el puesto.
#47 Discrepo.

En mi equipo hay 2 mujeres de 7 personas.

Y ambas son muy buenas.

Mi sesgo, por tanto, es que las mujeres son muy buenas.

Supongo que si bajan el liston a las mujeres y contratan 3 mujeres para que haya igualdad 5 y 5, esas 3 nuevas podrían no ser tan buenas y entonces sería cuando se crearía un sesgo de que las mujeres en IT son floreros igualitarios.
#69 Volveré a explicarlo porque para nada he dicho que se deba forzar una diversidad.

Ahora mismo, en la mayoría de empresas, hay cierta diversidad pero hay colectivos (mujeres, personas de razas minoritarias aquí, etc.) que somos minoritarios.
Si la IA está entrenada para seleccionar CVs basándose en las características mayoritarias en el equipo, seleccionará a hombres blancos y jóvenes. Esta selección aumentará la cantidad de hombres blancos y jóvenes y reforzará el sesgo de la selección.

Además, como ya he dicho, que la selección no debería basarse en características irrelevantes (en un puesto de desarrollo, por ejemplo) como el sexo, la edad, la raza, el color de pelo...
#79 Sip. Las características irrelevantos no deberían incluirse en la IA, porque encontrará sesgos estadísticos.

Lo que quería decir es que si, para eliminar el supuesto sesgo de en IT hay pocas mujeres porque en general a las mujeres no se les da bien, se baja el listón (o si se promueve entre las mujeres de forma artificial un interés por IT basado en causas indirectas), te vas a cargar el sesgo de las pocas mujeres a las que les interesa IT son cojonudas y lo vas a sustituir…   » ver todo el comentario
#100 Estoy de acuerdo, hablábamos de sesgos diferentes.
El social, el que dice que en IT hay pocas mujeres porque en general a las mujeres no se les da bien, tiene difícil solución pero pasa por confrontarlo con hechos. Bajar el listón, tal como dices, solo lo refuerza en quien quiere seguir creyendo en esa desigualdad.
#100 ¿No se les da bien? Directamente se matriculan menos en los estudios de IT, así que es normal que haya pocas, nada más (llevo bastantes años dando docencia de IT y aunque el porcentaje de chicas es mucho menor de entre mis mejores estudiantes había tantos chicos como chicas).
El problema de Amazon fue que no estaba bien balanceado, históricamente habian contratado muchas menos mujeres que hombres, y la IA tiende a mantener ese criterio ya que es un atributo sencillo que le ofrece un…   » ver todo el comentario
#69 ¿no crees que si a las mujeres en general se les diese mejor la tecnología o se dedicasen más a la tecnología, en tu empresa habría 7 mujeres y 2 hombres?

Y si en un conjunto de 20 hay 7 hombres buenos y 2 mujeres buenas ¿no sería mejor apostar a "hombre" que tiene más probabilidades de que te toque bueno?

Las mujeres pueden ser igual de buenas que los hombres, tu empresa tiene dos mujeres que son muy buenas, pero eso no significa que en general las mujeres sean igual de buenas…   » ver todo el comentario
#5 Lo que pasa es que la gente suele o solía programar un algoritmo en base al porcentaje de aciertos y con ese sesgo acertará más aún a costa de injusticias.

Si un día usan un algoritmo para ver si merece la pena ingresarme en un hospital o que la palme en casa pues las llevo claras.

Yo culpo a quien usa algoritmos para tareas que requieren empatía o, simplemente, humanidad.
#49 Cuando las IAs dominen el planeta estaremos jodidos, porque siendo justos con toda la vida, puede que le den el mismo valor a la vida de una hormiga y de un humano. Y para nosotros eso es bastante jodido.
#74 Mas dañinos somos .)
#5 Un robot puesto a discriminar (su trabajo) no se dedica a la justicia. Se dedica a encontrar el mejor candidato. Deduce que para esos puestos el ser mujer se correlaciona con ser peor candidato y decide eliminar a todas las mujeres antes de seguir discriminando. También eliminará a otros candidatos basandose en otras correlaciones. Al final se quedará con un solo candidato, el bueno.

Encontrar a ese resultado final es su trabajo, y lo hace.

Para ello no usa de ningún prejuicio. Los…   » ver todo el comentario
#81 Decir "deduce" es exagerado. Precisamente por eso, es necesario en ciertas decisiones utilizar modelos de IA que se dicen interpretables, para ver si hay de apoyo (aunque sea estadística) en su decisión. En este caso no sólo no sabemos si lo son, no sólo se sabe si son interpretables si no que además son secretos (software comercial).
#81: También eliminará a otros candidatos basandose en otras correlaciones. Al final se quedará con un solo candidato, el bueno.

¿Entonces estás de acuerdo en que las empresas eviten la contratación de ingenieros españoles basándose en que en España hay menos gente con ese tipo de carreras, y que por lo tanto, si llega un candidato español es poco probable que tenga la titulación requerida?
#5 En efecto, si lo hace una persona, son prejuicios. Si lo hace una máquina, es pura estadística. Quizá el prejuicio también lo tenemos los que juzgamos al que juzga.
#5 Si hay más varones con estudios de tecnológicas es lógico que se decante hacia un varón. Imagina que busca un perfil para esteticista, ¿cuantos varones vería como aptos para ese puesto de trabajo?
El algoritmo no tiene fe, ni tiene corazonadas (aunque muchas veces esas corazonadas sean erróneas), esos son sentimientos exclusivamente humanos, por ahora.
#2 La realidad presente esta para ser cambiada.
Usar data science para encontrar patrones sirve para modificarlos.
#2 desde cuando la logica concede subvenciones en este país.? :troll:
#2 No. La AI falla porque hace generalizaciones no válidas. Como que si eres mujer no vales. Cuando tendría que mirar otras cosas. A la AI le resulta más fácil aprender de una feature general (el género del candidato) que aprender un montón de variables diferentes como notas, experiencia previa, ...
Si encima partes de un dataset que ya tiene sesgos pues te sale una AI bastante mediocre.
#12 La AI falla porque hace generalizaciones no válidas. Como que si eres mujer no vales.

Entonces no es una IA, porque de inteligencia no tiene nada, más bien es una forma de automatizar un proceso que ya de por sí está lleno de sesgos y prejuicios indeseables más propios de una mente humana.
#12 así no funciona clas IAs. No generaliza como si fuera un Señor dentro de la máquina.
Lo más gracioso de todo es que cuando se Quitó el sexo de la información que recibía la máquina, se acentuaron las diferencias.
#2 Si viviésemos en una época donde solo trabajasen los hombres, la IA seguiría viendo que son ellos los candidatos preferibles por tener toda la experiencia, y gente como tú lo seguiría viendo completamente normal. La IA sigue la lógica que le hemos marcado nosotros como especie.
#2 Si le pasan la raza y el nivel socioeconómico, también dirá que mejor blanco y rico.

¿No ves el sesgo?
Es un claro ejemplo de IA mal entrenada
#2 Entonces cualquier cosa que decida una máquina es siempre y porquesí "la opción más lógica". Interesante.

Así, sin necesidad de analizar lo que la máquina ha dicho ni las causas que han llevado a la máquina a soltar esa respuesta.

Menuda sociedad nos espera, señor.
#2 Si está fallando bestialmente la IA de YouTube (mira lo que te relaciona que cada vez es peor) y Google tiene millones y millones para invertir dudo mucho que varias compañías hayan creado un software para algo tan complejo y que funcione mejor
#2 se parte de un error desde el principio. El machine learning se utiliza para automatizar procesos, es decir, para realizar los mismos procesos que ya haces pero en menos tiempo y sin casi intervención humana. Y digo casi porque un paso importantísimo es la corrección en la fase de aprenizaje. Recopilas un dataset para dárselo a la máquina y que aprenda pero primero tienes tú que revisar ese dataset para corregir lo que está mal o la máquina lo que hará es repetir lo que los humanos hacen…   » ver todo el comentario
#2 Ya se ha demostrado en varias ocasiones que las IAs también sufren de sesgos, como el racismo y machismo. Al final, las IAs aprenden de la información que los humanos les damos como conjunto de aprendizaje.
#2 Falla precisamente por falta de lógica. Un ordenador no es un filósofo ni puede ser consciente de la lógica humana, sociología, antropología, historiografía, humanidades.
Años descartando ordenadores por quedarse anticuados y ahora ellos nos descartan a nosotros
#1 IA opresora machirula cristofascista
#38 Eso hay que decirlo con el anuncio. No hacerlo es de gilipollas. Opino.
#40 Pues ve a Infojobs y mira cuántos anuncios ponen el sueldo (sin indicarlo en un rango tipo "De 0 a 100.000€ anuales, según valía"). ¿Será que en España toda la parte contratante es gilipollas menos tú?
#42 Yo eso no lo entiendo. Puede ser para evitar que la competencia tenga esa información, pero cuando empiezan las entrevistas, tiene que saberlo la gente. Lo contrario es perder el tiempo.
#43 Entiendo que lo hacen porque quieren negociarlo con el posible candidato. O sea, ponerse a regatear con él.
#45 No creo que haya que ser mal pensado siempre. Hace dos semanas casi duplico la oferta inicial porque tras la entrevista vi que me ahorraba meses o años de formación, el papel aguanta cualquier currículum pero una entrevista medio bien hecha te dice la valía y experiencia real del candidato.
#45 En ese caso deben indicarlo en la oferta, algunos lo hacen, pero son minoría.
Yo soy un pringado al principio de su carrera laboral, pero en las primeras entrevistas, siempre digo: oiga, para no hacerle perder el tiempo ni a usted ni a mí, me gustaría saber el salario, porque busco a partir de X.

De momento mis dos mayores logros han sido pasar de pedir como mucho 18000-20000 a poder pedir 30000, y haber llegado hasta la fase final de una empresa de Google en la que tuve 6 entrevistas.

Y, obviamente, ni infravalorarte ni sentirte el puto, hablando, negociando, siempre se puede llegar a un acuerdo.
#56 eso se llama banda salarial, en tu caso, de tu mínimo a mínimo +5k, y es lo que pedimos todos los candidatos en las inmensa mayoría de ofertas de mierda que nos encontramos, que parece que algo tan básico como lo que vas a cobrar por un trabajo, es el secreto mejor guardado de la NSA y que solo puedes saber si reúnes una escama de dragón, medio litro de sangre de unicornio y las siete bolas de dragón.

#45 será porque no hay "consultoras" que hacen estudios de mercado preguntando sueldo a candidatos por puestos imaginarios, o consultoras que se dedican a la pesca de arrastre, porque van a ofertar al que pida menos de todos los que parezcan mínimamente válidos. en determinados temas pensar mal es curarse en salud
#43 se puede negociar segun experiencia y habilidades.
#42 Yo denuncio siempre que no veo sueldo, ya sea en el campo de infojobs o en la descripción de la oferta.
#40 Ahí discrepo. Yo parto de un mínimo pero tras la entrevista no me importa añadir 5K o así a ese mínimo si veo que es alguien que no quiero dejar escapar.
#40 Opino igual que tú, la empresa es la que define los requisitos del trabajo y sus funciones y por tanto es la que decide la valía de dichas funciones. Si luego el trabajador desempeña una labor más valiosa, se le puede subir el sueldo a posteriori en la revisión, y si no hace ni la hueva se le puede echar en el periodo de pruebas.

No obstante también hay que ser listo y saber mas o menos lo que vales, que hay recien licenciados que se piensan que el mundo es suyo y por menos de X ni se levantan de la cama. Os recomiendo seguir la guia de Hays para orientarios (poned datos falsos, lo descarga igual).
cloud.email.hays.com/Guia-Salarial-2021-profesionales
#67 Gracias. Me lo he bajado. Esta noche le echo un ojo.
Lógicamente, para la IA, el género, si se incluye en los currículums, es para considerarlo.
Las IA son buenas encontrando correlaciones, el problema aquí es que como correlación no implica causalidad, pueden llegar a conclusiones incorrectas. La IA ha aprendido que casi siempre su "profesor" ha elegido a un hombre, pese a que no lo eligieron por ser hombre sino por su experiencia. Pero esto se ha repetido las suficientes veces como para que la IA crea que el sexo es relevante.
Es incorrecto dejar la elección a lo que una IA pueda concluir en base solo a sus datos pasados,…   » ver todo el comentario
#11 En Australia hicieron un programa piloto de selección de personal, eliminando sexo y edad del currículum para garantizar equidad en la selección de personal.

Tres meses después retiraron el programa porque el porcentaje de hombres contratados superaban el 65%.

¿La conclusión? Lejos de la demagogia barata y los perjuicios, lo que pasa con este tipo de selecciones es que la mujer todavía no está completamente integrada en el mundo laboral.

Además de eso, las aspiraciones personales de hombres y mujeres difieren bastante y por desgracia lo hombres somos más dados a la dedicación extrema al trabajo...

Cuando buscas a alguien para un puesto, el que pone que va a dedicar más tiempo a la empresa...
#35 eso no interesa al chiringuito, circule.
#35 también está el experimento de John y Jennifer, que contradice directamente lo que dices...

La diferencia es que en el de Australia se tomó como factor los años de experiencia (y los hombres no suelen interrumpir sus carreras, por tanto, acumulan más experiencia) y las mujeres sí.

En cambio, en el de John y Jennifer quedó claro el sesgo igual experiencia: contrato a John porque sí

Cc #48 #60
#35 Evidentemente esta IA aprendió lo mismo.
#14 O tal vez demasiado bien entrenada para nuestros prejuicios... Como se deduce de lo que comenta #35.
#35 pues en 5 minutos no lo he encontrado :-( (te lo he visto antes y he hecho dos búsquedas: google y DuckDuckGo)
#96 www.abc.net.au/news/2017-06-30/bilnd-recruitment-trial-to-improve-gend

Palabras clave: Australian government blind recruitment
#35 Enlace a esto en #110
#35 usted lo que necesita es un curso intensivo con perspectiva de género. :troll:
#35 #110 Caso similar en EEUU:

En orquestas, hace años se empezaron a realizar "blind auditions" para eliminar barreras a mujeres y personas de otras culturas, y mirad lo que piden en 2020:

To Make Orchestras More Diverse, End Blind Auditions:
www.amren.com/news/2020/07/to-make-orchestras-more-diverse-end-blind-a
Ejemplo de IA mal entrenada.
Ha aprendido una correlación con datos que no son relevantes para su objetivo.
Imagináos la IA policía: hombre, inmigrante = a la cárcel
#14 pero es que no es eso lo que ha aprendido la máquina. La máquina de hecho fué entrenada con datos que excluían el sexo del candidato de los currículums, y se neutralizaba el género para evitar que la IA pudiera identificar el sexo del candidato. Y el resultado fué que en lugar de reducir la diferencia entre hombres y mujeres, las acentuaba.
Yo os cuento mi experiencia: las pocas veces que he tenido que contratar a alguien he seguido el criterio de contratar a quien me saliese de los huevos. Sin explicaciones.

Hay quién te genera confianza y quién, no.

Hacer las entrevistas un lunes a las 8 de la mañana en un sitio poco accesible es también un algoritmo. Ese no lo he seguido, por cierto, pero me dicen que funciona muy bien y filtra mucho.


:troll:
#16 A mí un chico se me levantó y se fue en una entrevista cuando le dije que probablemente no tendría plaza de parking en la oficina
(un chaval buscando su primer trabajo, ojo, y la empresa era muy buen sitio para currar)
#20 ¿En seriooooooo?
xD xD xD
#20 ¿eres de rrhh? jur,jur,jur
#33 No, que va.
Era una entrevista técnica, pero el chico me preguntó.. Y se fue
Por mi culpa perdimos a un genio, un diamante en bruto :shit:
#41 antes de empezar a trabajar se tienen muchos pájaros en la cabeza :-)

Hace unos años contrataron para mi departamento a un chico recién salido de la carrera que en todo se atascaba y que te interrumpía constantemente con preguntas triviales cuya respuesta podía encontrar con un minuto de investigación (o preguntándole a Google). Mi apuesta era que duraría el periodo de prueba. A día de hoy, es la persona más productiva del departamento, con diferencia.

El problema de estas cosas es que en la vida se aprende a base de cagarla :roll:
#20 si viene del 5° carajo y tiene que llevar coche (o no tiene) me parece lógico... A nadie le renta 1h o más de transporte público ida y vuelta todos los días
#16 Lo que filtra mucho es preguntar por el sueldo que ofrecen a la primera de cambio.
#16 A mi me dijo uno que había entrado a la entrevista porque su padre lo llevaba y esperaba en la puerta pero que eso de trabajar y madrugar no iba con él.

Lo mismo está ahora vendiendo pollos y medios pollos o de subsecretario, las dos posibilidades me parecen igual de plausibles xD
#16 Pues si... Seguro que si se lo pones difícil vas a conseguir gente desesperada por trajar por cualquier sueldo...
¿Qué será lo siguiente? ¿Usar un sistema parecido para... no sé, calcular la prima de un seguro de automóvil?
#29 El seguro no busca buenos conductores, no quiere contratar un piloto, quiere pagar menos y ahí sí le interesa la estadística, los datos en bruto, y usa la edad, el sexo..
Así un chico de 20 paga mucho mas que una mujer de 40

Pero a mí me parece discriminatorio, deberían cobrarte lo mismo y subirte las primas según los partes que des o las multas que te pongan. Debería ser personalizado, individualizado
#31 de ahí mi comentario. Es exactamente la misma discriminación, e igualmente automatizada.
#31 Los cálculos de los seguros son idiotas.
Me quise hacer un seguro con Axa y me cobraban un dineral. Me hice ese mismo seguro de Axa a través de la aseguradora de El Corte Inglés en lugar de directamente, y era más barato, pero encima cuanto más coberturas le añadía más barato era. Al final en vez de tener un terceros me puse un todo riesgo con franquicia y me costó menos dinero.
Sí la ia hubiese preferido a mujeres la noticia sería: la ia demuestra que las candidatas mujeres son mejores que los hombres en tecnología.
#34 la noticia sería que sin trabas ficticias, y sin considerar a los hombres mejores automáticamente, las mujeres son iguales que los hombres.

Todos sabemos que las carreras STEM son campos de nabos que apestan a cultura bro a kilómetros, más en EEUU
Las computadoras descartando a mujeres, a jovenes con poca experiencia, a mayores de 45 años.... oh!
Sueño es con jefes robóticos con avanzada IA. Estoy harto de los jefazos trepa, los que piden constantemente informes sólo para sentirse jefes, los que hacen larguísimas reuniones inútiles, los que se creen jefes pero realmente son el primo tonto puesto a dedo porque es familia de los dueños, los que son capataces en vez de ser jefes, etc.
Reglamento europeo de proteccion de datos . Artículo 22 - Decisiones individuales automatizadas, incluida la elaboración de perfiles
1. Todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar.


Aquí la clave está en el "únicamente".. En Europa, con nuestra ley actual, si se demuestra que la decisión la toma únicamente la máquina, es totalmente ilegal y denunciable. Si las decisiones luego las revisa una persona, aunque sea un hdp con mil sesgos negativos, pues es legal.
#24 Esto es para que haya un hdp humano responsable jurídico de las decisiones. Si no, menuda bicoca.
#24 Lo de la cámara y micrófono sin permiso expresó también (y tampoco estoy muy seguro si lo hace una IA)
Cito:
“Otro proveedor de software de contratación que funciona con inteligencia artificial es HireVue, con sede en Utah, EEUU. Su sistema de inteligencia artificial graba videos de solicitantes de empleo respondiendo a preguntas de entrevistas a través de la cámara web y el micrófono de una computadora portátil.”
#92 seria ilegal que una empresa en la UE para contratarte use ese tipo de sistemas, si no hay una revisión posterior por parte de una persona. Aparte del tema de la transferencia internacional de datos a USA (el privacy shield como se veía venir era muy ilegal) de la que deben informar, si la IA directamente te descarta sin que nadie lo revise, ilegal, decisión automatizada...
Pues ya que estamos, podían también emplear la I.A. para corregirles las faltas de ortografía de las noticias.
la culpa de la 'IA', el nuevo meme
Es lo que tienen las IAs, que aprenden solas y tienden a buscar patrones que predicen éxito. En cualquier caso me extraña mucho que hayan usado el sexo del candidato como variable. Me temo que el sexo es algo fuertemente ligado a otros indicadores que predicen éxito en tecnología y son estos los que la IA ha detectado.
¿Qué le pasa a esa gente de las fotos del principio? Están como riéndose frenéticos :shit:
Lo malo que si fuese al contrario aquí no pasaba nada, meritocracia o cache
Que la recolección de datos es un primer sesgo muy fuerte es evidente. Pero también hay que entender que en la sociedad sí que hay colectivos donde, ya sea por gustos sexuales, raza... etc son estadísticamente peores trabajadores en cosas objetivas como: logros conseguidos, perseverancia... La IA detecta eso, no detecta si es justo dicho juicio ya que "pobres, hace 100 años fueron esclavizados por nosotros".

Realmente si quisieran algo más igualitario deberían de hacer un random()…   » ver todo el comentario
#129 Pues nada, se acabó la meritocracia y el corregir las desigualdades, el que nazca pobre, que se joda.
Y el que nazca rico, que nos gobierne a todos, ya sea más tonto que una piedra.
#143 No, al contrario, hay que reforzar la meritocracia, la igualdad de oportunidades y conseguir una enseñanza completamente gratuita y cuando eso ocurra, la IA seguramente** vea irrelevante la raza, el sexo y la riqueza, pero mientras vivamos en un mundo en donde la mayoría de alumnos de tecnología son hombres es lógico que la IA elija hombres para puestos tecnológicos.

**O puede que no, puede que aún a pesar de tener las mismas oportunidades las mujeres prefieran otras carreras ¿cual es el problema?
«12
comentarios cerrados

menéame