Entonces, ¿el reclutamiento de inteligencia no es un motivo de preocupación? El gigante minorista de compras en línea Amazon no lo cree así. En 2018, se informó ampliamente de que había eliminado su propio sistema porque mostraba prejuicios contra las mujeres que se presentaban a puestos. La agencia de noticias Reuters dijo que el sistema de inteligencia artificial de Amazon se había "enseñado por sí mismo que los candidatos masculinos eran preferibles" porque con mayor frecuencia tenían una mayor experiencia en la industria tecnológica.
|
etiquetas: inteligencia artificial , trabajo
Por supuesto eso es un fallo, porque puede haber mujeres muy válidas que se vean rechazadas por ese prejuicio de que por ser mujeres van a tener menos experiencia.
Por supuesto eso es un fallo, porque puede haber mujeres muy válidas que se vean rechazadas por ese prejuicio de que por ser mujeres van a tener menos experiencia.
si tu recibes 5000 cv ni la IA ni tú te los vas a leer... obviarán personas de cualquier sexo válidas. En eso consiste una selección, en filtrar.. en reducir la lista a unos cuantos a entrevistar.
Está bien como dato estadístico, pero no para usarlo en los filtros
Así todos hombres, ricos y blancos
El objetivo es contratar talento.
Y en eso no influye si eres negro o blanco ni hombre o mujer ni rico ni pobre
Aunque estadísticamente sí haya más talentos descubiertos hombres, blancos y ricos
Digo descubiertos, eh
Y qué te hace pensar que no lo hicieron?
El objetivo es contratar talento.
Y en eso no influye si eres negro o blanco ni hombre o mujer ni rico ni pobre
Eso lo dices porque tu opinión está sesgada por la sociedad. Se ha machacado tanto con la igualdad que asumes que todos somos iguales sin plantearte que tal vez haya gente mejor en algunas cosas y otra mejor en otras cosas. La I.A no ha hecho más que descubrir lo mismo que descubrieron con el experimeto que comenta #35
Cuando se da la oportunidad, se ve que somos iguales.
Cuando el primer negro que trabajaba en las plantaciones de algodón, fue a la escuela, se vió que somos iguales
Antes, no, claro.. Bueno, el negro se lo podía imaginar, aunque estaría tan machacado con el discurso de que era inferior que a lo mejor ni reconocía su propio talento.
Offtopic: me parece un poco surrealista estar en el s XXI discutiendo si somos iguales aunque seamos ricos o pobres, negros o blancos, hombres o mujeres...
A ver, es bien sabido por estudios antropológicos que NO somos iguales. Ninguno es peor que el otro. Simplemente tenemos habilidades diferentes. Por ejemplo las mujeres son muchísimo mejores distinguiendo colores o comunicando información.
Tú coges a un individuo y no sabes, porque cada persona es única
Y el sexo, aunque no lo incluyeses, va relacionado con el nombre de pila.
Un pobre puede ser un genio pero por lo general un rico tiene más dinero para recibir una buena educación, por tanto es más probable que los ricos sean mejores para un puesto en concreto.
Hay muchos factores a tener en cuenta, un rico también puede ser un patán pero su dinero influye.
La IA es la que no tiene… » ver todo el comentario
#66 El problema es que se está usando una IA de una forma que ese tipo de IA no se debe usar. Este tipo de redes neuronales lo que hacen es una regresión multivariable, pero eso en ningún caso es inteligencia. Es normal que ciertas características luego vayan correlacionadas más con un sexo que con otro. El problema, es que… » ver todo el comentario
Realmente no podemos estar seguros de eso. Si lo hubiera hecho yo, como datos de entrenamiento habría tomado datos de personas contratadas junto con sus curriculums y resultados. De esa forma la IA puede aprender a correlacionar un curriculum con el desempeño en el trabajo. De esa forma no hay sesgos: son datos totalmente objetivos. Pero no puedo asegurar que lo hayan hecho así.
Es que las IAs no hacen eso. A las IAs les das un listado de las personas contratadas durante los últimos treinta años y van a aprender a replicar eso de cara al futuro, pero nada más. Tú sólo puedes decirles lo que es un resultado correcto y lo que no lo es, y luego ellas replican eso.
Si la muestra está… » ver todo el comentario
no es un filtro, es autoaprendizaje
La potencia de las IA y los modelos radica en que son capaces de ver patrones que el humano no los detecta, le metas el modelo que le metas si dejas que la IA aprenda termina sacando esos patrones.
Muchas tendencias salen precisamente de esos patrones ocultos que el humano no mete en el modelo pero la IA es capaz de aprender por ingestar muchos datos.
si vamos tomarlo por lo literal , pues la IA no va a hacer un OCR del cv¿verdad?
ya he puesto explicitamente que se procesan por heurística.
Que haya deducido que el sexo te hace más válido o menos es simplemente porque ha llegado a una conclusión errónea.
La IA hizo lo que sabía hacer: buscar la probabilidad más alta de cumplir su tarea.
Si entreno a una IA para que me de los platos más sabrosos del mundo, y le doy lo que como yo cada día para que aprenda, no aprenderá a encontrar la mejor comida, sino los platos que más me gustarán a mi en particular. Aquí es igual, si hay sesgo sexista en los datos de contratación, la IA aprenderá a replicarlos.
Yo creo que lo que ha pasado aquí es que la IA ha descubierto lo mismo que la sociedad sabe desde siempre: que el sexo sí determina algunas habilidades en las personas. Por ejemplo las mujeres son mucho mejores comunicándose o identificando colores. Mientras que los hombres son mejores en razonamiento espacial o fuerza física. Claro que habrá excepciones pero justamente el trabajo de una IA es aprender la regla general sin dejarse influir por los casos aislados.
No idealices a la IA, un rankeador de curriculums no ha descubierto una realidad profunda sobre la condición humana.
Yo no he visto eso. He visto que la IA descubrió lo mismo que comenta #35
Sesgo precisamente significa que pasas exactamente el mismo CV con el sexo cambiado, y la IA preferirá al hombre.
Al congtrario: sesgo sería pensar que el sexo nunca es relevante. Es posible que la IA haya descubierto que para determinados trabajos hay una probabilidad más alta de que determinado sexo sea más adecuado.
No idealices a la IA, un rankeador de curriculums no ha descubierto una realidad profunda sobre la condición humana.
Tu dices eso porque lo que ha descubierto no concuerda con los prejuicios de la sociedad actual.
Pero es que me juego lo que sea a que esta IA utiliza aprendizaje supervisado, es decir se basa en señales de recompensa o castigo en función de si su predicción coincide con la del humano que ha supervisado los datos o no. Más que nada porque… » ver todo el comentario
Básicamente es uno de los problemas de la IA actual, que los datos que usamos tienen nuestro prejuicios y la IA los aprende.
Además de que evaluar el sexo, la edad y la raza para una posición tecnológica es basar la selección en criterio irrelevantes para el puesto.
En mi equipo hay 2 mujeres de 7 personas.
Y ambas son muy buenas.
Mi sesgo, por tanto, es que las mujeres son muy buenas.
Supongo que si bajan el liston a las mujeres y contratan 3 mujeres para que haya igualdad 5 y 5, esas 3 nuevas podrían no ser tan buenas y entonces sería cuando se crearía un sesgo de que las mujeres en IT son floreros igualitarios.
Ahora mismo, en la mayoría de empresas, hay cierta diversidad pero hay colectivos (mujeres, personas de razas minoritarias aquí, etc.) que somos minoritarios.
Si la IA está entrenada para seleccionar CVs basándose en las características mayoritarias en el equipo, seleccionará a hombres blancos y jóvenes. Esta selección aumentará la cantidad de hombres blancos y jóvenes y reforzará el sesgo de la selección.
Además, como ya he dicho, que la selección no debería basarse en características irrelevantes (en un puesto de desarrollo, por ejemplo) como el sexo, la edad, la raza, el color de pelo...
Lo que quería decir es que si, para eliminar el supuesto sesgo de en IT hay pocas mujeres porque en general a las mujeres no se les da bien, se baja el listón (o si se promueve entre las mujeres de forma artificial un interés por IT basado en causas indirectas), te vas a cargar el sesgo de las pocas mujeres a las que les interesa IT son cojonudas y lo vas a sustituir… » ver todo el comentario
El social, el que dice que en IT hay pocas mujeres porque en general a las mujeres no se les da bien, tiene difícil solución pero pasa por confrontarlo con hechos. Bajar el listón, tal como dices, solo lo refuerza en quien quiere seguir creyendo en esa desigualdad.
El problema de Amazon fue que no estaba bien balanceado, históricamente habian contratado muchas menos mujeres que hombres, y la IA tiende a mantener ese criterio ya que es un atributo sencillo que le ofrece un… » ver todo el comentario
Y si en un conjunto de 20 hay 7 hombres buenos y 2 mujeres buenas ¿no sería mejor apostar a "hombre" que tiene más probabilidades de que te toque bueno?
Las mujeres pueden ser igual de buenas que los hombres, tu empresa tiene dos mujeres que son muy buenas, pero eso no significa que en general las mujeres sean igual de buenas… » ver todo el comentario
Si un día usan un algoritmo para ver si merece la pena ingresarme en un hospital o que la palme en casa pues las llevo claras.
Yo culpo a quien usa algoritmos para tareas que requieren empatía o, simplemente, humanidad.
Encontrar a ese resultado final es su trabajo, y lo hace.
Para ello no usa de ningún prejuicio. Los… » ver todo el comentario
¿Entonces estás de acuerdo en que las empresas eviten la contratación de ingenieros españoles basándose en que en España hay menos gente con ese tipo de carreras, y que por lo tanto, si llega un candidato español es poco probable que tenga la titulación requerida?
El algoritmo no tiene fe, ni tiene corazonadas (aunque muchas veces esas corazonadas sean erróneas), esos son sentimientos exclusivamente humanos, por ahora.
Usar data science para encontrar patrones sirve para modificarlos.
Si encima partes de un dataset que ya tiene sesgos pues te sale una AI bastante mediocre.
Entonces no es una IA, porque de inteligencia no tiene nada, más bien es una forma de automatizar un proceso que ya de por sí está lleno de sesgos y prejuicios indeseables más propios de una mente humana.
Lo más gracioso de todo es que cuando se Quitó el sexo de la información que recibía la máquina, se acentuaron las diferencias.
¿No ves el sesgo?
Es un claro ejemplo de IA mal entrenada
Así, sin necesidad de analizar lo que la máquina ha dicho ni las causas que han llevado a la máquina a soltar esa respuesta.
Menuda sociedad nos espera, señor.
Yo soy un pringado al principio de su carrera laboral, pero en las primeras entrevistas, siempre digo: oiga, para no hacerle perder el tiempo ni a usted ni a mí, me gustaría saber el salario, porque busco a partir de X.
De momento mis dos mayores logros han sido pasar de pedir como mucho 18000-20000 a poder pedir 30000, y haber llegado hasta la fase final de una empresa de Google en la que tuve 6 entrevistas.
Y, obviamente, ni infravalorarte ni sentirte el puto, hablando, negociando, siempre se puede llegar a un acuerdo.
#45 será porque no hay "consultoras" que hacen estudios de mercado preguntando sueldo a candidatos por puestos imaginarios, o consultoras que se dedican a la pesca de arrastre, porque van a ofertar al que pida menos de todos los que parezcan mínimamente válidos. en determinados temas pensar mal es curarse en salud
No obstante también hay que ser listo y saber mas o menos lo que vales, que hay recien licenciados que se piensan que el mundo es suyo y por menos de X ni se levantan de la cama. Os recomiendo seguir la guia de Hays para orientarios (poned datos falsos, lo descarga igual).
cloud.email.hays.com/Guia-Salarial-2021-profesionales
Es incorrecto dejar la elección a lo que una IA pueda concluir en base solo a sus datos pasados,… » ver todo el comentario
Tres meses después retiraron el programa porque el porcentaje de hombres contratados superaban el 65%.
¿La conclusión? Lejos de la demagogia barata y los perjuicios, lo que pasa con este tipo de selecciones es que la mujer todavía no está completamente integrada en el mundo laboral.
Además de eso, las aspiraciones personales de hombres y mujeres difieren bastante y por desgracia lo hombres somos más dados a la dedicación extrema al trabajo...
Cuando buscas a alguien para un puesto, el que pone que va a dedicar más tiempo a la empresa...
La diferencia es que en el de Australia se tomó como factor los años de experiencia (y los hombres no suelen interrumpir sus carreras, por tanto, acumulan más experiencia) y las mujeres sí.
En cambio, en el de John y Jennifer quedó claro el sesgo igual experiencia: contrato a John porque sí
Cc #48 #60
Palabras clave: Australian government blind recruitment
En orquestas, hace años se empezaron a realizar "blind auditions" para eliminar barreras a mujeres y personas de otras culturas, y mirad lo que piden en 2020:
To Make Orchestras More Diverse, End Blind Auditions:
www.amren.com/news/2020/07/to-make-orchestras-more-diverse-end-blind-a
Ha aprendido una correlación con datos que no son relevantes para su objetivo.
Imagináos la IA policía: hombre, inmigrante = a la cárcel
Hay quién te genera confianza y quién, no.
Hacer las entrevistas un lunes a las 8 de la mañana en un sitio poco accesible es también un algoritmo. Ese no lo he seguido, por cierto, pero me dicen que funciona muy bien y filtra mucho.
(un chaval buscando su primer trabajo, ojo, y la empresa era muy buen sitio para currar)
Era una entrevista técnica, pero el chico me preguntó.. Y se fue
Por mi culpa perdimos a un genio, un diamante en bruto
Hace unos años contrataron para mi departamento a un chico recién salido de la carrera que en todo se atascaba y que te interrumpía constantemente con preguntas triviales cuya respuesta podía encontrar con un minuto de investigación (o preguntándole a Google). Mi apuesta era que duraría el periodo de prueba. A día de hoy, es la persona más productiva del departamento, con diferencia.
El problema de estas cosas es que en la vida se aprende a base de cagarla
Lo mismo está ahora vendiendo pollos y medios pollos o de subsecretario, las dos posibilidades me parecen igual de plausibles
Así un chico de 20 paga mucho mas que una mujer de 40
Pero a mí me parece discriminatorio, deberían cobrarte lo mismo y subirte las primas según los partes que des o las multas que te pongan. Debería ser personalizado, individualizado
Me quise hacer un seguro con Axa y me cobraban un dineral. Me hice ese mismo seguro de Axa a través de la aseguradora de El Corte Inglés en lugar de directamente, y era más barato, pero encima cuanto más coberturas le añadía más barato era. Al final en vez de tener un terceros me puse un todo riesgo con franquicia y me costó menos dinero.
Todos sabemos que las carreras STEM son campos de nabos que apestan a cultura bro a kilómetros, más en EEUU
1. Todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar.
Aquí la clave está en el "únicamente".. En Europa, con nuestra ley actual, si se demuestra que la decisión la toma únicamente la máquina, es totalmente ilegal y denunciable. Si las decisiones luego las revisa una persona, aunque sea un hdp con mil sesgos negativos, pues es legal.
Cito:
“Otro proveedor de software de contratación que funciona con inteligencia artificial es HireVue, con sede en Utah, EEUU. Su sistema de inteligencia artificial graba videos de solicitantes de empleo respondiendo a preguntas de entrevistas a través de la cámara web y el micrófono de una computadora portátil.”
Realmente si quisieran algo más igualitario deberían de hacer un random()… » ver todo el comentario