Silicon Valley se olvida de las mujeres

En Estados Unidos crecen las empresas dedicadas a detectar automáticamente el sesgo por sexo o edad en los procesos de contratación, ascenso o despido de los trabajadores.

Entre juicios se seguirá hundiendo RRHH si no lo hacen científico

Entre los ejecutivos de RRHH de las empresas tecnológicas abundan al menos dos prejuicios:

  • Contratar casi siempre a hombres.
  • La mayoría de ellos muy jóvenes.

En Silicon Valley proliferan las acusaciones, claras o veladas, de sexismo y de ageism, el término anglosajón para definir la discriminación por edad. Los primeros sorprendidos son los directivos que se creían hijos exclusivos de la meritocracia y libres de cualquier otro sesgo que alterara sus decisiones al contratar, promocionar o despedir a un empleado.

Los sesgos de cada día: un viaje por los juicios inconscientes de nuestra vida diaria”

  • El impacto de los sesgos inconscientes en la vida laboral es “dramático”, muchos estudios los han demostrado.
  • Combatir el sesgo de sexo, en Silicon Valley han decidido poner límites a sus propios prejuicios del modo en que mejor saben hacerlo: a través de algoritmos, softwarey tecnología de geolocalización.

Las compañías que se dedican a identificar y neutralizar sesgos en entrevistas de trabajo y evaluaciones de empleados están en boga.

  • Trabajan con una tecnología que procesa el lenguaje utilizado y las emociones, y por ello están recibiendo importantes sumas de dinero en rondas de financiación.
  • Textio, acaba de recaudar 1,5 millones de dólares con la promesa de identificar cualquier sesgo de género en las palabras que se emplean en las ofertas de empleo y en las evaluaciones a empleados antes de una promoción.
  • Gracias a la precisión de su algoritmo, se ha comprobado que si en una oferta incluye la frase “buscamos a un candidato con un historial laboral verificable”, se presentarían más hombres a la convocatoria. En cambio, si se pedía un candidato “con pasión por aprender”, responderían más mujeres.
  • Resulta difícil llegar a esta conclusión si no es a través del cruce de datos e información de un software.
  • Los empleadores de Silicon Valley han decidido no confiar en su criterio y dejar que un algoritmo corrija sus sesgos inconscientes de género. Por eso compañías como Textio se están convirtiendo en un gran negocio.

Kanjoya, empresa encargada de medir el engage de los empleados, también se dedica a rastrear prejuicios.

  • En esta empresa trabajan con una tecnología “procesadora del lenguaje y de las emociones conscientes” desarrollada durante ocho años en colaboración con lingüistas de la Universidad de Stanford.
  • Su algoritmo es tan fino que ha conseguido descubrir que la palabra assertiveness—autoafirmación o firmeza— se usa como término negativo en las evaluaciones a las mujeres, mientras que cuando se incluye en la evaluación de un hombre no sólo se consideraba un atributo positivo, sino que constituía el paso previo a un ascenso.
  • Según se dice, es sólo un sesgo inconsciente puede explicar por qué la misma palabra es buena para unos y mala para otros.

La tecnología va más allá de las palabras

  • También la emoción e intención está detrás.
  • Esa información se combina con la decisión que ha sido tomada; es decir, si la persona evaluada ha sido despedida, ascendida o contratada.
  • Se dividen los datos en segmentos de edad, etnia, género y geografía, así se puede ver inmediatamente qué ha representado un éxito para unos y un fracaso para otros.
  • En un mundo ideal, sin sesgos, el lenguaje para justificar un ascenso o un despido debería ser el mismo para todos. Sin embargo, casi nunca lo es.
  • La gente espera unas cosas de los hombres y otras de las mujeres, y lo interesante es que ni siquiera se dan cuenta.
  • Es importante identificar y medir sesgos, ese es el primer paso para eliminarlos de una empresa pues no se puede arreglar lo que no se ha medido.

Kanjoya, fundada en 2007, ha conseguido un financiamiento por 20 millones de dólares de varios inversores, entre ellos D. E. Shaw, Twitter y Cisco.

Unitive.works, que probablemente empiece a operar en junio, será otra de las empresas dedicadas a cazar prejuicios escondidos e inconscientes.

  • Su misión es etiquetarlos y ubicarlos geográficamente en tiempo real, como una especie de Google Mapsde los sesgos.
  • Su tecnología se concentra en los procesos de reclutamiento y contratación de personal y tiene la capacidad de interrumpir el sesgo en el mismo momento en que aparece, en una entrevista de trabajo o en la redacción de una oferta de empleo, por ejemplo.

El entrenamiento a los empleados

Según el diario The Wall Street Journal, el 20% de las grandes empresas estadounidenses está entrenando a sus empleados en la identificación de este tipo de prejuicios y en los próximos cinco años podrían hacerlo el 50%.

  • Google es una de las compañías que ha decidido corregir sus prejuicios de puertas para adentro usando un programa de entrenamiento interno para que sus empleados sean más conscientes de sus sesgos de género, edad o nacionalidad.
  • No se recomienda que las compañías traten de identificar sus prejuicios por cuenta propia, “después de todo, por algo son inconscientes”.
  • La tecnología requerida para hacerlo es difícil de construir. “A nosotros nos llevó ocho años diseñar modelos perfectos y precisos para medir emociones” según cuenta Armen Berjikly el fundador y director de Kanjoya.
  • Por otra parte, es complicado hacer una revisión independiente de los sesgos por las mismas personas que están expuestas o han sido afectadas o favorecidas por ellos.
  • Asimismo, Berjikly asevera que en las empresas en que han identificado prejuicios contra las mujeres, los propios empleados se lo han acabado agradeciendo. El motivo: llevaban tiempo sospechando de ciertas conductas pero no se las tomaban en serio por falta de datos y por falta de independencia.

No hay religión más allá de la tecnología.

  • No hay nada más fiable que la tecnología, no tiene sesgos, no tiene agenda, no tiene intereses políticos y siempre puede ser mejorada.
  • Todos queremos trabajar en un ambiente justo donde seamos evaluados por cosas que se pueden controlar y no por estereotipos.
  • Si en una compañía se usa una tecnología como la de Kamjoya la gente no tendrá que creer que está imaginando cosas y sólo asumirá los hechos contrastados.
  • También le sirve el argumento de la llegada de los millenials, la generación más diversa de Estados Unidos, al mercado laboral.

Se necesitan más algoritmos ‘cazaprejuicios’

Esto de cazar sesgos de género con un algoritmo no es en absoluto una excentricidad de los techies de California.

Los resultados de una encuesta realizada por PWC a casi 5.000 jóvenes que acababan de incorporarse al mercado laboral de 75 países:

  • El 29% de las chicas dijeron que sentían que sus jefes estaban muy sesgados a favor de los hombres cuando tenían que hacer promociones internas.
  • El 46% de los chicos consideró que los ascensos se realizaban en condiciones de igualdad.
  • El 61% de los hombres entrevistados creían que podían llegar a lo más alto de la empresa.
  • El 50 % de las mujeres les pasaba por la cabeza.
  • En la encuesta los empleadores brasileños fueron vistos como los menos prejuiciados y los españoles fueron considerados los más sesgados a favor de los hombres.
  • “Se necesitan algoritmos cazaprejuicios más allá de Silicon Valley”.

Fuente:

http://tecnologia.elpais.com/tecnologia/2015/05/18/actualidad/1431958734_032533.html