Amazon apaga Inteligencia Artificial por sexista

0

Por Javier Murillo

Y ¿por qué dio de baja la aplicación Google?, por lo mismo que Microsoft apagó su robot racista y por lo que Facebook desconcetó a los robots que habían desarrollado su propio lenguaje para comunicarse entre ellos…

Cualquier cosa en la vida tiene una perspectiva, hay un prejuicio original otorgado por el individuo que está dando su opinión. En cualquier circunstancia de la vida en la que un ser humano realice un trabajo cognitivo para ejecutar una acción está imprimiendo su estilo. No somos robots.

La inclusión no es un absoluto, sino un relativo. Por diseño, en la existencia se realizan elecciones y al haber elección hay un prejuicio; por lo que cualquier persona que haga un trabajo lo estará sesgando a sus paradigmas y conveniencia, incluso si es un programador de Facebook, Google o Amazon.

Nos enteramos que hace unos días, Amazon suspendió el uso de un sistema que se basaba en la Inteligencia Artificial para reclutar gente, dicho sistema era una herramienta inteligente que, de tanto que fue aprendiendo comenzó a rechazar currículums de mujeres en su proceso. ¿Por qué?, porque más hombres que mujeres aplicaban al principio a vacantes, entonces aprendió a descartarlas. La herramienta fue dada de baja por sexista.

¿Por qué dio de baja la aplicación Google?, por lo mismo que Microsoft apagó su robot racista y por lo que Facebook desconcetó a los robots que habían desarrollado su propio lenguaje para comunicarse entre ellos, ya que es políticamente correcto y no quieren una crisis de relaciones públicas, es más fácil atacar el síntoma que la enfermedad. Pero la enfermedad sigue ahí y se llama “discriminación”, lo que no nos han dicho es cómo van a curar ese mal endémico de la Inteligencia Artificial.

Dana Corres, especialista en comunicación para temas urbanos con perspectiva de género, nos comentó sobre el tema de Amazon que, para prevenir este tipo de situaciones, hay que tener reglas muy claras en una empresa, con una serie de cuotas que se deben tomar en cuenta, sobre la gente que se va a contratar, “no sólo es tener un 50-50 hombres y mujeres, sino además es toda una gama de hombres y de mujeres; es decir, hombres indígenas, mujeres indígenas, personas con discapacidad. Todo un rango de caracteristicas a tomar en cuenta, justo para eliminar esos sesgos, donde no habrá esta burbuja de gente que solamente se escucha entre sí porque tienen los mismos rasgos y que por ejemplo son hombres, blancos y jóvenes, sino que ya van a tener otras perspectivas”.

Pensando que no existe el cero sesgo, el cero prejuicio y que los que están configurando la Inteligencia Artificial son humanos, como nosotros, que por cultura, por educación o por cualquier cosa estamos llenos de prejuicios, tanto como individuos, como en sociedad, concluimos que ese tipo de situaciones van a seguir sucediendo.

Aunque el algoritmo se creara en las mismísimas Naciones Unidas, existiría un sesgo de origen y habría quién no sería incluido. ¿No será que le estamos poniendo a la Inteligencia Artificial un objetivo inalcanzable?, porque la realidad es que la vida misma es una sistemática lucha por la supervivencia en la que sólo el más apto gana.

Ahora, existe un tema de fondo, ¿quién está desarrollando la Inteligencia Artificial?, pues los grandes fabricantes como Google, Amazon, Microsoft e IBM y ¿cuál es el principal objetivo de estas compañías?, hacer dinero.

Somos presa de algoritmos que están diseñados para servir intereses de lucro de esas empresas. Siendo este el caso, ¿quién debería desarrollar los algoritmos en los que se basa la Inteligencia Artificial?, espero que su respuesta sea: la sociedad civil, pues es un hecho que a los legisladores les va a tomar muchos años trabajar en leyes que los regulen, la guerra tendrá que ser de guerrillas. Sociedad civil organizada vs. las corporaciones. Duele más una crisis de reputación, que perder dinero, si no, que le pregunten a Amazon.

Estamos aprendiendo, qué pasa si creamos un decálogo (por decir un número de reglas) de lo políticamente correcto o aceptable. Un decálogo que tendría que ser sometido al escrutinio de la sociedad mundial, porque tiene que ver con lo educativo, con lo cultural, con la religión, no solo con la tecnología. El dilema de los algoritmos de Intelgiencia Artificial no es científico o tecnológico, es humano.

ProPublica, una organización dedicada a la investigación sin fines de lucro, realizó en Estados Unidos una investigación sobre una caja negra en Wisconsin, que tenía según esto, la capacidad de predecir -basada en un algoritmo-, si alguien podía delinquir y qué posibilidades había de que reincidieran más adelante. Se encontró que los datos de dicha caja negra eran erróneos, pues lanzaba al azar más posibilidades de que fueran personas negras quienes infringieran la ley, a pesar de ponerlas al lado de personas blancas que sí delinquieron y reincidieron. El prejuicio en su máxima expresión.

Es necesario recordar que Igualdad no es equidad, que la igualdad es que todos seamos iguales ante la ley, equidad es no favorecer a alguien en prejuicio de otra.

Moraleja: ¿cómo nos quitamos los paradigmas para empezar de cero con la Inteligencia Artificial?

Fuente: SinEmbargo

Comentarios