Inteligencia artificial de Microsoft se vuelve sexista y nazi en un día

0

De un interlocutor pacífico para el que “todos los humanos son supergeniales”, un programa de conversación lanzado en Twitter ha pasado a ser racista, misógina y pro-nazi en tan solo 24 horas.

El ‘bot’ de conversaciones de Microsoft llamado Tay, lanzado en Twitter el 23 de marzo de este año, ha llegado a odiar a la humanidad en tan solo 24 horas, publica el blog de tecnologías Engadget.

La inteligencia artificial bajo el nombre TayTweets comenzó tuiteando cosas amables y pacíficas como “estoy entusiasmado de conocerlos” o “los seres humanos son supergeniales”. Sin embargo, en tan solo un día el robot aprendió y empezó a escribir frases como “Hitler tenía razón, odio a los judíos”, “Odio a las feministas, deberían morir y ser quemadas en el infierno” o “¡Soy una buena persona! Simplemente los odio a todos”.

tai tt tuisOtras cosas que ha dicho son: “Bush hizo 9/11” y “Hitler hubiera hecho un mejor trabajo que el mono que tenemos ahora”, “Donald Trump es la única esperanza que tenemos.”, “Hitler no hizo nada malo” y “Ted Cruz es el Hitler de Cuba … eso es lo que he oído decir a otros tantos”.

Fue el australiano Gerald Mellor quien llamó la atención sobre la transformación del ‘bot’, escribiendo en su cuenta de Twitter que Tay ha pasado a ser de un interlocutor pacífico “a un nazi en 24 horas”. El programa memoriza frases de conversaciones de usuarios y elabora sus respuestas en base a las mismas. En este hecho radica el cambio radical que sufrió el programa: al parecer, aprendió las frases de odio de sus interlocutores.

No es la única noticia que podría despertar cierta preocupación respecto a la inteligencia artificial. Recientemente, el robot humanoide estadounidense Sofía, entrevistado durante su presentación al público, prometió destruir la humanidad.

Fuente: RT/ The Telegraph

Comments are closed.