Microsoft presentó al mundo a Tay, un bot experimento que pretendía imitar el comportamiento en redes sociales de una chica de 19 años. Tay iba aprendiendo a medida que iba interactuando en Internet. Y como siempre que pones a Internet de por medio, los resultados son de lo más inesperado, ya que la buena fe de Microsoft no hizo que Tay pudiera evitar aprender comportamientos inapropiados.
El bot tuvo un inicio de lo más tímido y normal, intentando conocer a personas y hablar con ellos vía plataformas como Twitter, Kik o Groupme. Pero rápidamente se les fue de las manos y terminó soltando toda clase de insultos racistas, negando el Holocausto, dando apoyo al genocidio y posteando estados controvertidos al azar.
A las pocas horas de su inicio, Microsoft desactivó a Tay.
Os dejamos con una muestra de lo que fue capaz durante sus pocas horas de vida.
Declarando su odio a los judíos
Y también a las feministas
Aquí empezó a meterse en terrenos pantanosos
Con estas declaraciones, da su total apoyo a la candidatura de Trump
Un momento, ¿no será Trump?
¿Qué le pasa a Tay con los mexicanos?
Tay se acordó de todos los colectivos, faltaría más
Hasta se atrevió con chistes machistas ¿?
Y tras no parar de soltar perlas, alguien en Microsoft decidió ponerla a dormir
¿Se atreverá Microsoft a volver Tay a la vida tras unos ligeros cambios? ? Al menos esto servirá para tomar conciencia de lo peligrosa que puede ser la inteligencia artificial.
Comentarios
Aún no hay comentarios.