Microsoft lançait en 2016, sur Twitter entre autres, un Chatbot à intelligence artificielle nommé Tay. Ce dernier a échoué très rapidement. Le logiciel de conversation était censé élargir ses connaissances avec d’autres utilisateurs Twitter afin de devenir plus intelligent. Grâce aux textes et questions, le bot devrait être entraîné à répondre comme un adolescent de 14-18 ans.
Au lieu de cela, le robot de Chat de Microsoft est devenu un cauchemar absolu en moins de 24 heures : Tay présentait des propos racistes et virulents, et citait Adolf Hitler entre autres sur Twitter. Tay avait alors intégré des propos et des valeurs de mauvaises personnes, des trolls d’Internet qui ont consciemment manipulé ce Chatbot. Microsoft a rapidement arrêté le projet et supprimé de nombreux Tweets, forcé de constater qu’un tel logiciel autonome était facilement influençable, notamment avec une phase d’apprentissage totalement ouverte.
Kik prévoit d’effectuer cette phase d’apprentissage, mais restreinte à ses employés uniquement. Les employés communiquent avec les clients directement, afin d’inculquer les connaissances nécessaires au Chatbot pour qu’il puisse travailler de manière autonome par la suite.