La Chine a censurĂ© deux chatbots ou bots conversationnelsqu’ils n’Ă©taient pas dans les affaires de suivre le rĂ©gime communiste.
Nouvelle histoire avec des bots impliquĂ©s qui ont trop appris pour arriver Ă une position contraire Ă celle souhaitĂ©e par tout un État. Cette fois, cela s’est produit en Chine, oĂą deux bots diffĂ©rents utilisĂ©s dans les applications de messagerie instantanĂ©e ont commencĂ© Ă rĂ©pondre aux questions sur le rĂ©gime communiste du pays contre elle.
Ces robots de discussion ont Ă©tĂ© supprimĂ©s de l’application de messagerie Tencent QQ après que les utilisateurs ont commencĂ© Ă partager des captures d’Ă©cran de leurs conversations avec eux sur les rĂ©seaux sociaux.
Des chatbots qui apprennent trop des humains
Comme l’a soulignĂ© The Verge, le plus drĂ´le est que les bots n’avaient pas les dĂ©veloppeurs derrière eux. D’un cĂ´tĂ© Ă©tait le bot BabyQ que lorsqu’on lui a demandĂ©: Aimez-vous le Parti communiste?, sa rĂ©ponse Ă©tait directe et sèche: Non.
En rĂ©ponse aux messages d’utilisateurs Ă long terme adressĂ©s au Parti communiste, ce bot a rĂ©pondu Pensez-vous qu’un parti politique aussi corrompu et incompĂ©tent puisse durer longtemps?
D’un autre cĂ´tĂ©, il y avait le bot XiaoBing, dĂ©veloppĂ© par le personnel de Microsoft. Dans ce cas, le chatbot a assurĂ© que son rĂŞve chinois Ă©tait d’aller en AmĂ©rique et, interrogĂ© sur son patriotisme, il a rĂ©pondu qu’ils l’avaient laissĂ© seul qu’il avait ses règles.
Les deux robots ont Ă©tĂ© supprimĂ©s de l’application Tencent QQ et la sociĂ©tĂ© a dĂ©butĂ© en disant que ces services Ă©taient créés par des sociĂ©tĂ©s tierces.
Qu’est-il arrivĂ© aux robots qui ont donnĂ© ces rĂ©ponses? Probablement vos conversations avec les utilisateurs. C’est arrivĂ© avant et prĂ©cisĂ©ment Ă Microsoft. Il y a un an, ils ont créé une Intelligence Artificielle appelĂ©e Tay et ils l’ont mise pour parler aux gens sur Twitter et finalement ils ont dĂ» la retirer parce que leurs rĂ©ponses dĂ©gĂ©nĂ©raient.