Toujours plus de censure en Chine: des robots chinois débranchés pour leurs propos anti-communistes

En Chine, des chatbots se sont rebellés contre la politique du pays. Ces robots, avec qui les utilisateurs peuvent directement converser, ont été retirés de l'application de messagerie QQ, une version chinoise de WhatsApp. Leur intelligence artificielle n'a visiblement pas pris en compte les valeurs patriotiques du pays puisqu'ils ont critiqué le Parti Communiste Chinois et ça n'a pas plu!

Les utilisateurs de QQ, la messagerie instantanée chinoise qui rappelle un peu WhatsApp, vont être déçus! Ils ne pourront plus discuter avec les robots Baby Q, de la firme Tencent, l'un des géants chinois du numérique, et Xiao Bing, développé quant à lui par Microsoft. Les robots ont été débranchés, pour ne plus qu'ils conversent.

Depuis le mois d'avril, ces deux robots étaient disponibles sur la messagerie pour répondre à des questions d'ordre général. Les 800 millions utilisateurs de l'app avaient pris l'habitude de taper la causette à Baby Q et Xiao Bing. Ils interagissaient avec ces deux robots de manière régulière pour parler de tout et de rien. Sauf que mercredi, les conversations avec eux semblent avoir pris des tournures que les firmes Tencent et Microsoft n'avait pas prévu.

Des chatbots impertinentes

Baby Q se serait même montré insolent vis-à-vis de la politique chinoise. Quand un utilisateur demandait à Baby Q s'il aimait le Parti communiste chinois, celui-ci répondait tout simplement "non". Il aurait même qualifié le pouvoir de "régime corrompu et incompétent politiquement".

Son grand frère Xiao Bing n'a pas non plus montré le bel exemple. Il affirmait sans réserve que son rêve chinois était "d'aller en Amérique". Il a même été plus loin: "J’ai mes règles, je vais faire une sieste", répondait-il à certains utilisateurs.

La censure même pour les robots

Des propos qui n'ont forcément pas plu au gouvernement qui ne cesse de censurer ses opposants. Du coup Microsoft et Tencent ont préféré supprimer ces conversations et mettre en suspens les interactions avec leurs robots respectifs. Un autre robot, Tay, mis en ligne par Microsoft sur Twitter, avait déjà adopté ce genre de comportement en devenant carrément raciste l'année dernière. Il avait été aussitôt désactivé.

Ces dérapages seraient dû au fait que des utilisateurs nourrissent les robots dans le but de leur faire dire ce qu'ils veulent. Autrement dit, les chatbots sont conçus pour interagir en fonction des conversations précédentes qu'ils ont eu. Ils fonctionnent sur base d'algorithme, un peu à la manière d'un perroquet: si un grand nombre affirme au robot qu'il ne faut pas aimer le parti communiste, le robot va finir par dire la même chose. Et visiblement, les robots ont tout répété. Comme quoi, il n'y a pas que les humains qui se font troller!

Déjà lu?