Paul,
Pour moi ça sent l'hoax, voire la phobie des AI.
Enfin, c'est possible, mais je suis sceptique, très sceptique. Je m'explique.
Ces bots ont été développés à la base, pour entretenir des conversations avec les êtres humains que nous sommes.
Pour que ce soit possible, il aurait fallu qu'un chercheur fasse des algorithmes avec des éléments de codes déjà existants en données, pour que l'intelligence les intègre et "comprenne" leur logique, donc qu'un chercheur aille au-delà de ce qui avait été demandé (pour l'heure, c'est sensé être des algorythmes de conversations plus ou moins complexes).
Sur plein de tuto pour les nuls, pour faire des chats ou des mini bots, il y a une fonction simple et 36 autres qui existent pour pallier aux réceptions / envois de données autres que du type "plain texte" (texte). C'est un truc de base à savoir, ils l'auraient sans doute fait.
Ça me parait dingue que ce "nouveau langage" semble si éloigné (à en lire les déclarations des bots) que ceux déjà existants (j'ai presque l'impression que c'est du langage de bourré

)
Et, à en lire l'article, on peut se poser la question : comment est-ce possible que les chercheurs semblent ne pas avoir les logs des bots ? On dirait qu'ils parlent comme s'ils n'avaient pas accès aux bases de données (et s'ils ont pu les "supprimer", c'est bien qu'ils y avaient accès).
Il me semble plus possible que ça vienne d'un bug et que les chercheurs ont sur-interprêté, ou qu'un de leur développeur était bourré en écrivant ces algorithmes (

) ... ou qu'on nous prenne pour des c.ns. Les algorithmes de FB, ce ne sont pas non plus les algorithmes de G..gle. Ç'aurait été G..gle, ça aurait été peut-être possible.
On vit dans un monde qui créé des peurs, et la peur, ça paie ... un vrai business. Bon après, c'est juste mon avis à froid sur la question, mais j'ai énormément du mal à y croire.
Après, y'a peut-être un
mec qui a "codé avec son Q"
