microsoft

Mis au point par Xiaoran Zhang, Emilia Stoica et Clayton Holz, Toxic Content Detection with Interpretability Feature permet de repérer les messages comportant des propos déplacés.

Le United States Patent and Trademark Office (l’équivalent de l’INPI américain) a délivré un nouveau brevet à Microsoft, jeudi 1er octobre 2020. Son objet : une méthode de détection de contenu électronique toxique.

À quoi ça sert concrètement ?

Déposé en mars 2019, ce brevet « utilise un identificateur de mots-clés probablement toxiques pour déterminer de manière probable les mots-clés indicatifs d'un contenu toxique ».

Prenons un exemple pour clarifier : dans les grands groupes, les départements des relations humaines effectuent régulièrement des enquêtes auprès des travailleurs. Les réponses récoltées comportent parfois des commentaires injurieux, menaçants, racistes, homophobes, etc. La méthode développée par les trois ingénieurs facilite leur repérage.

Concrètement, il s'agit d’automatiser la recherche de contenus toxiques dans les commentaires. Comment ? En identifiant un potentiel de toxicité. L’une des possibilités pour la mettre en place est de nourrir et d’entrainer un algorithme de deep learning.

Apprendre par la probabilité

Pour cela, un humain-entraîneur donne deux ensemble de messages à l’algorithme : un, comportant des messages toxiques, l’autre sans. L’algorithme va alors déterminer la récurrence de mots-clés probablement toxiques dans chaque ensemble. Si le mot-clé dans l’ensemble toxique apparaît un nombre de fois (à déterminer) supérieur à son apparition dans l’ensemble non-toxique, le mot-clé est considéré comme indiquant du contenu toxique.

Une fois une liste de mots-clés obtenue, l’algorithme sera en état d’identifier de manière probable les messages toxiques dans un ensemble de messages aléatoire : il lui suffit d’identifier le nombre de mots-clés dans chaque message.

MS patent

L'avenir du brevet n'est pas fixé : Microsoft peut décider d'en faire un produit, mais la plus forte hypothèse est que la méthode soit intégrée à Teams. Messages (privés ?) et retranscriptions vidéos pourraient ainsi être soumis à une analyse de toxicité…

Source : NeoWin