Explicabilité de modèles de NLP

Découverte du NLP/topic modelling …

Tester le topic modelling en NLP pour améliorer l’efficacité opérationnelle, 
et ouvrir le champ des possibilités pour d’autres données (webscrap ?) ?



Expliquer les résultats d’algorithmes non supervisés est clef…

Contexte

Identifer les thèmes principaux de nombreux verbatims d’une communauté d’utilisateurs est un beau défi d’intelligence collective. L’organisation efficace de Ducker y répond. L’IA peut-elle cependant optimiser ses tâches, permettre d’innover ?

Les équipes en place maîtrisent les statistiques, mais pas encore les méthodes de Machine Learning. L’explication de ces nouvelles techniques, ainsi que des interfaces de visualisation de résultats est clef.

Activités réalisées

 

Facteurs clef de succès :

  • Alignement sur les ambitions stratégiques du groupe.
  • Compromis entre explicabilité et performance (LDA Visualisation)
  • Choix des composants techniques adaptés (Spacy + LDA)
  • Représentations (nuage de mots, histogrammes TF-IDF) pour illustration des ‘topics’ et nettoyage des données
  • Itérations fréquentes : 4 ateliers sur 2 semaines

Illustration : Visualisation global des ‘topics’ plus présents
décomposés en une liste de termes clasées par pertinence.

Résultat

Bilan sur l’apport de ces technologies à l’état de l’art, sur données non structurées. Estimation de leurs gains probables sur les données initiales, retravaillées et sources de données futures.

Acculturation des équipes sur le mode opératoire, et sur les principes des algorithmes d’IA.

Illustrations : visualisations intermédiaires pour affinage des paramétrages d’algorithmes d’IA, et illustration des ‘topics’

Acteurs concernés

  • Acculturation à l’IA, introduction et « démystification »
  • Évaluation experte des résultats (non-supervisé)
  • Ouverture au changement!
  • Communication transparente sur les choix techniques opérés
  • Recommandation des technologies à l’état de l’art
  • Adaptation aux process existant