SERP: Améliorer l'algorithme des marchés à l'aide de l'intelligence artificielle

Une plate-forme universelle de création de marketplaces, adaptée à des projets commerciaux complètement différents, des épiceries aux services de recrutement, nécessite une amélioration constante, car les exigences croissantes en matière de services en ligne nécessitent déjà aujourd'hui le travail de l'intelligence artificielle. Et la satisfaction du client à l'égard des résultats de recherche et, par conséquent, le succès de l'entreprise, dépend de la configuration correcte des systèmes d'IA.





A titre d'exemple, nous pouvons prendre la recherche contextuelle utilisée dans les moteurs de recherche. Chaque moteur de recherche essaie de gagner le concours et d'améliorer la qualité de la recherche, mais dans un monde en évolution rapide, la signification des expressions verbales peut changer considérablement. Par exemple, lors de la demande du mot «alimentation», le moteur de recherche proposait auparavant le résultat «ruban de satin», alors que maintenant les résultats de la recherche affichent des informations sur une chaîne de magasins et un portail d'informations. Mais l'intelligence artificielle vient à la rescousse dans l'émission de résultats, ce qui permet de corriger les résultats en un temps record.





Disons qu'un morceau de texte définit le mot «ruban» comme faisant partie d'un joli paquet. Pour simplifier, nous classons toutes les significations de ce mot sans clarification, par exemple, en raison de réseaux ultra-précis - Convolutional Neural Networks (CNN). Cette architecture CNN utilise le soi-disant ensemble de réseaux ultra-précis et récurrents et donne en sortie une définition pertinente du mot «bande» en fonction du contenu sémantique du texte. Les données d'entrée sont une matrice de hauteur fixe  n. De plus, chaque ligne est une cartographie vectorielle de l'identifiant, c'est-à-dire des mots dans l'espace des caractéristiques de dimension  k... Pour créer un espace de fonctionnalités, il est pratique d'utiliser les outils de sémantique de distribution FastText, Glove, Word2mVec. La matrice est traitée par des filtres de largeur fixe, qui sont égaux à la dimension de l'espace des fonctionnalités. Pour sélectionner leurs tailles, le paramètre de la hauteur des lignes adjacentes h est sélectionné . En conséquence, la taille de la matrice de sortie dépend de la hauteur du filtre et de la matrice d'origine. Après cette étape, la carte d'entités est traitée par une couche de sous-échantillonnage, réduisant la dimension de la carte d'entités générée, et est allouée pour chaque convolution, et les informations dominantes sont extraites. Les cartes d'entités sont ensuite combinées en un vecteur d'entités, qui est inclus dans le calcul des étiquettes de classe finales.





, , , . , . CBOW, , . : softmax – , , . , k . (2k+1). .





skip-gram, , , .





, . , , – , , , – . : -, -. – , .





, – , , , 5 .





-

. , , , , .





, 45 , , , . , , . «», , , , , .





. , . , .  . , . «» . . Negative Sampling. «» :





s (x, ω)

, , :





s (x, ω)

  .





-s (x, ω)

– .





. .





Une combinaison équilibrée d'algorithmes de classement améliorera la qualité de l'ensemble du système. Mais il ne faut pas oublier les exceptions, car le système de classement de Google a constaté que leur moteur de recherche n'est pas encore prêt à confier enfin le classement à des algorithmes d'apprentissage automatique. Les modèles générés automatiquement peuvent se comporter de manière imprévisible sur de nouvelles classes de requêtes qui ne ressemblent pas aux requêtes de l'ensemble de formation par rapport aux modèles créés par des experts humains.








All Articles