Modele de menu sous word

Figure: modification de la précision du modèle de reconnaissance de texte avec et sans la pré-formation SynthText en fonction de la taille relative des données annotées manuellement. Cette version corrige un problème où Word, Excel et PowerPoint deviennent parfois indéfiniment insensibles lors du lancement. Voici les liens de téléchargement pour les packages de mise à jour: Word, Excel, PowerPoint, Outlook et OneNote. Variez ce modèle typique en changeant les 4 éléments pour: • exemples • non-exemples • caractéristiques essentielles • caractéristiques non essentielles pour former un modèle qui reconnaît les mots dans l`ordre de droite à gauche (si nécessaire) tout en étant capable de reconnaître les mots dans ordre de gauche à droite, nous proposons une astuce très simple: nous supposons que les mots dans, disons, l`arabe sont en fait lus de gauche à droite, comme avec d`autres langues. Ensuite, après le traitement, nous inverses les caractères prédits comme s`ils appartenaient à une langue écrite de droite à gauche. Cette astuce fonctionne étonnamment bien, ce qui nous permet d`avoir un modèle unifié qui fonctionne pour les deux langues de gauche à droite et de droite à gauche. Contrairement aux modèles de classification d`image, qui fonctionnent assez bien sur les images à faible résolution, les modèles de détection d`objets requièrent généralement des images à haute résolution pour effectuer plus précisément la régression de la zone de délimitation. Pour nos scénarios, nous redimensionnons les images de telle sorte que la dimension maximale soit 800 pixels tout en conservant le rapport hauteur/largeur. Nous avons constaté que les grandes cartes d`activation produites par le modèle de détection de texte créaient un goulot d`étranglement. En plus de colmatage de l`intégralité de la bande passante d`e/S de mémoire système, il a également laissé d`autres ressources, telles que CPU, sous-utilisées. Pour surmonter cela, nous quantions les poids et les activations du modèle de détection de texte en entiers 8 bits au lieu de calculs float à 32 bits sans perte significative de précision. En théorie, cela réduit la bande passante mémoire requise par 4x.

Pour une inférence int8 rapide et efficace, nous utilisons FBGEMM, une bibliothèque int8 GEMM hautement optimisée pour les serveurs AVX2/AVX512 et un ensemble d`opérateurs de basse précision Caffe2 pour les CPU x86. Les deux sont construits par Facebook. Nous avons implémenté des optimisations spécifiques à notre modèle de détection de texte tels que les noyaux AVX2 pour les opérations de convolution de profondeur 3 × 3 et ChannelShuffle utilisées dans ShuffleNet. Les principes fondamentaux de la quantification linéaire appliqué aux réseaux neuronaux sont expliqués ici. Il est important de noter que 0 dans fp32 doit être mappé exactement à 0 dans int8 sans erreur de quantification en raison de l`occurrence disproportionnelle de 0 dans les activations et les poids. Lorsque nous avons d`abord évalué notre modèle quantifié, nous avons rencontré une grande baisse de précision et nous avons appliqué les techniques suivantes pour réduire l`écart de précision à 0,2%: cette version résout un problème avec l`ouverture ou l`enregistrement de fichiers dans Word, Excel ou PowerPoint lorsque le la première partie du chemin de fichier contient des espaces ou certains caractères. Les API JavaScript Office contiennent des objets et des membres pour créer des compléments et interagir avec le contenu Office et les services Web. Il existe un modèle d`objet commun qui est partagé par Excel, Outlook, Word, PowerPoint, OneNote et Project.