- ONNX Runtime et Windows ML intègrent l'exécution des modèles ONNX sur Windows 11, unifiant le CPU, le GPU et le NPU.
- WinML automatise la sélection des fournisseurs d'exécution et simplifie le déploiement, tout en maintenant des API compatibles avec ONNX Runtime.
- L'exécution locale d'applications sous Windows 11 offre confidentialité, faible latence et des économies par rapport au cloud.
- Des outils tels que AI Toolkit, ONNX Model Zoo et les EP d'AMD, Intel, NVIDIA et Qualcomm facilitent la conversion, l'optimisation et la prise en charge du matériel.

Windows 11 Cela a complètement transformé la manière dont nous exécutons les modèles d'IA sur PC, passant d'une dépendance quasi systématique au cloud à la possibilité d'exécuter localement des inférences complexes avec des performances exceptionnelles. ONNX Runtime et Windows ML sont les deux éléments clés de cette avancée : un environnement d'exécution optimisé et une couche d'intégration au système d'exploitation qui exploitent pleinement le CPU, le GPU et le NPU (voir la section correspondante). caractéristiques de votre pc) sans que le développeur ait à se casser la tête avec chaque type de matériel.
Si vous pensez déployer des modèles ONNX Sur les systèmes Windows 11, que ce soit pour la classification d'images, le traitement de texte, la reconnaissance d'écriture manuscrite ou même les modèles de langage légers, vous disposez d'un écosystème très mature : ONNX comme format standard, ONNX Runtime comme moteur d'inférence multiplateforme et Windows ML comme intergiciel qui unifie et automatise l'utilisation des accélérateurs disponibles sur chaque machine.
Qu'est-ce qu'ONNX et quel rôle joue ONNX Runtime ?

ONNX (échange de réseau neuronal ouvert) Il s'agit d'un format ouvert conçu pour décrire les modèles d'apprentissage automatique afin qu'ils puissent être utilisés dans différents environnements et exécutés sur tous types de matériels. Un modèle ONNX encapsule l'architecture du réseau (couches, connexions, opérations), les poids entraînés et la définition des entrées et sorties qu'il accepte.
À travers ONNX Il est possible, par exemple, d'entraîner un modèle avec PyTorch ou TensorFlow, puis de l'exporter au format .onnx, exécutable dans tout environnement compatible. Cette approche, basée sur un standard commun, évite la dépendance à un framework spécifique et simplifie considérablement le déploiement en production, notamment pour la réutilisation du même modèle sur différents appareils.
Exécution ONNX Il s'agit du moteur d'inférence officiel pour ce format, une bibliothèque optimisée qui accélère l'exécution des modèles sur les CPU, les GPU et les accélérateurs dédiés tels que les NPU. Multiplateforme (Windows, Linux, macOS, edge computing et même navigateurs dans certains cas), elle prend en charge les modèles ONNX purs, mais aussi ceux issus de frameworks comme PyTorch, TensorFlow/Keras, TFLite et scikit-learn grâce à des conversions.
L'un des plus grands atouts d'ONNX Runtime est son système de Prestataires d'exécution (PE)Ce sont de petits « ponts » qui relient l'environnement d'exécution à différents composants matériels. Il existe des modules d'extension (EP) pour le processeur, DirectML, CUDA, TensorRT, OpenVINO, Qualcomm NN, et d'autres, chacun étant spécialisé dans l'exploitation d'un type de puce ou de chipset spécifique.
Cet écosystème dans son ensemble est complété par un contrôle de version très rigoureux et ensembles d'oppositionPour éviter que les modèles ne deviennent obsolètes du jour au lendemain, ONNX assure la rétrocompatibilité et utilise une représentation graphique, ce qui simplifie l'interopérabilité entre les frameworks et l'optimisation ultérieure des modèles.
Windows ML : la couche qui intègre ONNX Runtime à Windows 11

Windows ML (WinML) Il s'agit du middleware que Microsoft a créé pour intégrer ONNX Runtime au sein même du système d'exploitation et offrir aux développeurs une API cohérente pour exécuter des modèles d'IA sur Windows 10 (à partir de la version 1809) et, en particulier, sur Windows 11.
Ce qui est formidable avec Windows ML, c'est qu'il essaie CPU, GPU et NPU comme un ensemble unifié de ressources (même dans Windows avec ARM et NPU), au lieu de vous obliger à gérer chaque puce séparément. Concrètement, cela signifie que le système peut décider automatiquement où exécuter chaque partie du modèle pour obtenir les meilleures performances, en tenant compte de la présence (ou de l'absence) d'un NPU, de la puissance du GPU et de la charge du CPU.
Sous Windows 11, et encore plus à partir de la version 24H2Microsoft recommande clairement WinML comme méthode principale d'utilisation d'ONNX Runtime. WinML gère la distribution et la maintenance de la copie partagée d'ONNX Runtime incluse dans le système, ainsi que les fournisseurs d'exécution qui permettent la communication avec le matériel d'AMD, d'Intel, de NVIDIA ou de Qualcomm.
Du point de vue du développeur, WinML est disponible en tant qu'API WinRT dans l'espace de noms Windows.IA.Apprentissage automatiqueIntégrée à la DLL Microsoft.Windows.AI.MachineLearning.dll, l'API ONNX Runtime peut également être utilisée dans vos applications grâce au kit de développement logiciel (SDK) pour applications Windows et aux packages NuGet dédiés, sans avoir à inclure manuellement toutes les dépendances.
WinML propose également des automatisations qui font la différence, telles que : sélection dynamique du fournisseur d'exécution Le choix du mode le plus adapté dépend du matériel de l'utilisateur. Bien entendu, si nécessaire, vous pouvez forcer ou modifier explicitement cette sélection pour les cas complexes.
Avantages de l'exécution locale des modèles ONNX sous Windows 11
L'utilisation d'ONNX Runtime et de Windows ML pour exécuter des modèles localement sous Windows 11 présente des avantages indéniables par rapport à une dépendance systématique au cloud. Le premier et le plus évident est… IntimitéLes données ne quittent pas l'appareil de l'utilisateur, ce qui est essentiel lorsqu'on travaille avec des informations sensibles ou réglementées.
Outre la confidentialité, l'exécution locale réduit la latence Il s'agit d'une amélioration significative, car elle élimine les allers-retours vers les serveurs distants. C'est crucial pour les applications interactives, les assistants de bureau intelligents, les outils de création, ou tout scénario exigeant des réponses immédiates, même sur du matériel modeste.
Un autre point en sa faveur est sa capacité à déconnecté de travailGrâce aux modèles et à l'environnement d'exécution installés sur l'appareil, votre application peut continuer à effectuer des inférences même sans accès à Internet : utile en voyage, dans des environnements industriels isolés ou simplement comme mesure de résilience contre les pannes de réseau.
D'un point de vue économique, se passer de services cloud continus réduire les coûtsCeci est particulièrement avantageux dans les environnements comportant de nombreux appareils ou une utilisation intensive. Au lieu de payer pour l'inférence sur un serveur distant, vous exploitez la puissance déjà disponible sur le parc informatique de l'organisation.
Enfin, travailler localement avec des modèles ONNX vous offre un contrôle total sur le pipelineVous pouvez adapter le prétraitement, le post-traitement et les modèles de quantification pour les alléger, modifier l'EP en fonction du matériel et mettre à jour la version d'ONNX Runtime quand vous le souhaitez, sans dépendre de modifications externes dans une API tierce.
Intégration d'ONNX Runtime dans Windows ML : API et modes d'utilisation

Windows ML inclut un Copie partagée de l'environnement d'exécution ONNX avec ses API complètes, permettant à une application qui installe le SDK correspondant d'accéder à la fois aux API WinML classiques et à la surface d'exécution ONNX que vous connaissez peut-être déjà d'autres environnements.
En Python, par exemple, le module est importé exactement de la même manière que lorsque vous utilisez ONNX Runtime pur, simplement avec import onnxruntime as ortCela signifie que votre code d'inférence peut être pratiquement identique sous Windows ML et sur d'autres systèmes, avec l'avantage supplémentaire que Windows gère les détails matériels lors de l'utilisation de WinML.
En .NET (C#, VB.NET, etc.), la méthode de travail la plus courante consiste à… Paquets NuGet como Microsoft.ML.OnnxRuntime o Microsoft.ML.OnnxRuntime.DirectMLLa première permet aux modèles de s'exécuter sur des processeurs et autres processeurs standard ; la seconde intègre le fournisseur d'exécution DirectML pour tirer parti du GPU et d'autres accélérateurs compatibles avec cette couche.
WinML, pour sa part, offre un API WinRT Il est compatible avec C#, C++/WinRT et d'autres langages pris en charge, et propose des types spécifiques pour les modèles, les sessions d'inférence et les liaisons d'entrée/sortie. De plus, une version redistribuable de WinML est disponible pour votre application, notamment lorsque la version Windows installée ne contient pas la variante requise.
Si vous préférez, vous pouvez également utiliser le API C L'utilisation d'ONNX Runtime sous Windows, plutôt que de l'API WinRT, est particulièrement avantageuse pour les applications natives hautes performances ou lorsque vous souhaitez intégrer votre propre version personnalisée de l'environnement d'exécution. En effet, le package WinRT peut coexister avec une version de onnxruntime.dll que vous fournissez, à condition de la remplacer correctement.
Prérequis et options de déploiement sous Windows 11
Pour tirer le meilleur parti d'ONNX Runtime et de Windows ML sous Windows 11, il est important de comprendre ce que SDK et les versions système dont vous avez besoin, et effectuez une diagnostic des pannes matérielles Des problèmes antérieurs ont été constatés avec des équipements présentant un comportement erratique.
En Windows 10 (1809+) Sur les systèmes Windows 11 antérieurs à la version 24H2, vous pouvez utiliser ONNX Runtime sans problème, bien que la sélection du fournisseur d'exécution et la configuration des modèles et des dépendances nécessitent une gestion plus manuelle. Néanmoins, l'intégration de DirectML vous permet déjà d'exploiter le GPU sur de nombreuses machines.
Dans Windows 11 24H2 et versions ultérieures, WinML franchit plusieurs étapes importantes. automationCela permet une gestion plus intelligente de la sélection optimale des processeurs additionnels (EP) en fonction du matériel installé (CPU, GPU, NPU) et de la disponibilité des EP proposés par des partenaires tels qu'AMD, Intel, NVIDIA ou Qualcomm. Pour couvrir l'ensemble de l'écosystème des semi-conducteurs, la combinaison WinML + ONNX Runtime est l'option recommandée.
En matière de développement, en .NET, il est courant d'avoir Visual Studio 2022 ou une version ultérieure et le kit de développement logiciel (SDK) pour applications Windows (par exemple, la version 1.3 ou ultérieure dans les scénarios WinUI 3). Pour les projets WinUI 3 empaquetés (MSIX), il suffit d'ajouter la référence au package. Microsoft.AI.MachineLearning Si vous comptez utiliser l'API WinML, ou les packages d'exécution ONNX dont vous avez besoin si vous préférez cette solution.
Pour les scénarios de bureau classiques, WindowsUI 3 La prise en charge des applications fournies avec MSIX est excellente. La rétrocompatibilité avec Windows 8.1 et versions ultérieures est également assurée pour certaines configurations d'exécution. Toutefois, pour tirer pleinement parti du matériel moderne, il est préférable d'opter pour Windows 11 24H2 ou une version ultérieure.
Exemple pratique : exécution d’un modèle ONNX en .NET avec GPU sous Windows 11
Une manière très simple de constater le potentiel d'ONNX Runtime sous Windows 11 consiste à créer une application de bureau qui classe les images à l'aide d'un modèle ONNX appelé ResNet50Dans ce scénario, l'application permet à l'utilisateur de choisir une photo, l'affiche à l'écran et liste les objets détectés avec leur probabilité.
Vous pouvez créer un Projet WinUI 3 En C#, tapez « Application vide et packagée (WinUI 3 sur ordinateur) » et nommez-la, par exemple, ONNXWinUIExampleAprès avoir créé le projet, l'étape suivante consiste à ajouter les packages NuGet nécessaires :
- Microsoft.ML.OnnxRuntime.DirectML, qui fournit les API permettant d'exécuter des modèles ONNX sur le GPU via DirectML.
- SixLabors.ImageSharp, ce qui facilite le prétraitement des images (redimensionnement, normalisation, etc.).
- SharpDX.DXGI, qui vous permet de découvrir et de manipuler les périphériques DirectX depuis C#.
Une fois les paquets installés, utilisation des directives au fichier MainWindow.xaml.cs pour accéder à ces API : Microsoft.ML.OnnxRuntime, Microsoft.ML.OnnxRuntime.Tensors, SharpDX.DXGI et les espaces de noms ImageSharp. Vous pouvez maintenant commencer à configurer la session d'inférence.
Le modèle ONNX (par exemple, resnet50-v2-7.onnx) est téléchargé depuis le dépôt de modèles officiel ONNX et copié dans un dossier de projet, tel que modelLes propriétés du fichier indiquent « Copier dans le répertoire de sortie : Copier si plus récent » afin qu'il soit disponible lors de l'exécution avec l'exécutable.
L'interface utilisateur peut être très simple : une bouton pour sélectionner une photoUn contrôle Image pour l'afficher et un TextBlock pour afficher les prédictions. Dans le XAML principal, définissez simplement une grille à trois colonnes et placez-y ces contrôles, en assignant l'événement de clic du bouton à un gestionnaire appelé, par exemple, myButton_Click.
Initialisation de la session d'inférence avec DirectML
L'élément central de l'exemple est l'initialisation de la session d'inférence, qui est effectuée dans une méthode auxiliaire de type InitModelCette méthode vérifie d'abord si la session a déjà été créée afin d'éviter de le faire plusieurs fois et, si elle n'existe pas, procède à la sélection d'une carte graphique et à la configuration des options de session.
Avec la bibliothèque SharpDX.DXGI Un objet Factory1 est créé et le premier adaptateur disponible est obtenu (par exemple, l'index 0). Ensuite, un objet est instancié. SessionOptionsLe niveau de journalisation souhaité est défini et un appel est effectué à AppendExecutionProvider_DML(deviceId) pour lier la session au fournisseur DirectML associé à ce périphérique graphique.
Enfin, le Session d'inférence En fournissant le chemin d'accès au modèle ONNX et les options configurées, l'application exploitera le GPU (ou un autre accélérateur compatible avec DirectML) de manière quasi transparente pour toutes les inférences, tout en conservant un contrôle précis si nécessaire.
Cette séparation entre l'initialisation (InitModel) et l'exécution concrète est importante pour les performances, car éviter de recréer la session À chaque fois que l'utilisateur sélectionne une nouvelle image, une session est initialisée. Généralement, une seule session est initialisée par modèle et réutilisée pendant toute la durée de vie de l'application.
Prétraitement des images et exécution du modèle
Dans le gestionnaire de boutons, la première chose à faire est de permettre à l'utilisateur de choisir une image à l'aide d'un Sélecteur de fichierslimité aux extensions courantes telles que .jpg, .jpeg, .png ou .gif. Une fois le fichier sélectionné (ou annulé, auquel cas le processus s'arrête), la photo s'affiche dans l'interface à l'aide d'une BitmapImage.
Vient ensuite le prétraitement : le fichier est ouvert comme un flux, le format est détecté avec ImageSharp L'image est chargée dans une structure avec des pixels RVB 24 bits. Elle est ensuite redimensionnée à 224 × 224 pixels, la taille d'entrée attendue par ResNet50, en utilisant un mode de recadrage afin de conserver au mieux les proportions.
L'étape suivante consiste à normaliser les pixels en fonction des paramètres utilisés pour entraîner le modèle. L'image est ensuite redimensionnée. 224 × 224 Les pixels et les vecteurs de moyennes et d'écarts types sont définis (par exemple, 255* et 255*) pour remplir un DenseTensor<float> façonné.
Le tendeur étant déjà préparé, un Valeur Ort qui pointe directement vers le tampon DenseTensor en utilisant CreateTensorValueFromMemoryCela évite les copies supplémentaires au sein de l'environnement d'exécution ONNX. Cette valeur OrtValue est insérée dans un dictionnaire d'entrée en l'associant au nom d'entrée du modèle (par exemple, « data »).
Avant l'exécution, la session d'inférence est vérifiée afin de s'assurer qu'elle est initialisée ; si ce n'est pas le cas, la méthode InitModel est appelée. Ensuite, un objet est créé. Options d'exécution et on l'appelle _inferenceSession.Run Les options, le dictionnaire d'entrée et la collection de noms de sortie de la session sont transmis. Le résultat est une collection immuable d'objets OrtValues contenant les tenseurs de sortie.
Post-traitement : softmax, étiquettes et visualisation des résultats
Le modèle ResNet50 renvoie ses prédictions sous forme de tenseur avec logisAutrement dit, des valeurs non normalisées qui doivent être transformées en probabilités. Pour ce faire, le tampon de sortie est extrait sous forme de Span<float> et elle est copiée dans un tableau de nombres flottants sur lequel des opérations LINQ standard ou des boucles classiques sont appliquées.
Pour obtenir les probabilités, on calcule une fonction. softmaxOn additionne les exponentielles de tous les logits, puis on divise l'exponentielle de chacun par cette somme, ce qui donne des valeurs comprises dans l'intervalle [0, 1] qui, ensemble, totalisent 1. Le résultat est un ensemble de probabilités associées aux différentes classes avec lesquelles le modèle a été entraîné.
L'indice de chaque position dans le résultat correspond à une étiquette de classe prédéfinie. Ces étiquettes sont généralement regroupées dans une classe auxiliaire, par exemple. Carte des étiquettes, qui expose un tableau statique de chaînes de caractères (Labels) dans le bon ordre. Cette classe peut être copiée à partir des exemples officiels d'ONNX Runtime sur GitHub, où des catégories telles que « tanche », « poisson rouge », « grand requin blanc » et des centaines d'autres entrées sont répertoriées.
Pour faciliter le traitement des résultats, il est courant de définir une autre classe simple, de type Prédiction, avec des propriétés Label y ConfidenceÀ partir du tableau des probabilités, une séquence de prédiction est générée en associant l'index à l'étiquette et la valeur à la probabilité, et elle est ordonnée de la confiance la plus élevée à la plus faible pour extraire, par exemple, les 10 plus probables.
Enfin, l'application peut imprimer ces prédictions sur le Bloc de texte Depuis l'interface, il suffit d'ajouter des lignes comme « Étiquette : X, Confiance : Y ». L'utilisateur pourra alors voir quels objets le modèle détecte dans son image et avec quel niveau de confiance, sans avoir besoin de comprendre quoi que ce soit aux tenseurs ou à ONNX sous-jacents.
Utilisation de Windows ML et WinUI 3 avec des modèles ONNX
Outre l'exemple avec ONNX Runtime directement, Windows 11 offre un moyen très pratique de intégrer les modèles ONNX dans les applications modernes utilisant Windows ML et WinUI 3. Dans cette approche, l'application utilise le package NuGet Microsoft.AI.MachineLearning pour charger le modèle, préparer les entrées et exécuter l'inférence nativement.
Le processus général est généralement le suivant : créer un projet WinUI 3 empaqueté, ajouter le package Windows ML, copier le modèle ONNX dans un dossier comme Actifs/ML et indiquez qu'il doit être copié dans le répertoire de sortie. À partir de là, l'objet modèle est construit à partir du fichier et une session ou une liaison est créée pour gérer les entrées et les sorties.
Un aspect intéressant de WinML est sa capacité à fonctionner directement avec les types de systèmes, tels que : Windows.Media.VideoFrameCela permet, par exemple, le transfert d'images en temps réel de la caméra de l'appareil directement vers le modèle, sans avoir à effectuer de conversions étranges ni de copies inutiles entre les tampons.
Dans des scénarios de classification d'images simples, comme un modèle MNIST Pour une image en niveaux de gris de 28x28 pixels, le prétraitement se limite à remplir un tenseur avec des valeurs normalisées et à construire la structure d'entrée appropriée pour la session WinML. Le résultat est généralement un vecteur de probabilité pour chaque classe (0-9), dont on extrait l'indice correspondant à la valeur maximale.
WinML s'appuie sur DirectML Les points d'extension ONNX Runtime déterminent comment et où exécuter le modèle, mais cette opération est quasi automatique : si un GPU ou un NPU est disponible, il les utilisera ; sinon, il utilisera le CPU. Vous pouvez également consulter à tout moment les informations relatives au périphérique utilisé, que ce soit pour votre propre télémétrie ou pour adapter le comportement de l'application.
Compatibilité matérielle : AMD, Intel, NVIDIA, Qualcomm et NPU
Microsoft a travaillé directement avec principaux fabricants de puces Cela permet à Windows ML et à ONNX Runtime de tirer pleinement parti des dernières générations de matériel. Chaque fournisseur conserve son propre fournisseur d'exécution optimisé, distribué et enregistré par Windows ML afin de simplifier le travail des développeurs.
AMD intègre la prise en charge de Windows ML à la plateforme IA RyzenGrâce à un processeur d'extension (EP) capable d'exploiter le NPU, le GPU et le CPU de ses processeurs, les modèles ONNX peuvent adapter leur utilisation des accélérateurs en fonction de la charge de travail, sans nécessiter de code spécifique pour chacun d'eux.
Intel combine ses piles OpenVINO Grâce à Windows ML, les PC équipés de processeurs Intel Core Ultra peuvent choisir entre le CPU, le GPU ou le NPU selon leurs besoins. OpenVINO offre des optimisations d'inférence très performantes, intégrées à l'écosystème WinML.
NVIDIA, pour sa part, propose TensorRT pour RTX En tant que fournisseur d'exécution pour ONNX Runtime, sur les systèmes équipés de GPU GeForce RTX ou RTX PRO, il permet la génération de moteurs d'inférence hautement optimisés pour chaque système, améliorant ainsi les temps de réponse et réduisant la consommation de ressources par rapport aux solutions plus génériques.
Qualcomm et Microsoft ont collaboré pour tirer le meilleur parti des NPU de cette série. Muflier Xen utilisant l'EP Réseau neuronal Qualcomm Pour le NPU, il est possible de le compléter par un GPU et un CPU grâce à l'intégration des modules d'extension ONNX Runtime standard. Ceci est particulièrement pertinent pour les appareils Windows sur ARM conçus pour l'autonomie et le travail mobile.
Outils de conversion et de développement de modèles
Pour faire fonctionner un modèle ONNX sous Windows 11, il vous faut d'abord, bien sûr, ce modèle. Vous pouvez utiliser la méthode suivante : Zoo modèle ONNX, qui propose des modèles pré-entraînés pour des tâches telles que la classification d'images, la détection d'objets, le NLP ou la génération de texte, entre autres.
Une autre option très courante consiste à convertir vos propres modèles à partir de frameworks d'entraînement comme PyTorch ou TensorFlow, en utilisant des outils comme torch.onnx.export, tf2onnx ou les utilitaires spécifiques à l'environnement d'exécution ONNX (onnxruntime-tools), qui permettent d'exporter des réseaux neuronaux complets au format ONNX tout en conservant leur structure et leurs poids.
Dans le contexte de Windows, Microsoft propose Kit d'outils d'IA pour VS CodeCet ensemble d'outils centralise la conversion du modèle PyTorch au format ONNX, sa quantification pour réduire sa taille et sa consommation de ressources, son optimisation et sa compilation, ainsi que son évaluation avant déploiement. L'objectif est de garantir que le modèle soit prêt à fonctionner efficacement avec Windows ML.
Vous pouvez également trouver des ressources pratiques dans le Galerie de développement de l'IA, un espace où des cas d'utilisation et des exemples concrets sont présentés, vous permettant d'expérimenter localement des modèles personnalisés sur Windows ML, sans avoir à réinventer l'ensemble du pipeline à chaque fois.
Cas d'utilisation courants de ONNX Runtime sous Windows 11
Avec toute cette infrastructure, il est facile d'imaginer des applications concrètes qui tireraient profit d'ONNX Runtime sur Windows 11. La plus immédiate est… classement des imagesDes applications qui étiquettent les photos de produits aux outils qui reconnaissent les documents ou classent le contenu multimédia archivé.
La détection des anomalies locales Voici un autre scénario très intéressant, par exemple pour les logiciels de surveillance qui analysent des indicateurs en temps réel directement sur le PC ou dans des environnements périphériques hors ligne. Au lieu d'envoyer des données brutes vers le cloud, le modèle ONNX peut les évaluer localement et ne notifier que lorsqu'un élément est réellement pertinent.
Il y a également beaucoup de place pour assistants intelligents hors ligneIntégrés aux applications de productivité ou aux flux de travail spécifiques à l'entreprise, les modèles de langage complets et volumineux nécessitent généralement davantage de ressources ; des versions allégées ou spécialisées peuvent être exécutées avec succès via l'environnement d'exécution ONNX.
D'autres exemples typiques incluent les modèles de NLP léger pour l'analyse de texte, la reconnaissance d'écriture manuscrite ou de chiffres (comme MNIST), l'amélioration d'images avec des réseaux neuronaux (par exemple, des filtres intelligents) ou même des inférences combinées dans des applications multimédias avancées.
Dans tous ces scénarios, le exécution locale Cela réduit la dépendance aux services externes et vous permet d'offrir une expérience utilisateur très fluide, notamment lorsque le matériel dispose de GPU ou de NPU modernes dont Windows ML peut automatiquement tirer parti.
