Suivez ces étapes pour commencer à utiliser ces ressources :
- Forkez le dépôt : Cliquez sur
- Clonez le dépôt :
git clone https://github.com/microsoft/edgeai-for-beginners.git - Rejoignez le Discord Azure AI Foundry et rencontrez des experts ainsi que d’autres développeurs
Arabic | Bengali | Bulgarian | Burmese (Myanmar) | Chinese (Simplified) | Chinese (Traditional, Hong Kong) | Chinese (Traditional, Macau) | Chinese (Traditional, Taiwan) | Croatian | Czech | Danish | Dutch | Estonian | Finnish | French | German | Greek | Hebrew | Hindi | Hungarian | Indonesian | Italian | Japanese | Kannada | Khmer | Korean | Lithuanian | Malay | Malayalam | Marathi | Nepali | Nigerian Pidgin | Norwegian | Persian (Farsi) | Polish | Portuguese (Brazil) | Portuguese (Portugal) | Punjabi (Gurmukhi) | Romanian | Russian | Serbian (Cyrillic) | Slovak | Slovenian | Spanish | Swahili | Swedish | Tagalog (Filipino) | Tamil | Telugu | Thai | Turkish | Ukrainian | Urdu | Vietnamese
Vous préférez cloner localement ?
Ce dépôt comprend plus de 50 traductions linguistiques, ce qui augmente significativement la taille du téléchargement. Pour cloner sans les traductions, utilisez le sparse checkout :
Bash / macOS / Linux :
git clone --filter=blob:none --sparse https://github.com/microsoft/edgeai-for-beginners.git cd edgeai-for-beginners git sparse-checkout set --no-cone '/*' '!translations' '!translated_images'CMD (Windows) :
git clone --filter=blob:none --sparse https://github.com/microsoft/edgeai-for-beginners.git cd edgeai-for-beginners git sparse-checkout set --no-cone "/*" "!translations" "!translated_images"Cela vous fournit tout ce dont vous avez besoin pour compléter le cours avec un téléchargement beaucoup plus rapide.
Si vous souhaitez que des langues supplémentaires soient prises en charge, elles sont listées ici
Bienvenue dans EdgeAI pour Débutants – votre parcours complet dans le monde transformateur de l'Intelligence Artificielle en périphérie (Edge). Ce cours comble le fossé entre des capacités d’IA puissantes et le déploiement pratique et réel sur des dispositifs Edge, vous permettant d'exploiter le potentiel de l’IA directement là où les données sont générées et où les décisions doivent être prises.
Ce cours vous conduit des concepts fondamentaux jusqu’aux implémentations prêtes pour la production, couvrant :
- Petits Modèles de Langage (SLM) optimisés pour le déploiement en périphérie
- Optimisation consciente du matériel sur diverses plateformes
- Inférence en temps réel avec capacités de préservation de la vie privée
- Stratégies de déploiement en production pour applications d’entreprise
Edge AI représente un changement de paradigme qui répond aux défis modernes cruciaux :
- Confidentialité & Sécurité : Traitez les données sensibles localement sans exposition au cloud
- Performance en temps réel : Éliminez la latence réseau pour les applications critiques en temps
- Efficacité des coûts : Réduisez la bande passante et les dépenses informatiques cloud
- Fonctionnement résilient : Maintenez la fonctionnalité en cas de coupures réseau
- Conformité réglementaire : Répondez aux exigences de souveraineté des données
Edge AI désigne l’exécution d’algorithmes IA et de modèles de langage localement sur le matériel, proche du lieu où les données sont générées, sans recourir aux ressources cloud pour l’inférence. Cela réduit la latence, améliore la confidentialité et permet la prise de décisions en temps réel.
- Inférence sur appareil : Les modèles IA fonctionnent sur des dispositifs Edge (téléphones, routeurs, microcontrôleurs, PC industriels)
- Capacité hors ligne : Fonctionne sans connexion Internet persistante
- Faible latence : Réponses immédiates adaptées aux systèmes en temps réel
- Souveraineté des données : Conserve les données sensibles localement, améliorant sécurité et conformité
Les SLM tels que Phi-4, Mistral-7B, et Gemma sont des versions optimisées de grands LLM — entraînés ou distillés pour :
- Empreinte mémoire réduite : Usage efficace de la mémoire limitée des appareils Edge
- Demandes de calcul réduites : Optimisés pour la performance CPU et GPU périphériques
- Temps de démarrage plus rapides : Initialisation rapide pour des applications réactives
Ils débloquent des capacités NLP puissantes tout en respectant les contraintes de :
- Systèmes embarqués : Appareils IoT et contrôleurs industriels
- Appareils mobiles : Smartphones et tablettes avec capacités hors ligne
- Appareils IoT : Capteurs et dispositifs intelligents aux ressources limitées
- Serveurs Edge : Unités de traitement locales avec ressources GPU limitées
- Ordinateurs personnels : Scénarios de déploiement sur bureau et portable
| Module | Sujet | Domaine d’Intérêt | Contenu Clé | Niveau | Durée |
|---|---|---|---|---|---|
| 📖 00 | Introduction à EdgeAI | Fondations & Contexte | Vue d’ensemble d’EdgeAI • Applications industrielles • Introduction aux SLM • Objectifs d’apprentissage | Débutant | 1-2 hrs |
| 📚 01 | Fondamentaux EdgeAI | Comparaison Cloud vs Edge AI | Fondamentaux EdgeAI • Études de cas réelles • Guide d’implémentation • Déploiement Edge | Débutant | 3-4 hrs |
| 🧠 02 | Fondements des Modèles SLM | Familles & architecture de modèles | Famille Phi • Famille Qwen • Famille Gemma • BitNET • μModel • Phi-Silica | Débutant | 4-5 hrs |
| 🚀 03 | Pratique de Déploiement SLM | Déploiement local & cloud | Apprentissage avancé • Environnement local • Déploiement cloud | Intermédiaire | 4-5 hrs |
| ⚙️ 04 | Boîte à outils d’Optimisation de Modèle | Optimisation multiplateforme | Introduction • Llama.cpp • Microsoft Olive • OpenVINO • Apple MLX • Synthèse du workflow | Intermédiaire | 5-6 hrs |
| 🔧 05 | Production SLMOps | Opérations en production | Introduction SLMOps • Distillation de modèles • Affinage • Déploiement en production | Avancé | 5-6 hrs |
| 🤖 06 | Agents IA & Appel de Fonction | Cadres d’agents & MCP | Introduction aux agents • Appel de fonction • Protocole de contexte de modèle | Avancé | 4-5 hrs |
| 💻 07 | Implémentation de Plateforme | Échantillons multiplateformes | Outils IA • Foundry Local • Développement Windows | Avancé | 3-4 hrs |
| 🏭 08 | Boîte à outils Foundry Local | Échantillons prêts pour production | Applications exemples (voir détails ci-dessous) | Expert | 8-10 hrs |
- 01 : Démarrage rapide REST Chat
- 02 : Intégration SDK OpenAI
- 03 : Découverte & Benchmarking de modèle
- 04 : Application Chainlit RAG
- 05 : Orchestration Multi-agent
- 06 : Routeur Models-as-Tools
- 07 : Client API direct
- 08 : Application Chat Windows 11
- 09 : Système Multi-agent Avancé
- 10 : Framework Foundry Tools
Matériel d’atelier complet avec implémentations prêtes pour la production :
- Guide de l’atelier - Objectifs d’apprentissage complets, résultats et navigation des ressources
- Exemples Python (6 sessions) - Mis à jour avec meilleures pratiques, gestion des erreurs, et documentation complète
- Notebooks Jupyter (8 interactifs) - Tutoriels pas à pas avec benchmarks et suivi des performances
- Guides de session - Guides markdown détaillés pour chaque session d’atelier
- Outils de validation - Scripts pour vérifier la qualité du code et exécuter des tests de validation
Ce que vous construirez :
- Applications de chat IA locales avec support de streaming
- Pipelines RAG avec évaluation de qualité (RAGAS)
- Outils de benchmark et comparaison multi-modèle
- Systèmes d’orchestration multi-agent
- Routage intelligent de modèles avec sélection basée sur les tâches
Construisez une chaîne de production de podcasts alimentée par l’IA de A à Z ! Cet atelier immersif vous apprend à créer un système multi-agents complet qui transforme des idées en épisodes de podcast professionnels.
🎬 Démarrez l’atelier AI Podcast Studio
Votre mission : Lancez "Future Bytes" — un podcast tech entièrement animé par des agents IA que vous construirez vous-même. Pas de dépendance au cloud, pas de coûts d’API — tout fonctionne localement sur votre machine.
Ce qui rend cet atelier unique :
- 🤖 Orchestration multi-agents réelle — Construisez des agents IA spécialisés qui recherchent, écrivent et produisent de l’audio
- 🎯 Chaîne de production complète — De la sélection du sujet à la sortie finale audio du podcast
- 💻 Déploiement 100% local — Utilise Ollama et des modèles locaux (Qwen-3-8B) pour une confidentialité et un contrôle complets
- 🎤 Intégration Text-to-Speech — Transformez des scripts en conversations multi-intervenants au son naturel
- ✋ Flux de travail avec validation humaine — Des étapes d’approbation garantissent la qualité tout en maintenant l’automatisation
Parcours d’apprentissage en trois actes :
| Acte | Focus | Compétences principales | Durée |
|---|---|---|---|
| Acte 1 : Rencontrez vos assistants IA | Construisez votre premier agent IA | Intégration d’outils • Recherche web • Résolution de problèmes • Raisonnement agentique | 2-3 h |
| Acte 2 : Assemblez votre équipe de production | Orchestration de plusieurs agents | Coordination d’équipe • Flux de validation • Interface DevUI • Supervision humaine | 3-4 h |
| Acte 3 : Donnez vie à votre podcast | Génération audio du podcast | Synthèse vocale • Synthèse multi-intervenants • Audio longue durée • Automatisation complète | 2-3 h |
Technologies utilisées :
- Microsoft Agent Framework — Orchestration et coordination multi-agents
- Ollama — Exécution locale de modèles IA (sans cloud)
- Qwen-3-8B — Modèle de langage open source optimisé pour les tâches agentiques
- API Text-to-Speech — Synthèse vocale naturelle pour la génération de podcasts
Prise en charge matérielle :
- ✅ Mode CPU — Fonctionne sur tout ordinateur moderne (8 Go+ RAM recommandé)
- 🚀 Accélération GPU — Inférence beaucoup plus rapide avec GPU NVIDIA/AMD
- ⚡ Support NPU — Accélération par unité de traitement neuronal nouvelle génération
Idéal pour :
- Développeurs apprenant les systèmes IA multi-agents
- Toute personne intéressée par l’automatisation IA et les flux de travail
- Créateurs de contenu explorant la production assistée par IA
- Étudiants étudiant les modèles pratiques d’orchestration IA
Commencez à construire : 🎙️ Atelier AI Podcast Studio →
- Durée totale : 36-45 heures
- Parcours débutant : Modules 01-02 (7-9 heures)
- Parcours intermédiaire : Modules 03-04 (9-11 heures)
- Parcours avancé : Modules 05-07 (12-15 heures)
- Parcours expert : Module 08 (8-10 heures)
- Architecture Edge AI : Concevoir des systèmes IA locaux privilégiés avec intégration cloud
- Optimisation des modèles : Quantifiez et compressez les modèles pour le déploiement en périphérie (gain de vitesse de 85 %, réduction de taille de 75 %)
- Déploiement multi-plateforme : Windows, mobile, embarqué et systèmes hybrides cloud-edge
- Opérations de production : Surveillance, montée en charge et maintenance de l’IA en périphérie en production
- Applications Foundry Local Chat : Application native Windows 11 avec commutation de modèles
- Systèmes multi-agents : Coordinateur avec agents spécialisés pour des flux complexes
- Applications RAG : Traitement local de documents avec recherche vectorielle
- Routeurs de modèles : Sélection intelligente entre modèles selon l’analyse des tâches
- Frameworks API : Clients prêts pour la production avec streaming et surveillance de santé
- Outils multi-plateformes : Modèles d’intégration LangChain/Semantic Kernel
Fabrication • Santé • Véhicules autonomes • Villes intelligentes • Applications mobiles
Parcours d’apprentissage recommandé (20-30 heures au total) :
- 📖 Introduction (Introduction.md) : Fondations EdgeAI + contexte industriel + cadre d’apprentissage
- 📚 Fondations (Modules 01-02) : Concepts EdgeAI + familles de modèles SLM
- ⚙️ Optimisation (Modules 03-04) : Déploiement + cadres de quantification
- 🚀 Production (Modules 05-06) : SLMOps + agents IA + appel de fonctions
- 💻 Implémentation (Modules 07-08) : Exemples de plateformes + boîte à outils Foundry Local
Chaque module inclut théorie, exercices pratiques et exemples de code prêts pour la production.
Rôles techniques : Architecte solutions EdgeAI • Ingénieur ML (Edge) • Développeur AI IoT • Développeur IA mobile
Secteurs industriels : Fabrication 4.0 • Technologies de santé • Systèmes autonomes • FinTech • Électronique grand public
Projets portfolio : Systèmes multi-agents • Applications RAG en production • Déploiement multi-plateformes • Optimisation des performances
edgeai-for-beginners/
├── 📖 introduction.md # Foundation: EdgeAI Overview & Learning Framework
├── 📚 Module01-04/ # Fundamentals → SLMs → Deployment → Optimization
├── 🔧 Module05-06/ # SLMOps → AI Agents → Function Calling
├── 💻 Module07/ # Platform Samples (VS Code, Windows, Jetson, Mobile)
├── 🏭 Module08/ # Foundry Local Toolkit + 10 Comprehensive Samples
│ ├── samples/01-06/ # Foundation: REST, SDK, RAG, Agents, Routing
│ └── samples/07-10/ # Advanced: API Client, Windows App, Enterprise Agents, Tools
├── 🌐 translations/ # Multi-language support (8+ languages)
└── 📋 STUDY_GUIDE.md # Structured learning paths & time allocation
✅ Apprentissage progressif : Théorie → Pratique → Déploiement en production
✅ Études de cas réelles : Microsoft, Japan Airlines, mises en œuvre d’entreprise
✅ Exemples pratiques : Plus de 50 exemples, 10 démonstrations complètes Foundry Local
✅ Focus performance : Amélioration de vitesse de 85 %, réduction de taille de 75 %
✅ Multi-plateforme : Windows, mobile, embarqué, hybride cloud-edge
✅ Prêt pour la production : Surveillance, montée en charge, sécurité, cadres de conformité
📖 Guide d’étude disponible : Parcours d’apprentissage structuré de 20 heures avec conseils de gestion du temps et outils d’auto-évaluation.
EdgeAI représente l’avenir du déploiement IA : local-first, respectant la vie privée et efficace. Maîtrisez ces compétences pour construire la prochaine génération d’applications intelligentes.
Notre équipe produit d’autres cours ! Découvrez :
Si vous êtes bloqué ou si vous avez des questions sur la création d’applications IA, rejoignez :
Si vous avez des retours sur le produit ou des erreurs lors du développement, visitez :
Clause de non-responsabilité :
Ce document a été traduit à l’aide du service de traduction IA Co-op Translator. Bien que nous nous efforcions d’assurer l’exactitude, veuillez noter que les traductions automatiques peuvent contenir des erreurs ou des inexactitudes. Le document original dans sa langue native doit être considéré comme la source faisant foi. Pour les informations critiques, une traduction professionnelle humaine est recommandée. Nous déclinons toute responsabilité en cas de malentendus ou de mauvaises interprétations découlant de l’utilisation de cette traduction.
