Suivez ces étapes pour commencer à utiliser ces ressources :
- Forkez le Dépôt : Cliquez sur
- Clonez le Dépôt :
git clone https://github.com/microsoft/edgeai-for-beginners.git - Rejoignez Le Discord Azure AI Foundry et rencontrez des experts et d’autres développeurs
Arabe | Bengali | Bulgare | Birman (Myanmar) | Chinois (Simplifié) | Chinois (Traditionnel, Hong Kong) | Chinois (Traditionnel, Macao) | Chinois (Traditionnel, Taïwan) | Croate | Tchèque | Danois | Néerlandais | Estonien | Finnois | Français | Allemand | Grec | Hébreu | Hindi | Hongrois | Indonésien | Italien | Japonais | Kannada | Coréen | Lituanien | Malais | Malayalam | Marathi | Népalais | Pidgin Nigérian | Norvégien | Persan (Farsi) | Polonais | Portugais (Brésil) | Portugais (Portugal) | Punjabi (Gurmukhi) | Roumain | Russe | Serbe (Cyrillique) | Slovaque | Slovène | Espagnol | Swahili | Suédois | Tagalog (Filipino) | Tamoul | Telugu | Thaï | Turc | Ukrainien | Ourdou | Vietnamien
Préférez Cloner Localement ?
Ce dépôt inclut plus de 50 traductions de langues ce qui augmente significativement la taille de téléchargement. Pour cloner sans traductions, utilisez un sparse checkout :
git clone --filter=blob:none --sparse https://github.com/microsoft/edgeai-for-beginners.git cd edgeai-for-beginners git sparse-checkout set --no-cone '/*' '!translations' '!translated_images'Cela vous donne tout ce dont vous avez besoin pour compléter le cours avec un téléchargement beaucoup plus rapide.
Si vous souhaitez ajouter la prise en charge d’autres langues de traduction, elles sont listées ici
Bienvenue dans EdgeAI pour Débutants – votre parcours complet dans le monde transformateur de l’Intelligence Artificielle en périphérie. Ce cours comble le fossé entre les puissantes capacités d'IA et le déploiement pratique et réel sur les appareils en périphérie, vous permettant d'exploiter le potentiel de l'IA directement là où les données sont générées et où les décisions doivent être prises.
Ce cours vous emmène des concepts fondamentaux aux implémentations prêtes pour la production, couvrant :
- Petits Modèles de Langage (SLM) optimisés pour le déploiement en périphérie
- Optimisation consciente du matériel sur diverses plateformes
- Inférence en temps réel avec des capacités de protection de la vie privée
- Stratégies de déploiement en production pour applications d’entreprise
Edge AI représente un changement de paradigme qui répond à des défis modernes critiques :
- Confidentialité & Sécurité : Traitez les données sensibles localement sans exposition au cloud
- Performance en temps réel : Éliminez la latence réseau pour les applications sensibles au temps
- Efficacité économique : Réduisez la bande passante et les coûts informatiques cloud
- Fonctionnement résilient : Maintenez la fonctionnalité lors de pannes réseau
- Conformité réglementaire : Respectez les exigences de souveraineté des données
Edge AI désigne l’exécution d’algorithmes d’IA et de modèles de langage localement sur le matériel, proche du lieu de génération des données, sans dépendre des ressources cloud pour l’inférence. Cela réduit la latence, améliore la confidentialité et permet une prise de décision en temps réel.
- Inférence sur l’appareil : les modèles d’IA s’exécutent sur des dispositifs de périphérie (téléphones, routeurs, microcontrôleurs, PC industriels)
- Capacité hors ligne : fonctionne sans connexion internet persistante
- Basse latence : réponses immédiates adaptées aux systèmes temps réel
- Souveraineté des données : garde les données sensibles localement, améliorant la sécurité et la conformité
Les SLM comme Phi-4, Mistral-7B, et Gemma sont des versions optimisées de grands LLM — entraînées ou distillées pour :
- Empreinte mémoire réduite : utilisation efficace de la mémoire limitée des appareils en périphérie
- Demande de calcul inférieure : optimisés pour la performance CPU et GPU en périphérie
- Temps de démarrage plus rapides : initialisation rapide pour des applications réactives
Ils offrent des capacités NLP puissantes tout en satisfaisant les contraintes de :
- Systèmes embarqués : dispositifs IoT et contrôleurs industriels
- Appareils mobiles : smartphones et tablettes avec capacités hors ligne
- Appareils IoT : capteurs et dispositifs intelligents aux ressources limitées
- Serveurs en périphérie : unités de traitement local avec ressources GPU limitées
- Ordinateurs personnels : scénarios de déploiement sur desktop et laptop
| Module | Sujet | Domaine d’Intérêt | Contenu Clé | Niveau | Durée |
|---|---|---|---|---|---|
| 📖 00 | Introduction à EdgeAI | Fondations & Contexte | Vue d’ensemble EdgeAI • Applications industrielles • Introduction aux SLM • Objectifs d’apprentissage | Débutant | 1-2 h |
| 📚 01 | Fondamentaux d’EdgeAI | Comparaison Cloud vs Edge AI | Fondamentaux EdgeAI • Études de cas réelles • Guide d’implémentation • Déploiement en périphérie | Débutant | 3-4 h |
| 🧠 02 | Fondations des Modèles SLM | Familles de modèles & architecture | Famille Phi • Famille Qwen • Famille Gemma • BitNET • μModel • Phi-Silica | Débutant | 4-5 h |
| 🚀 03 | Pratique de Déploiement SLM | Déploiement local & cloud | Apprentissage avancé • Environnement local • Déploiement cloud | Intermédiaire | 4-5 h |
| ⚙️ 04 | Boîte à outils d’Optimisation des Modèles | Optimisation multiplateforme | Introduction • Llama.cpp • Microsoft Olive • OpenVINO • Apple MLX • Synthèse des workflows | Intermédiaire | 5-6 h |
| 🔧 05 | Production SLMOps | Opérations en production | Introduction SLMOps • Distillation de modèles • Fine-tuning • Déploiement en production | Avancé | 5-6 h |
| 🤖 06 | Agents IA & Appel de Fonction | Cadres d’agent & MCP | Introduction aux agents • Appel de fonction • Protocole de contexte de modèle | Avancé | 4-5 h |
| 💻 07 | Implémentation Plateforme | Exemples multiplateformes | Boîte à outils IA • Foundry Local • Développement Windows | Avancé | 3-4 h |
| 🏭 08 | Boîte à outils Foundry Local | Exemples prêts pour production | Applications exemples (voir détails ci-dessous) | Expert | 8-10 h |
- 01 : REST Chat Quickstart
- 02 : Intégration SDK OpenAI
- 03 : Découverte & Benchmarking de Modèles
- 04 : Application Chainlit RAG
- 05 : Orchestration Multi-Agent
- 06 : Routeur Modèles-comme-Outils
- 07 : Client API Direct
- 08 : Application Chat Windows 11
- 09 : Système Multi-Agent Avancé
- 10 : Cadre d’Outils Foundry
Matériel complet d’atelier pratique avec implémentations prêtes pour la production :
- Guide de l’Atelier – Objectifs, résultats et navigation des ressources complets
- Exemples Python (6 sessions) – Mis à jour avec meilleures pratiques, gestion des erreurs, documentation complète
- Notebooks Jupyter (8 interactifs) – Tutoriels pas à pas avec benchmarking et suivi de performance
- Guides de Session – Guides markdown détaillés pour chaque session de l’atelier
- Outils de Validation – Scripts pour vérifier la qualité du code et exécuter des tests basiques
Ce que vous construirez :
- Applications de chat IA locales avec support de streaming
- Pipelines RAG avec évaluation de qualité (RAGAS)
- Outils de benchmarking et comparaison multi-modèles
- Systèmes d’orchestration multi-agent
- Routage intelligent de modèles avec sélection basée sur les tâches
Construisez un pipeline de production de podcast propulsé par IA depuis zéro ! Cet atelier immersif vous apprend à créer un système multi-agent complet qui transforme des idées en épisodes de podcast professionnels. 🎬 Commencez l’Atelier AI Podcast Studio
Votre Mission : Lancez "Future Bytes" — un podcast tech entièrement propulsé par des agents IA que vous créerez vous-même. Sans dépendances cloud, sans coûts d’API — tout s’exécute localement sur votre machine.
Ce qui rend ceci unique :
- 🤖 Orchestration Multi-Agents Réelle - Construisez des agents IA spécialisés qui recherchent, écrivent et produisent de l’audio
- 🎯 Chaîne de Production Complète - De la sélection du sujet à la sortie finale du podcast audio
- 💻 Déploiement 100 % Local - Utilise Ollama et des modèles locaux (Qwen-3-8B) pour une confidentialité et un contrôle total
- 🎤 Intégration Texte-en-Parole - Transformez les scripts en conversations naturelles multi-intervenants
- ✋ Flux de Travail avec Intervention Humaine - Des étapes d’approbation garantissent la qualité tout en maintenant l’automatisation
Parcours d’apprentissage en Trois Actes :
| Acte | Focus | Compétences Clés | Durée |
|---|---|---|---|
| Acte 1 : Rencontrez vos assistants IA | Construisez votre premier agent IA | Intégration d’outils • Recherche web • Résolution de problèmes • Raisonnement agentique | 2-3 h |
| Acte 2 : Assemblez votre équipe de production | Orchestration de plusieurs agents | Coordination d’équipe • Flux d’approbation • Interface DevUI • Supervision humaine | 3-4 h |
| Acte 3 : Donnez vie à votre podcast | Génération audio de podcast | Texte-en-parole • Synthèse multi-intervenants • Audio long format • Automatisation complète | 2-3 h |
Technologies Utilisées :
- Microsoft Agent Framework - Orchestration et coordination multi-agent
- Ollama - Environnement d’exécution IA local (pas besoin de cloud)
- Qwen-3-8B - Modèle de langage open-source optimisé pour les tâches agentiques
- APIs Texte-en-Parole - Synthèse vocale naturelle pour la génération de podcast
Support Matériel :
- ✅ Mode CPU - Fonctionne sur tout ordinateur moderne (8 Go+ RAM recommandé)
- 🚀 Accélération GPU - Inférence beaucoup plus rapide avec GPUs NVIDIA/AMD
- ⚡ Support NPU - Accélération par unité de traitement neuronal nouvelle génération
Parfait Pour :
- Développeurs apprenant les systèmes IA multi-agents
- Toute personne intéressée par l’automatisation IA et les flux de travail
- Créateurs de contenu explorant la production assistée par IA
- Étudiants étudiant les modèles pratiques d’orchestration IA
Commencez à Construire : 🎙️ L’Atelier AI Podcast Studio →
- Durée Totale : 36-45 heures
- Parcours Débutant : Modules 01-02 (7-9 heures)
- Parcours Intermédiaire : Modules 03-04 (9-11 heures)
- Parcours Avancé : Modules 05-07 (12-15 heures)
- Parcours Expert : Module 08 (8-10 heures)
- Architecture Edge AI : Concevez des systèmes IA local-first avec intégration cloud
- Optimisation de Modèle : Quantification et compression des modèles pour un déploiement edge (gain de vitesse de 85 %, réduction de taille de 75 %)
- Déploiement Multi-Plateforme : Windows, mobile, embarqué, et systèmes hybrides cloud-edge
- Opérations de Production : Surveillance, mise à l’échelle, et maintenance de l’IA edge en production
- Applications de Chat Local Foundry : Application native Windows 11 avec changement de modèle
- Systèmes Multi-Agents : Coordinateur avec agents spécialistes pour des flux de travail complexes
- Applications RAG : Traitement local de documents avec recherche vectorielle
- Routeurs de Modèles : Sélection intelligente entre modèles selon l’analyse de tâche
- Frameworks API : Clients prêts pour la production avec streaming et surveillance santé
- Outils Multi-Plateforme : Modèles d’intégration LangChain/Semantic Kernel
Fabrication • Santé • Véhicules Autonomes • Villes Intelligentes • Applications Mobiles
Parcours Recommandé (20-30 heures au total) :
- 📖 Introduction (Introduction.md) : Fondations EdgeAI + contexte industriel + cadre d’apprentissage
- 📚 Fondations (Modules 01-02) : Concepts EdgeAI + familles de modèles SLM
- ⚙️ Optimisation (Modules 03-04) : Déploiement + cadres de quantification
- 🚀 Production (Modules 05-06) : SLMOps + agents IA + appels de fonctions
- 💻 Implémentation (Modules 07-08) : Exemples plateforme + boîte à outils Foundry Local
Chaque module comprend théorie, exercices pratiques et échantillons de code prêts pour la production.
Rôles Techniques : Architecte Solutions EdgeAI • Ingénieur ML (Edge) • Développeur IA IoT • Développeur IA Mobile
Secteurs Industriels : Fabrication 4.0 • Technologies de santé • Systèmes autonomes • FinTech • Électronique grand public
Projets de Portefeuille : Systèmes multi-agents • Applications RAG en production • Déploiement multiplateforme • Optimisation des performances
edgeai-for-beginners/
├── 📖 introduction.md # Foundation: EdgeAI Overview & Learning Framework
├── 📚 Module01-04/ # Fundamentals → SLMs → Deployment → Optimization
├── 🔧 Module05-06/ # SLMOps → AI Agents → Function Calling
├── 💻 Module07/ # Platform Samples (VS Code, Windows, Jetson, Mobile)
├── 🏭 Module08/ # Foundry Local Toolkit + 10 Comprehensive Samples
│ ├── samples/01-06/ # Foundation: REST, SDK, RAG, Agents, Routing
│ └── samples/07-10/ # Advanced: API Client, Windows App, Enterprise Agents, Tools
├── 🌐 translations/ # Multi-language support (8+ languages)
└── 📋 STUDY_GUIDE.md # Structured learning paths & time allocation
✅ Apprentissage Progressif : Théorie → Pratique → Déploiement en production
✅ Études de Cas Réelles : Microsoft, Japan Airlines, implémentations en entreprise
✅ Exemples Pratiques : 50+ exemples, 10 démos complètes Foundry Local
✅ Focus Performance : Améliorations de vitesse de 85 %, réductions de taille de 75 %
✅ Multi-Plateforme : Windows, mobile, embarqué, hybride cloud-edge
✅ Prêt pour la Production : Surveillance, mise à l’échelle, sécurité, cadres conformité
📖 Guide d’Étude Disponible : Parcours d’apprentissage structuré de 20 heures avec guide d’allocation du temps et outils d’auto-évaluation.
EdgeAI représente le futur du déploiement IA : local-first, respectueux de la vie privée et efficace. Maîtrisez ces compétences pour construire la prochaine génération d’applications intelligentes.
Notre équipe produit d’autres cours ! Découvrez :
Si vous êtes bloqué ou avez des questions sur la création d'applications IA, rejoignez :
Si vous avez des retours sur le produit ou des erreurs lors de la création, visitez :
Avertissement :
Ce document a été traduit à l’aide du service de traduction automatique Co-op Translator. Bien que nous nous efforcions d’assurer l’exactitude, veuillez noter que les traductions automatiques peuvent contenir des erreurs ou des imprécisions. Le document original dans sa langue native doit être considéré comme la source faisant autorité. Pour les informations critiques, il est recommandé de recourir à une traduction professionnelle humaine. Nous ne pouvons être tenus responsables des malentendus ou des mauvaises interprétations résultant de l’utilisation de cette traduction.
