Skip to content

Latest commit

 

History

History
320 lines (239 loc) · 25.5 KB

File metadata and controls

320 lines (239 loc) · 25.5 KB

EdgeAI pour Débutants

Course cover image

GitHub contributors GitHub issues GitHub pull-requests PRs Welcome

GitHub watchers GitHub forks GitHub stars

Microsoft Foundry Discord

Suivez ces étapes pour commencer à utiliser ces ressources :

  1. Forkez le dépôt : Cliquez sur GitHub forks
  2. Clonez le dépôt : git clone https://github.com/microsoft/edgeai-for-beginners.git
  3. Rejoignez le Discord Azure AI Foundry et rencontrez des experts ainsi que d’autres développeurs

🌐 Support Multilingue

Pris en charge via GitHub Action (Automatisé & Toujours à Jour)

Arabic | Bengali | Bulgarian | Burmese (Myanmar) | Chinese (Simplified) | Chinese (Traditional, Hong Kong) | Chinese (Traditional, Macau) | Chinese (Traditional, Taiwan) | Croatian | Czech | Danish | Dutch | Estonian | Finnish | French | German | Greek | Hebrew | Hindi | Hungarian | Indonesian | Italian | Japanese | Kannada | Khmer | Korean | Lithuanian | Malay | Malayalam | Marathi | Nepali | Nigerian Pidgin | Norwegian | Persian (Farsi) | Polish | Portuguese (Brazil) | Portuguese (Portugal) | Punjabi (Gurmukhi) | Romanian | Russian | Serbian (Cyrillic) | Slovak | Slovenian | Spanish | Swahili | Swedish | Tagalog (Filipino) | Tamil | Telugu | Thai | Turkish | Ukrainian | Urdu | Vietnamese

Vous préférez cloner localement ?

Ce dépôt comprend plus de 50 traductions linguistiques, ce qui augmente significativement la taille du téléchargement. Pour cloner sans les traductions, utilisez le sparse checkout :

Bash / macOS / Linux :

git clone --filter=blob:none --sparse https://github.com/microsoft/edgeai-for-beginners.git
cd edgeai-for-beginners
git sparse-checkout set --no-cone '/*' '!translations' '!translated_images'

CMD (Windows) :

git clone --filter=blob:none --sparse https://github.com/microsoft/edgeai-for-beginners.git
cd edgeai-for-beginners
git sparse-checkout set --no-cone "/*" "!translations" "!translated_images"

Cela vous fournit tout ce dont vous avez besoin pour compléter le cours avec un téléchargement beaucoup plus rapide.

Si vous souhaitez que des langues supplémentaires soient prises en charge, elles sont listées ici

Introduction

Bienvenue dans EdgeAI pour Débutants – votre parcours complet dans le monde transformateur de l'Intelligence Artificielle en périphérie (Edge). Ce cours comble le fossé entre des capacités d’IA puissantes et le déploiement pratique et réel sur des dispositifs Edge, vous permettant d'exploiter le potentiel de l’IA directement là où les données sont générées et où les décisions doivent être prises.

Ce que vous maîtriserez

Ce cours vous conduit des concepts fondamentaux jusqu’aux implémentations prêtes pour la production, couvrant :

  • Petits Modèles de Langage (SLM) optimisés pour le déploiement en périphérie
  • Optimisation consciente du matériel sur diverses plateformes
  • Inférence en temps réel avec capacités de préservation de la vie privée
  • Stratégies de déploiement en production pour applications d’entreprise

Pourquoi EdgeAI est important

Edge AI représente un changement de paradigme qui répond aux défis modernes cruciaux :

  • Confidentialité & Sécurité : Traitez les données sensibles localement sans exposition au cloud
  • Performance en temps réel : Éliminez la latence réseau pour les applications critiques en temps
  • Efficacité des coûts : Réduisez la bande passante et les dépenses informatiques cloud
  • Fonctionnement résilient : Maintenez la fonctionnalité en cas de coupures réseau
  • Conformité réglementaire : Répondez aux exigences de souveraineté des données

Edge AI

Edge AI désigne l’exécution d’algorithmes IA et de modèles de langage localement sur le matériel, proche du lieu où les données sont générées, sans recourir aux ressources cloud pour l’inférence. Cela réduit la latence, améliore la confidentialité et permet la prise de décisions en temps réel.

Principes clés :

  • Inférence sur appareil : Les modèles IA fonctionnent sur des dispositifs Edge (téléphones, routeurs, microcontrôleurs, PC industriels)
  • Capacité hors ligne : Fonctionne sans connexion Internet persistante
  • Faible latence : Réponses immédiates adaptées aux systèmes en temps réel
  • Souveraineté des données : Conserve les données sensibles localement, améliorant sécurité et conformité

Petits Modèles de Langage (SLM)

Les SLM tels que Phi-4, Mistral-7B, et Gemma sont des versions optimisées de grands LLM — entraînés ou distillés pour :

  • Empreinte mémoire réduite : Usage efficace de la mémoire limitée des appareils Edge
  • Demandes de calcul réduites : Optimisés pour la performance CPU et GPU périphériques
  • Temps de démarrage plus rapides : Initialisation rapide pour des applications réactives

Ils débloquent des capacités NLP puissantes tout en respectant les contraintes de :

  • Systèmes embarqués : Appareils IoT et contrôleurs industriels
  • Appareils mobiles : Smartphones et tablettes avec capacités hors ligne
  • Appareils IoT : Capteurs et dispositifs intelligents aux ressources limitées
  • Serveurs Edge : Unités de traitement locales avec ressources GPU limitées
  • Ordinateurs personnels : Scénarios de déploiement sur bureau et portable

Modules du Cours & Navigation

Module Sujet Domaine d’Intérêt Contenu Clé Niveau Durée
📖 00 Introduction à EdgeAI Fondations & Contexte Vue d’ensemble d’EdgeAI • Applications industrielles • Introduction aux SLM • Objectifs d’apprentissage Débutant 1-2 hrs
📚 01 Fondamentaux EdgeAI Comparaison Cloud vs Edge AI Fondamentaux EdgeAI • Études de cas réelles • Guide d’implémentation • Déploiement Edge Débutant 3-4 hrs
🧠 02 Fondements des Modèles SLM Familles & architecture de modèles Famille Phi • Famille Qwen • Famille Gemma • BitNET • μModel • Phi-Silica Débutant 4-5 hrs
🚀 03 Pratique de Déploiement SLM Déploiement local & cloud Apprentissage avancé • Environnement local • Déploiement cloud Intermédiaire 4-5 hrs
⚙️ 04 Boîte à outils d’Optimisation de Modèle Optimisation multiplateforme Introduction • Llama.cpp • Microsoft Olive • OpenVINO • Apple MLX • Synthèse du workflow Intermédiaire 5-6 hrs
🔧 05 Production SLMOps Opérations en production Introduction SLMOps • Distillation de modèles • Affinage • Déploiement en production Avancé 5-6 hrs
🤖 06 Agents IA & Appel de Fonction Cadres d’agents & MCP Introduction aux agents • Appel de fonction • Protocole de contexte de modèle Avancé 4-5 hrs
💻 07 Implémentation de Plateforme Échantillons multiplateformes Outils IA • Foundry Local • Développement Windows Avancé 3-4 hrs
🏭 08 Boîte à outils Foundry Local Échantillons prêts pour production Applications exemples (voir détails ci-dessous) Expert 8-10 hrs

🏭 Module 08 : Applications exemples

🎓 Atelier : Parcours d’apprentissage pratique

Matériel d’atelier complet avec implémentations prêtes pour la production :

  • Guide de l’atelier - Objectifs d’apprentissage complets, résultats et navigation des ressources
  • Exemples Python (6 sessions) - Mis à jour avec meilleures pratiques, gestion des erreurs, et documentation complète
  • Notebooks Jupyter (8 interactifs) - Tutoriels pas à pas avec benchmarks et suivi des performances
  • Guides de session - Guides markdown détaillés pour chaque session d’atelier
  • Outils de validation - Scripts pour vérifier la qualité du code et exécuter des tests de validation

Ce que vous construirez :

  • Applications de chat IA locales avec support de streaming
  • Pipelines RAG avec évaluation de qualité (RAGAS)
  • Outils de benchmark et comparaison multi-modèle
  • Systèmes d’orchestration multi-agent
  • Routage intelligent de modèles avec sélection basée sur les tâches

🎙️ Atelier pour Agentic : Pratique - Le Studio Podcast IA

Construisez une chaîne de production de podcasts alimentée par l’IA de A à Z ! Cet atelier immersif vous apprend à créer un système multi-agents complet qui transforme des idées en épisodes de podcast professionnels.

🎬 Démarrez l’atelier AI Podcast Studio

Votre mission : Lancez "Future Bytes" — un podcast tech entièrement animé par des agents IA que vous construirez vous-même. Pas de dépendance au cloud, pas de coûts d’API — tout fonctionne localement sur votre machine.

Ce qui rend cet atelier unique :

  • 🤖 Orchestration multi-agents réelle — Construisez des agents IA spécialisés qui recherchent, écrivent et produisent de l’audio
  • 🎯 Chaîne de production complète — De la sélection du sujet à la sortie finale audio du podcast
  • 💻 Déploiement 100% local — Utilise Ollama et des modèles locaux (Qwen-3-8B) pour une confidentialité et un contrôle complets
  • 🎤 Intégration Text-to-Speech — Transformez des scripts en conversations multi-intervenants au son naturel
  • ✋ Flux de travail avec validation humaine — Des étapes d’approbation garantissent la qualité tout en maintenant l’automatisation

Parcours d’apprentissage en trois actes :

Acte Focus Compétences principales Durée
Acte 1 : Rencontrez vos assistants IA Construisez votre premier agent IA Intégration d’outils • Recherche web • Résolution de problèmes • Raisonnement agentique 2-3 h
Acte 2 : Assemblez votre équipe de production Orchestration de plusieurs agents Coordination d’équipe • Flux de validation • Interface DevUI • Supervision humaine 3-4 h
Acte 3 : Donnez vie à votre podcast Génération audio du podcast Synthèse vocale • Synthèse multi-intervenants • Audio longue durée • Automatisation complète 2-3 h

Technologies utilisées :

  • Microsoft Agent Framework — Orchestration et coordination multi-agents
  • Ollama — Exécution locale de modèles IA (sans cloud)
  • Qwen-3-8B — Modèle de langage open source optimisé pour les tâches agentiques
  • API Text-to-Speech — Synthèse vocale naturelle pour la génération de podcasts

Prise en charge matérielle :

  • Mode CPU — Fonctionne sur tout ordinateur moderne (8 Go+ RAM recommandé)
  • 🚀 Accélération GPU — Inférence beaucoup plus rapide avec GPU NVIDIA/AMD
  • Support NPU — Accélération par unité de traitement neuronal nouvelle génération

Idéal pour :

  • Développeurs apprenant les systèmes IA multi-agents
  • Toute personne intéressée par l’automatisation IA et les flux de travail
  • Créateurs de contenu explorant la production assistée par IA
  • Étudiants étudiant les modèles pratiques d’orchestration IA

Commencez à construire : 🎙️ Atelier AI Podcast Studio →

📊 Résumé du parcours d’apprentissage

  • Durée totale : 36-45 heures
  • Parcours débutant : Modules 01-02 (7-9 heures)
  • Parcours intermédiaire : Modules 03-04 (9-11 heures)
  • Parcours avancé : Modules 05-07 (12-15 heures)
  • Parcours expert : Module 08 (8-10 heures)

Ce que vous allez construire

🎯 Compétences clés

  • Architecture Edge AI : Concevoir des systèmes IA locaux privilégiés avec intégration cloud
  • Optimisation des modèles : Quantifiez et compressez les modèles pour le déploiement en périphérie (gain de vitesse de 85 %, réduction de taille de 75 %)
  • Déploiement multi-plateforme : Windows, mobile, embarqué et systèmes hybrides cloud-edge
  • Opérations de production : Surveillance, montée en charge et maintenance de l’IA en périphérie en production

🏗️ Projets pratiques

  • Applications Foundry Local Chat : Application native Windows 11 avec commutation de modèles
  • Systèmes multi-agents : Coordinateur avec agents spécialisés pour des flux complexes
  • Applications RAG : Traitement local de documents avec recherche vectorielle
  • Routeurs de modèles : Sélection intelligente entre modèles selon l’analyse des tâches
  • Frameworks API : Clients prêts pour la production avec streaming et surveillance de santé
  • Outils multi-plateformes : Modèles d’intégration LangChain/Semantic Kernel

🏢 Applications industrielles

FabricationSantéVéhicules autonomesVilles intelligentesApplications mobiles

Démarrage rapide

Parcours d’apprentissage recommandé (20-30 heures au total) :

  1. 📖 Introduction (Introduction.md) : Fondations EdgeAI + contexte industriel + cadre d’apprentissage
  2. 📚 Fondations (Modules 01-02) : Concepts EdgeAI + familles de modèles SLM
  3. ⚙️ Optimisation (Modules 03-04) : Déploiement + cadres de quantification
  4. 🚀 Production (Modules 05-06) : SLMOps + agents IA + appel de fonctions
  5. 💻 Implémentation (Modules 07-08) : Exemples de plateformes + boîte à outils Foundry Local

Chaque module inclut théorie, exercices pratiques et exemples de code prêts pour la production.

Impact sur la carrière

Rôles techniques : Architecte solutions EdgeAI • Ingénieur ML (Edge) • Développeur AI IoT • Développeur IA mobile

Secteurs industriels : Fabrication 4.0 • Technologies de santé • Systèmes autonomes • FinTech • Électronique grand public

Projets portfolio : Systèmes multi-agents • Applications RAG en production • Déploiement multi-plateformes • Optimisation des performances

Structure du dépôt

edgeai-for-beginners/
├── 📖 introduction.md  # Foundation: EdgeAI Overview & Learning Framework
├── 📚 Module01-04/     # Fundamentals → SLMs → Deployment → Optimization  
├── 🔧 Module05-06/     # SLMOps → AI Agents → Function Calling
├── 💻 Module07/        # Platform Samples (VS Code, Windows, Jetson, Mobile)
├── 🏭 Module08/        # Foundry Local Toolkit + 10 Comprehensive Samples
│   ├── samples/01-06/  # Foundation: REST, SDK, RAG, Agents, Routing
│   └── samples/07-10/  # Advanced: API Client, Windows App, Enterprise Agents, Tools
├── 🌐 translations/    # Multi-language support (8+ languages)
└── 📋 STUDY_GUIDE.md   # Structured learning paths & time allocation

Points forts du cours

Apprentissage progressif : Théorie → Pratique → Déploiement en production
Études de cas réelles : Microsoft, Japan Airlines, mises en œuvre d’entreprise
Exemples pratiques : Plus de 50 exemples, 10 démonstrations complètes Foundry Local
Focus performance : Amélioration de vitesse de 85 %, réduction de taille de 75 %
Multi-plateforme : Windows, mobile, embarqué, hybride cloud-edge
Prêt pour la production : Surveillance, montée en charge, sécurité, cadres de conformité

📖 Guide d’étude disponible : Parcours d’apprentissage structuré de 20 heures avec conseils de gestion du temps et outils d’auto-évaluation.


EdgeAI représente l’avenir du déploiement IA : local-first, respectant la vie privée et efficace. Maîtrisez ces compétences pour construire la prochaine génération d’applications intelligentes.

Autres cours

Notre équipe produit d’autres cours ! Découvrez :

LangChain

LangChain4j pour débutants LangChain.js pour débutants LangChain pour débutants

Azure / Edge / MCP / Agents

AZD pour débutants Edge AI pour débutants MCP pour débutants Agents IA pour débutants


Série IA générative

IA générative pour débutants IA générative (.NET) IA générative (Java) IA générative (JavaScript)


Apprentissage fondamental

ML pour débutants Data Science pour débutants IA pour débutants Cybersécurité pour débutants Web Dev pour débutants IoT pour débutants Développement XR pour débutants


Série Copilot

Copilot for AI Paired Programming Copilot for C#/.NET Copilot Adventure

Obtenir de l’aide

Si vous êtes bloqué ou si vous avez des questions sur la création d’applications IA, rejoignez :

Microsoft Foundry Discord

Si vous avez des retours sur le produit ou des erreurs lors du développement, visitez :

Microsoft Foundry Developer Forum


Clause de non-responsabilité :
Ce document a été traduit à l’aide du service de traduction IA Co-op Translator. Bien que nous nous efforcions d’assurer l’exactitude, veuillez noter que les traductions automatiques peuvent contenir des erreurs ou des inexactitudes. Le document original dans sa langue native doit être considéré comme la source faisant foi. Pour les informations critiques, une traduction professionnelle humaine est recommandée. Nous déclinons toute responsabilité en cas de malentendus ou de mauvaises interprétations découlant de l’utilisation de cette traduction.