Skip to content

Latest commit

 

History

History
318 lines (236 loc) · 25.1 KB

File metadata and controls

318 lines (236 loc) · 25.1 KB

EdgeAI pour Débutants

Image de couverture du cours

Contributeurs GitHub Problèmes GitHub Demandes de tirage GitHub PRs Bienvenues

Observateurs GitHub Forks GitHub Étoiles GitHub

Microsoft Foundry Discord

Suivez ces étapes pour commencer à utiliser ces ressources :

  1. Forkez le Dépôt : Cliquez sur Forks GitHub
  2. Clonez le Dépôt : git clone https://github.com/microsoft/edgeai-for-beginners.git
  3. Rejoignez Le Discord Azure AI Foundry et rencontrez des experts et d’autres développeurs

🌐 Support Multilingue

Pris en charge via GitHub Action (Automatisé & Toujours à Jour)

Arabe | Bengali | Bulgare | Birman (Myanmar) | Chinois (Simplifié) | Chinois (Traditionnel, Hong Kong) | Chinois (Traditionnel, Macao) | Chinois (Traditionnel, Taïwan) | Croate | Tchèque | Danois | Néerlandais | Estonien | Finnois | Français | Allemand | Grec | Hébreu | Hindi | Hongrois | Indonésien | Italien | Japonais | Kannada | Coréen | Lituanien | Malais | Malayalam | Marathi | Népalais | Pidgin Nigérian | Norvégien | Persan (Farsi) | Polonais | Portugais (Brésil) | Portugais (Portugal) | Punjabi (Gurmukhi) | Roumain | Russe | Serbe (Cyrillique) | Slovaque | Slovène | Espagnol | Swahili | Suédois | Tagalog (Filipino) | Tamoul | Telugu | Thaï | Turc | Ukrainien | Ourdou | Vietnamien

Préférez Cloner Localement ?

Ce dépôt inclut plus de 50 traductions de langues ce qui augmente significativement la taille de téléchargement. Pour cloner sans traductions, utilisez un sparse checkout :

git clone --filter=blob:none --sparse https://github.com/microsoft/edgeai-for-beginners.git
cd edgeai-for-beginners
git sparse-checkout set --no-cone '/*' '!translations' '!translated_images'

Cela vous donne tout ce dont vous avez besoin pour compléter le cours avec un téléchargement beaucoup plus rapide.

Si vous souhaitez ajouter la prise en charge d’autres langues de traduction, elles sont listées ici

Introduction

Bienvenue dans EdgeAI pour Débutants – votre parcours complet dans le monde transformateur de l’Intelligence Artificielle en périphérie. Ce cours comble le fossé entre les puissantes capacités d'IA et le déploiement pratique et réel sur les appareils en périphérie, vous permettant d'exploiter le potentiel de l'IA directement là où les données sont générées et où les décisions doivent être prises.

Ce que vous maîtriserez

Ce cours vous emmène des concepts fondamentaux aux implémentations prêtes pour la production, couvrant :

  • Petits Modèles de Langage (SLM) optimisés pour le déploiement en périphérie
  • Optimisation consciente du matériel sur diverses plateformes
  • Inférence en temps réel avec des capacités de protection de la vie privée
  • Stratégies de déploiement en production pour applications d’entreprise

Pourquoi EdgeAI est important

Edge AI représente un changement de paradigme qui répond à des défis modernes critiques :

  • Confidentialité & Sécurité : Traitez les données sensibles localement sans exposition au cloud
  • Performance en temps réel : Éliminez la latence réseau pour les applications sensibles au temps
  • Efficacité économique : Réduisez la bande passante et les coûts informatiques cloud
  • Fonctionnement résilient : Maintenez la fonctionnalité lors de pannes réseau
  • Conformité réglementaire : Respectez les exigences de souveraineté des données

Edge AI

Edge AI désigne l’exécution d’algorithmes d’IA et de modèles de langage localement sur le matériel, proche du lieu de génération des données, sans dépendre des ressources cloud pour l’inférence. Cela réduit la latence, améliore la confidentialité et permet une prise de décision en temps réel.

Principes fondamentaux :

  • Inférence sur l’appareil : les modèles d’IA s’exécutent sur des dispositifs de périphérie (téléphones, routeurs, microcontrôleurs, PC industriels)
  • Capacité hors ligne : fonctionne sans connexion internet persistante
  • Basse latence : réponses immédiates adaptées aux systèmes temps réel
  • Souveraineté des données : garde les données sensibles localement, améliorant la sécurité et la conformité

Petits Modèles de Langage (SLM)

Les SLM comme Phi-4, Mistral-7B, et Gemma sont des versions optimisées de grands LLM — entraînées ou distillées pour :

  • Empreinte mémoire réduite : utilisation efficace de la mémoire limitée des appareils en périphérie
  • Demande de calcul inférieure : optimisés pour la performance CPU et GPU en périphérie
  • Temps de démarrage plus rapides : initialisation rapide pour des applications réactives

Ils offrent des capacités NLP puissantes tout en satisfaisant les contraintes de :

  • Systèmes embarqués : dispositifs IoT et contrôleurs industriels
  • Appareils mobiles : smartphones et tablettes avec capacités hors ligne
  • Appareils IoT : capteurs et dispositifs intelligents aux ressources limitées
  • Serveurs en périphérie : unités de traitement local avec ressources GPU limitées
  • Ordinateurs personnels : scénarios de déploiement sur desktop et laptop

Modules du Cours & Navigation

Module Sujet Domaine d’Intérêt Contenu Clé Niveau Durée
📖 00 Introduction à EdgeAI Fondations & Contexte Vue d’ensemble EdgeAI • Applications industrielles • Introduction aux SLM • Objectifs d’apprentissage Débutant 1-2 h
📚 01 Fondamentaux d’EdgeAI Comparaison Cloud vs Edge AI Fondamentaux EdgeAI • Études de cas réelles • Guide d’implémentation • Déploiement en périphérie Débutant 3-4 h
🧠 02 Fondations des Modèles SLM Familles de modèles & architecture Famille Phi • Famille Qwen • Famille Gemma • BitNET • μModel • Phi-Silica Débutant 4-5 h
🚀 03 Pratique de Déploiement SLM Déploiement local & cloud Apprentissage avancé • Environnement local • Déploiement cloud Intermédiaire 4-5 h
⚙️ 04 Boîte à outils d’Optimisation des Modèles Optimisation multiplateforme Introduction • Llama.cpp • Microsoft Olive • OpenVINO • Apple MLX • Synthèse des workflows Intermédiaire 5-6 h
🔧 05 Production SLMOps Opérations en production Introduction SLMOps • Distillation de modèles • Fine-tuning • Déploiement en production Avancé 5-6 h
🤖 06 Agents IA & Appel de Fonction Cadres d’agent & MCP Introduction aux agents • Appel de fonction • Protocole de contexte de modèle Avancé 4-5 h
💻 07 Implémentation Plateforme Exemples multiplateformes Boîte à outils IA • Foundry Local • Développement Windows Avancé 3-4 h
🏭 08 Boîte à outils Foundry Local Exemples prêts pour production Applications exemples (voir détails ci-dessous) Expert 8-10 h

🏭 Module 08 : Applications Exemples

🎓 Atelier : Parcours Apprentissage Pratique

Matériel complet d’atelier pratique avec implémentations prêtes pour la production :

  • Guide de l’Atelier – Objectifs, résultats et navigation des ressources complets
  • Exemples Python (6 sessions) – Mis à jour avec meilleures pratiques, gestion des erreurs, documentation complète
  • Notebooks Jupyter (8 interactifs) – Tutoriels pas à pas avec benchmarking et suivi de performance
  • Guides de Session – Guides markdown détaillés pour chaque session de l’atelier
  • Outils de Validation – Scripts pour vérifier la qualité du code et exécuter des tests basiques

Ce que vous construirez :

  • Applications de chat IA locales avec support de streaming
  • Pipelines RAG avec évaluation de qualité (RAGAS)
  • Outils de benchmarking et comparaison multi-modèles
  • Systèmes d’orchestration multi-agent
  • Routage intelligent de modèles avec sélection basée sur les tâches

🎙️ Atelier Agentic : Pratique - Le Studio de Podcast IA

Construisez un pipeline de production de podcast propulsé par IA depuis zéro ! Cet atelier immersif vous apprend à créer un système multi-agent complet qui transforme des idées en épisodes de podcast professionnels. 🎬 Commencez l’Atelier AI Podcast Studio

Votre Mission : Lancez "Future Bytes" — un podcast tech entièrement propulsé par des agents IA que vous créerez vous-même. Sans dépendances cloud, sans coûts d’API — tout s’exécute localement sur votre machine.

Ce qui rend ceci unique :

  • 🤖 Orchestration Multi-Agents Réelle - Construisez des agents IA spécialisés qui recherchent, écrivent et produisent de l’audio
  • 🎯 Chaîne de Production Complète - De la sélection du sujet à la sortie finale du podcast audio
  • 💻 Déploiement 100 % Local - Utilise Ollama et des modèles locaux (Qwen-3-8B) pour une confidentialité et un contrôle total
  • 🎤 Intégration Texte-en-Parole - Transformez les scripts en conversations naturelles multi-intervenants
  • ✋ Flux de Travail avec Intervention Humaine - Des étapes d’approbation garantissent la qualité tout en maintenant l’automatisation

Parcours d’apprentissage en Trois Actes :

Acte Focus Compétences Clés Durée
Acte 1 : Rencontrez vos assistants IA Construisez votre premier agent IA Intégration d’outils • Recherche web • Résolution de problèmes • Raisonnement agentique 2-3 h
Acte 2 : Assemblez votre équipe de production Orchestration de plusieurs agents Coordination d’équipe • Flux d’approbation • Interface DevUI • Supervision humaine 3-4 h
Acte 3 : Donnez vie à votre podcast Génération audio de podcast Texte-en-parole • Synthèse multi-intervenants • Audio long format • Automatisation complète 2-3 h

Technologies Utilisées :

  • Microsoft Agent Framework - Orchestration et coordination multi-agent
  • Ollama - Environnement d’exécution IA local (pas besoin de cloud)
  • Qwen-3-8B - Modèle de langage open-source optimisé pour les tâches agentiques
  • APIs Texte-en-Parole - Synthèse vocale naturelle pour la génération de podcast

Support Matériel :

  • Mode CPU - Fonctionne sur tout ordinateur moderne (8 Go+ RAM recommandé)
  • 🚀 Accélération GPU - Inférence beaucoup plus rapide avec GPUs NVIDIA/AMD
  • Support NPU - Accélération par unité de traitement neuronal nouvelle génération

Parfait Pour :

  • Développeurs apprenant les systèmes IA multi-agents
  • Toute personne intéressée par l’automatisation IA et les flux de travail
  • Créateurs de contenu explorant la production assistée par IA
  • Étudiants étudiant les modèles pratiques d’orchestration IA

Commencez à Construire : 🎙️ L’Atelier AI Podcast Studio →

📊 Résumé du Parcours d’Apprentissage

  • Durée Totale : 36-45 heures
  • Parcours Débutant : Modules 01-02 (7-9 heures)
  • Parcours Intermédiaire : Modules 03-04 (9-11 heures)
  • Parcours Avancé : Modules 05-07 (12-15 heures)
  • Parcours Expert : Module 08 (8-10 heures)

Ce que vous allez construire

🎯 Compétences Clés

  • Architecture Edge AI : Concevez des systèmes IA local-first avec intégration cloud
  • Optimisation de Modèle : Quantification et compression des modèles pour un déploiement edge (gain de vitesse de 85 %, réduction de taille de 75 %)
  • Déploiement Multi-Plateforme : Windows, mobile, embarqué, et systèmes hybrides cloud-edge
  • Opérations de Production : Surveillance, mise à l’échelle, et maintenance de l’IA edge en production

🏗️ Projets Pratiques

  • Applications de Chat Local Foundry : Application native Windows 11 avec changement de modèle
  • Systèmes Multi-Agents : Coordinateur avec agents spécialistes pour des flux de travail complexes
  • Applications RAG : Traitement local de documents avec recherche vectorielle
  • Routeurs de Modèles : Sélection intelligente entre modèles selon l’analyse de tâche
  • Frameworks API : Clients prêts pour la production avec streaming et surveillance santé
  • Outils Multi-Plateforme : Modèles d’intégration LangChain/Semantic Kernel

🏢 Applications Industrielles

FabricationSantéVéhicules AutonomesVilles IntelligentesApplications Mobiles

Démarrage Rapide

Parcours Recommandé (20-30 heures au total) :

  1. 📖 Introduction (Introduction.md) : Fondations EdgeAI + contexte industriel + cadre d’apprentissage
  2. 📚 Fondations (Modules 01-02) : Concepts EdgeAI + familles de modèles SLM
  3. ⚙️ Optimisation (Modules 03-04) : Déploiement + cadres de quantification
  4. 🚀 Production (Modules 05-06) : SLMOps + agents IA + appels de fonctions
  5. 💻 Implémentation (Modules 07-08) : Exemples plateforme + boîte à outils Foundry Local

Chaque module comprend théorie, exercices pratiques et échantillons de code prêts pour la production.

Impact sur la Carrière

Rôles Techniques : Architecte Solutions EdgeAI • Ingénieur ML (Edge) • Développeur IA IoT • Développeur IA Mobile

Secteurs Industriels : Fabrication 4.0 • Technologies de santé • Systèmes autonomes • FinTech • Électronique grand public

Projets de Portefeuille : Systèmes multi-agents • Applications RAG en production • Déploiement multiplateforme • Optimisation des performances

Structure du Répertoire

edgeai-for-beginners/
├── 📖 introduction.md  # Foundation: EdgeAI Overview & Learning Framework
├── 📚 Module01-04/     # Fundamentals → SLMs → Deployment → Optimization  
├── 🔧 Module05-06/     # SLMOps → AI Agents → Function Calling
├── 💻 Module07/        # Platform Samples (VS Code, Windows, Jetson, Mobile)
├── 🏭 Module08/        # Foundry Local Toolkit + 10 Comprehensive Samples
│   ├── samples/01-06/  # Foundation: REST, SDK, RAG, Agents, Routing
│   └── samples/07-10/  # Advanced: API Client, Windows App, Enterprise Agents, Tools
├── 🌐 translations/    # Multi-language support (8+ languages)
└── 📋 STUDY_GUIDE.md   # Structured learning paths & time allocation

Points Forts du Cours

Apprentissage Progressif : Théorie → Pratique → Déploiement en production
Études de Cas Réelles : Microsoft, Japan Airlines, implémentations en entreprise
Exemples Pratiques : 50+ exemples, 10 démos complètes Foundry Local
Focus Performance : Améliorations de vitesse de 85 %, réductions de taille de 75 %
Multi-Plateforme : Windows, mobile, embarqué, hybride cloud-edge
Prêt pour la Production : Surveillance, mise à l’échelle, sécurité, cadres conformité

📖 Guide d’Étude Disponible : Parcours d’apprentissage structuré de 20 heures avec guide d’allocation du temps et outils d’auto-évaluation.


EdgeAI représente le futur du déploiement IA : local-first, respectueux de la vie privée et efficace. Maîtrisez ces compétences pour construire la prochaine génération d’applications intelligentes.

Autres Cours

Notre équipe produit d’autres cours ! Découvrez :

LangChain

LangChain4j pour Débutants LangChain.js pour Débutants


Azure / Edge / MCP / Agents

AZD pour Débutants Edge AI pour Débutants MCP pour Débutants Agents IA pour Débutants


Série IA Générative

IA Générative pour Débutants IA Générative (.NET) IA Générative (Java) IA Générative (JavaScript)


Apprentissage Fondamental

ML pour Débutants Data Science pour Débutants IA pour Débutants Cybersécurité pour Débutants Dév Web pour Débutants IoT pour Débutants Dév XR pour Débutants


Série Copilot

Copilot pour Programmation Assistée IA Copilot for C#/.NET Copilot Adventure

Obtenir de l'aide

Si vous êtes bloqué ou avez des questions sur la création d'applications IA, rejoignez :

Microsoft Foundry Discord

Si vous avez des retours sur le produit ou des erreurs lors de la création, visitez :

Microsoft Foundry Developer Forum


Avertissement :
Ce document a été traduit à l’aide du service de traduction automatique Co-op Translator. Bien que nous nous efforcions d’assurer l’exactitude, veuillez noter que les traductions automatiques peuvent contenir des erreurs ou des imprécisions. Le document original dans sa langue native doit être considéré comme la source faisant autorité. Pour les informations critiques, il est recommandé de recourir à une traduction professionnelle humaine. Nous ne pouvons être tenus responsables des malentendus ou des mauvaises interprétations résultant de l’utilisation de cette traduction.