Phi est une série de modèles IA open source développés par Microsoft.
Phi est actuellement le modèle de langage petit (SLM) le plus puissant et le plus rentable, avec de très bons benchmarks en multi-langues, raisonnement, génération de texte/chat, codage, images, audio et autres scénarios.
Vous pouvez déployer Phi dans le cloud ou sur des appareils edge, et vous pouvez facilement créer des applications d’IA générative avec une puissance de calcul limitée.
Suivez ces étapes pour commencer à utiliser ces ressources :
- Forkez le dépôt : Cliquez sur
- Clonez le dépôt :
git clone https://github.com/microsoft/PhiCookBook.git - Rejoignez la communauté Discord Microsoft AI et rencontrez des experts et développeurs
Arabe | Bengali | Bulgare | Birman (Myanmar) | Chinois (Simplifié) | Chinois (Traditionnel, Hong Kong) | Chinois (Traditionnel, Macau) | Chinois (Traditionnel, Taïwan) | Croate | Tchèque | Danois | Néerlandais | Estonien | Finnois | Français | Allemand | Grec | Hébreu | Hindi | Hongrois | Indonésien | Italien | Japonais | Kannada | Khmer | Coréen | Lituanien | Malais | Malayalam | Marathi | Népalais | Pidgin Nigérian | Norvégien | Persan (Farsi) | Polonais | Portugais (Brésil) | Portugais (Portugal) | Punjabi (Gurmukhi) | Roumain | Russe | Serbe (Cyrillique) | Slovaque | Slovène | Espagnol | Swahili | Suédois | Tagalog (Philippin) | Tamoul | Télougou | Thaï | Turc | Ukrainien | Ourdou | Vietnamien
Préférez-vous cloner localement ?
Ce dépôt inclut plus de 50 traductions ce qui augmente significativement la taille du téléchargement. Pour cloner sans les traductions, utilisez le sparse checkout :
Bash / macOS / Linux :
git clone --filter=blob:none --sparse https://github.com/microsoft/PhiCookBook.git cd PhiCookBook git sparse-checkout set --no-cone '/*' '!translations' '!translated_images'CMD (Windows) :
git clone --filter=blob:none --sparse https://github.com/microsoft/PhiCookBook.git cd PhiCookBook git sparse-checkout set --no-cone "/*" "!translations" "!translated_images"Cela vous donnera tout ce dont vous avez besoin pour terminer le cours avec un téléchargement beaucoup plus rapide.
-
Introduction
-
Inférence Phi dans différents environnements
-
Inférence Famille Phi
- Inférence Phi sur iOS
- Inférence Phi sur Android
- Inférence Phi sur Jetson
- Inférence Phi sur AI PC
- Inférence Phi avec le framework Apple MLX
- Inférence Phi sur serveur local
- Inférence Phi sur serveur distant avec AI Toolkit
- Inférence Phi avec Rust
- Inférence Phi–Vision en local
- Inférence Phi avec Kaito AKS, Azure Containers (support officiel)
-
Évaluation Phi
-
RAG avec Azure AI Search
-
Échantillons de développement d’applications Phi
-
Applications texte & chat
- Échantillons Phi-4
- Échantillons Phi-3 / 3.5
- Chatbot local dans le navigateur utilisant Phi3, ONNX Runtime Web et WebGPU
- OpenVino Chat
- Multi Modèle - Phi-3-mini interactif et OpenAI Whisper
- MLFlow - Création d'un wrapper et utilisation de Phi-3 avec MLFlow
- Optimisation du modèle - Comment optimiser le modèle Phi-3-min pour ONNX Runtime Web avec Olive
- App WinUI3 avec Phi-3 mini-4k-instruct-onnx -Exemple d'application de prise de notes multi-modèle WinUI3 alimentée par IA
- Affinage et intégration de modèles Phi-3 personnalisés avec Prompt flow
- Affinage et intégration de modèles Phi-3 personnalisés avec Prompt flow dans Microsoft Foundry
- Évaluation du modèle Phi-3 / Phi-3.5 affiné dans Microsoft Foundry en se concentrant sur les principes d'IA responsable de Microsoft
- [📓] Exemple de prédiction linguistique Phi-3.5-mini-instruct (Chinois/Anglais)
- Chatbot RAG Phi-3.5-Instruct WebGPU
- Utilisation du GPU Windows pour créer une solution Prompt flow avec Phi-3.5-Instruct ONNX
- Utilisation de Microsoft Phi-3.5 tflite pour créer une application Android
- Exemple Q&R .NET utilisant le modèle ONNX Phi-3 local via Microsoft.ML.OnnxRuntime
- Application console chat .NET avec Semantic Kernel et Phi-3
-
Exemples de code basés sur le SDK Azure AI Inference
-
Exemples de raisonnement avancé
-
Démos
-
Exemples Vision
- Exemples Phi-4
- Exemples Phi-3 / 3.5
- [📓]Phi-3-vision-Image texte à texte
- Phi-3-vision-ONNX
- [📓]Phi-3-vision CLIP Embedding
- DÉMO : Recycling Phi-3
- Phi-3-vision - Assistant visuel en langage - avec Phi3-Vision et OpenVINO
- Phi-3 Vision Nvidia NIM
- Phi-3 Vision OpenVino
- [📓]Exemple Phi-3.5 Vision multi-frames ou multi-images
- Phi-3 Vision Modèle ONNX local utilisant Microsoft.ML.OnnxRuntime .NET
- Modèle ONNX local Phi-3 Vision à base de menu utilisant Microsoft.ML.OnnxRuntime .NET
-
Exemples Raisonnement-Vision
-
Exemples Mathématiques
- Exemples Phi-4-Mini-Flash-Reasoning-Instruct Démonstration Math avec Phi-4-Mini-Flash-Reasoning-Instruct
-
Exemples Audio
-
Exemples MOE
-
Exemples d'appel de fonctions
-
Exemples de mixage multimodal
-
-
Affinage des exemples Phi
- Scénarios d'affinage
- Affinage vs RAG
- Affinage : Faire de Phi-3 un expert industriel
- Affinage de Phi-3 avec AI Toolkit pour VS Code
- Affinage de Phi-3 avec Azure Machine Learning Service
- Affinage de Phi-3 avec Lora
- Affinage de Phi-3 avec QLora
- Affinage de Phi-3 avec Microsoft Foundry
- Affinage de Phi-3 avec Azure ML CLI/SDK
- Affinage avec Microsoft Olive
- Atelier pratique d'affinage avec Microsoft Olive
- Affinage Phi-3-vision avec Weights and Bias
- Affinage de Phi-3 avec Apple MLX Framework
- Affinage Phi-3-vision (support officiel)
- Affinage de Phi-3 avec Kaito AKS, Conteneurs Azure (support officiel)
- Affinage de Phi-3 et 3.5 Vision
-
Atelier pratique
-
Articles de recherche académiques et publications
- Les manuels sont tout ce dont vous avez besoin II : rapport technique phi-1.5
- Rapport technique Phi-3 : Un modèle de langage très performant localement sur votre téléphone
- Rapport technique Phi-4
- Rapport technique Phi-4-Mini : Modèles de langage multimodaux compacts mais puissants via Mixture-of-LoRAs
- Optimisation des petits modèles de langage pour l’appel de fonctions embarquées
- (WhyPHI) Affinage de PHI-3 pour la réponse aux questions à choix multiple : méthodologie, résultats et défis
- Rapport technique Phi-4-raisonnement
- Rapport technique Phi-4-mini-raisonnement
Vous pouvez apprendre à utiliser Microsoft Phi et comment construire des solutions E2E sur vos différents appareils matériels. Pour expérimenter Phi vous-même, commencez par vous amuser avec les modèles et personnaliser Phi pour vos scénarios en utilisant le Microsoft Foundry Azure AI Model Catalog ; vous pouvez en savoir plus dans la section Démarrage avec Microsoft Foundry.
Playground Chaque modèle dispose d’un playground dédié pour tester le modèle Azure AI Playground.
Vous pouvez apprendre à utiliser Microsoft Phi et comment construire des solutions E2E sur vos différents appareils matériels. Pour expérimenter Phi vous-même, commencez par vous amuser avec le modèle et personnaliser Phi pour vos scénarios en utilisant le GitHub Model Catalog ; vous pouvez en savoir plus dans la section Démarrage avec GitHub Model Catalog.
Playground Chaque modèle dispose d’un playground dédié pour tester le modèle.
Vous pouvez aussi trouver le modèle sur Hugging Face.
Playground Playground Hugging Chat
Notre équipe produit d’autres cours ! Consultez :
Microsoft s’engage à aider ses clients à utiliser nos produits d’IA de manière responsable, à partager nos apprentissages et à construire des partenariats basés sur la confiance grâce à des outils comme les Notes de transparence et les évaluations d’impact. Beaucoup de ces ressources sont disponibles sur https://aka.ms/RAI. L’approche de Microsoft pour une IA responsable repose sur nos principes d’IA : équité, fiabilité et sécurité, confidentialité et sécurité, inclusion, transparence et responsabilité.
Les modèles à grande échelle de langage naturel, d’image et de parole - comme ceux utilisés dans cet exemple - peuvent potentiellement se comporter de manière injuste, peu fiable ou offensante, causant ainsi des préjudices. Veuillez consulter la note de transparence du service Azure OpenAI pour être informé des risques et des limites. L'approche recommandée pour atténuer ces risques est d'inclure un système de sécurité dans votre architecture qui peut détecter et prévenir les comportements nuisibles. Azure AI Content Safety fournit une couche de protection indépendante, capable de détecter le contenu nuisible généré par les utilisateurs et par l'IA dans les applications et services. Azure AI Content Safety inclut des API de texte et d'image qui vous permettent de détecter le contenu nuisible. Au sein de Microsoft Foundry, le service Content Safety vous permet de visualiser, d'explorer et d'essayer du code d'exemple pour détecter le contenu nuisible à travers différentes modalités. La documentation de démarrage rapide suivante vous guide dans la réalisation de requêtes vers le service.
Un autre aspect à prendre en compte est la performance globale de l'application. Avec les applications multi-modales et multi-modèles, la performance signifie que le système fonctionne comme vous et vos utilisateurs l’attendez, y compris en ne générant pas de sorties nuisibles. Il est important d'évaluer la performance de votre application globale en utilisant les évaluateurs de Performance et Qualité ainsi que Risque et Sécurité. Vous avez également la possibilité de créer et d'évaluer avec des évaluateurs personnalisés.
Vous pouvez évaluer votre application d'IA dans votre environnement de développement en utilisant le Azure AI Evaluation SDK. Que vous disposiez d'un jeu de données de test ou d’une cible, les générations de votre application d’IA générative sont mesurées quantitativement avec des évaluateurs intégrés ou des évaluateurs personnalisés de votre choix. Pour commencer avec l'azure ai evaluation sdk afin d'évaluer votre système, vous pouvez suivre le guide de démarrage rapide. Une fois que vous avez exécuté une évaluation, vous pouvez visualiser les résultats dans Microsoft Foundry.
Ce projet peut contenir des marques déposées ou des logos de projets, produits ou services. L'utilisation autorisée des marques déposées ou logos Microsoft est soumise à et doit respecter les Directives sur les marques et la marque de Microsoft.
L'utilisation des marques déposées ou logos Microsoft dans des versions modifiées de ce projet ne doit pas entraîner de confusion ni impliquer un parrainage de Microsoft. Toute utilisation de marques déposées ou logos de tiers est soumise aux politiques de ces tiers.
Si vous êtes bloqué ou si vous avez des questions sur la création d'applications IA, rejoignez :
Si vous avez des retours sur le produit ou des erreurs lors de la création, consultez :
Avertissement :
Ce document a été traduit à l'aide du service de traduction automatique Co-op Translator. Bien que nous nous efforcions d'assurer l'exactitude, veuillez noter que les traductions automatiques peuvent contenir des erreurs ou des inexactitudes. Le document original dans sa langue native doit être considéré comme la source faisant foi. Pour les informations critiques, une traduction professionnelle effectuée par un humain est recommandée. Nous ne saurions être tenus responsables des malentendus ou des erreurs d'interprétation résultant de l'utilisation de cette traduction.
