Phi to seria otwartych modeli AI opracowanych przez Microsoft.
Phi jest obecnie najpotężniejszym i najbardziej opłacalnym małym modelem językowym (SLM), z bardzo dobrymi wynikami w wielu językach, wnioskowaniu, generowaniu tekstu/czatów, kodowaniu, obrazach, dźwięku i innych scenariuszach.
Możesz wdrożyć Phi w chmurze lub na urządzeniach edge i łatwo tworzyć aplikacje generatywnego AI przy ograniczonej mocy obliczeniowej.
Wykonaj poniższe kroki, aby rozpocząć korzystanie z tych zasobów:
- Rozgałęź repozytorium: Kliknij
- Sklonuj repozytorium:
git clone https://github.com/microsoft/PhiCookBook.git - Dołącz do Microsoft AI Discord Community i spotkaj ekspertów oraz innych deweloperów
Arabski | Bengalski | Bułgarski | Birmański (Myanmar) | Chiński (uproszczony) | Chiński (tradycyjny, Hongkong) | Chiński (tradycyjny, Makau) | Chiński (tradycyjny, Tajwan) | Chorwacki | Czeski | Duński | Holenderski | Estoński | Fiński | Francuski | Niemiecki | Grecki | Hebrajski | Hindi | Węgierski | Indonezyjski | Włoski | Japoński | Kannada | Khmer | Koreański | Litewski | Malajski | Malajalam | Marathi | Nepalski | Nigeryjski Pidgin | Norweski | Perski (Farsi) | Polski | Portugalski (Brazylia) | Portugalski (Portugalia) | Pendżabski (Gurmukhi) | Rumuński | Rosyjski | Serbski (cyrylica) | Słowacki | Słoweński | Hiszpański | Suahili | Szwedzki | Tagalog (Filipiński) | Tamilski | Telugu | Tajski | Turecki | Ukraiński | Urdu | Wietnamski
Wolisz klonować lokalnie?
To repozytorium zawiera ponad 50 tłumaczeń, co znacząco zwiększa rozmiar pobierania. Aby sklonować bez tłumaczeń, użyj sparse checkout:
Bash / macOS / Linux:
git clone --filter=blob:none --sparse https://github.com/microsoft/PhiCookBook.git cd PhiCookBook git sparse-checkout set --no-cone '/*' '!translations' '!translated_images'CMD (Windows):
git clone --filter=blob:none --sparse https://github.com/microsoft/PhiCookBook.git cd PhiCookBook git sparse-checkout set --no-cone "/*" "!translations" "!translated_images"Dzięki temu zyskasz wszystko, co potrzebne do ukończenia kursu, przy znacznie szybszym pobieraniu.
-
Wprowadzenie
-
Wnioskowanie Phi w różnych środowiskach
-
Rodzina Wnioskowania Phi
- Wnioskowanie Phi na iOS
- Wnioskowanie Phi na Android
- Wnioskowanie Phi na Jetson
- Wnioskowanie Phi na AI PC
- Wnioskowanie Phi z wykorzystaniem Apple MLX Framework
- Wnioskowanie Phi na serwerze lokalnym
- Wnioskowanie Phi na serwerze zdalnym przy użyciu AI Toolkit
- Wnioskowanie Phi z Rust
- Wnioskowanie Phi--Vision lokalnie
- Wnioskowanie Phi z Kaito AKS, Azure Containers (oficjalne wsparcie)
-
Ocena Phi
-
RAG z Azure AI Search
-
Przykłady tworzenia aplikacji Phi
-
Aplikacje tekstowe i czatowe
- Przykłady Phi-4
- Przykłady Phi-3 / 3.5
- Lokalny chatbot w przeglądarce korzystający z Phi3, ONNX Runtime Web i WebGPU
- OpenVino Chat
- Multi Model - Interaktywny Phi-3-mini i OpenAI Whisper
- MLFlow - Tworzenie wrappera i używanie Phi-3 z MLFlow
- Optymalizacja Modelu - Jak zoptymalizować model Phi-3-min na ONNX Runtime Web z Olive
- Aplikacja WinUI3 z Phi-3 mini-4k-instruct-onnx -WinUI3 Multi Model AI Powered Notes App Sample
- Dostrajanie i integracja niestandardowych modeli Phi-3 z Prompt flow
- Dostrajanie i integracja niestandardowych modeli Phi-3 z Prompt flow w Microsoft Foundry
- Ocena dostrojonego modelu Phi-3 / Phi-3.5 w Microsoft Foundry z naciskiem na zasady odpowiedzialnej AI Microsoft
- [📓] Przykład przewidywania języka Phi-3.5-mini-instruct (chiński/angielski)
- Phi-3.5-Instruct WebGPU RAG Chatbot
- Używanie GPU Windows do tworzenia rozwiązania Prompt flow z Phi-3.5-Instruct ONNX
- Używanie Microsoft Phi-3.5 tflite do tworzenia aplikacji na Android
- Przykład Q&A .NET używający lokalnego modelu ONNX Phi-3 z Microsoft.ML.OnnxRuntime
- Konsolowa aplikacja chat .NET z Semantic Kernel i Phi-3
-
Przykłady kodu na bazie Azure AI Inference SDK
-
Zaawansowane przykłady rozumowania
-
Dema
-
Przykłady dla wizji
- Przykłady Phi-4
- Przykłady Phi-3 / 3.5
- [📓]Phi-3-vision-Obraz tekst na tekst
- Phi-3-vision-ONNX
- [📓]Phi-3-vision CLIP Embedding
- DEMO: Phi-3 Recycling
- Phi-3-vision - wizualny asystent językowy - z Phi3-Vision i OpenVINO
- Phi-3 Vision Nvidia NIM
- Phi-3 Vision OpenVino
- [📓]Phi-3.5 Vision próba wielu ramek lub wielu obrazów
- Lokalny model Phi-3 Vision ONNX z Microsoft.ML.OnnxRuntime .NET
- Menu do lokalnego modelu Phi-3 Vision ONNX z Microsoft.ML.OnnxRuntime .NET
-
Przykłady Reasoning-Vision
-
Przykłady matematyczne
- Przykłady Phi-4-Mini-Flash-Reasoning-Instruct Demo matematyczne z Phi-4-Mini-Flash-Reasoning-Instruct
-
Przykłady audio
-
Przykłady MOE
-
Przykłady wywoływania funkcji
-
Przykłady mieszania multimodalnego
-
-
Dostrajanie próbek Phi
- Scenariusze dostrajania
- Dostrajanie vs RAG
- Dostrajanie: Niech Phi-3 stanie się ekspertem branżowym
- Dostrajanie Phi-3 z AI Toolkit dla VS Code
- Dostrajanie Phi-3 z Azure Machine Learning Service
- Dostrajanie Phi-3 z Lora
- Dostrajanie Phi-3 z QLora
- Dostrajanie Phi-3 z Microsoft Foundry
- Dostrajanie Phi-3 z Azure ML CLI/SDK
- Dostrajanie z Microsoft Olive
- Dostrajanie z Microsoft Olive Hands-On Lab
- Dostrajanie Phi-3-vision z Weights and Bias
- Dostrajanie Phi-3 z Apple MLX Framework
- Dostrajanie Phi-3-vision (oficjalne wsparcie)
- Dostrajanie Phi-3 z Kaito AKS, Azure Containers (oficjalne wsparcie)
- Dostrajanie Phi-3 i 3.5 Vision
-
Warsztaty praktyczne
-
Prace badawcze i publikacje akademickie
- Textbooks Are All You Need II: raport techniczny phi-1.5
- Raport techniczny Phi-3: wysoce zaawansowany model językowy lokalnie na Twoim telefonie
- Raport techniczny Phi-4
- Raport techniczny Phi-4-Mini: kompaktowe, lecz potężne multimodalne modele językowe z użyciem Mixture-of-LoRAs
- Optymalizacja małych modeli językowych do wywoływania funkcji w pojeździe
- (WhyPHI) Dostrajanie PHI-3 do odpowiadania na pytania wielokrotnego wyboru: metodologia, wyniki i wyzwania
- Raport techniczny Phi-4-reasoning
- Raport techniczny Phi-4-mini-reasoning
Możesz nauczyć się, jak korzystać z Microsoft Phi i jak budować kompleksowe rozwiązania na różnych urządzeniach sprzętowych. Aby osobiście doświadczyć Phi, zacznij od zabawy z modelami i dostosowywania Phi do swoich scenariuszy za pomocą Microsoft Foundry Azure AI Model Catalog. Więcej informacji znajdziesz w przewodniku Rozpoczęcie pracy z Microsoft Foundry.
Plac zabaw
Każdy model ma dedykowany plac zabaw do testowania modelu Azure AI Playground.
Możesz nauczyć się, jak korzystać z Microsoft Phi i jak budować kompleksowe rozwiązania na różnych urządzeniach sprzętowych. Aby osobiście doświadczyć Phi, zacznij od zabawy z modelem i dostosowywania Phi do swoich scenariuszy za pomocą GitHub Model Catalog. Więcej informacji znajdziesz w przewodniku Rozpoczęcie pracy z GitHub Model Catalog.
Plac zabaw
Każdy model ma dedykowany plac zabaw do testowania modelu.
Model jest również dostępny na Hugging Face.
Plac zabaw
Hugging Chat playground
Nasz zespół tworzy też inne kursy! Sprawdź:
Microsoft zobowiązuje się do pomocy klientom w odpowiedzialnym korzystaniu z naszych produktów AI, dzielenia się naszymi doświadczeniami oraz budowania partnerstw opartych na zaufaniu przy pomocy narzędzi takich jak Transparency Notes i Impact Assessments. Wiele z tych zasobów można znaleźć pod adresem https://aka.ms/RAI.
Podejście Microsoft do odpowiedzialnej AI opiera się na naszych zasadach AI: uczciwości, niezawodności i bezpieczeństwie, prywatności i ochronie, integracyjności, przejrzystości oraz odpowiedzialności.
Duże modele językowe, obrazowe i mowy - takie jak te używane w tym przykładzie - mogą potencjalnie zachowywać się w sposób nieuczciwy, niespójny lub obraźliwy, co może powodować szkody. Prosimy o zapoznanie się z Notatką transparentności usługi Azure OpenAI, aby zostać poinformowanym o ryzykach i ograniczeniach. Zalecanym podejściem do łagodzenia tych ryzyk jest uwzględnienie w architekturze systemu bezpieczeństwa, który potrafi wykrywać i zapobiegać szkodliwemu zachowaniu. Azure AI Content Safety zapewnia niezależną warstwę ochrony, zdolną do wykrywania szkodliwych treści generowanych przez użytkowników i AI w aplikacjach i usługach. Azure AI Content Safety obejmuje API do analizy tekstu i obrazów, które pozwalają wykrywać materiały szkodliwe. W ramach Microsoft Foundry, usługa Content Safety umożliwia przeglądanie, eksplorowanie oraz wypróbowywanie przykładowego kodu do wykrywania szkodliwych treści w różnych modalnościach. Następująca dokumentacja szybkiego startu przeprowadzi Cię przez proces wysyłania zapytań do usługi.
Innym aspektem, który należy uwzględnić, jest ogólna wydajność aplikacji. W przypadku aplikacji multimodalnych i wielomodelowych wydajność oznacza, że system działa zgodnie z oczekiwaniami twoimi i twoich użytkowników, w tym nie generuje szkodliwych wyników. Ważne jest, aby ocenić wydajność całej aplikacji za pomocą evaluatorów wydajności, jakości oraz ryzyka i bezpieczeństwa. Masz również możliwość tworzenia i oceniania za pomocą evaluatorów niestandardowych.
Możesz ocenić swoją aplikację AI w środowisku deweloperskim za pomocą Azure AI Evaluation SDK. Mając zestaw danych testowych lub cel, generacje Twojej aplikacji generatywnej AI są mierzone ilościowo za pomocą wbudowanych evaluatorów lub wybranych evaluatorów niestandardowych. Aby zacząć korzystać z azure ai evaluation sdk do oceny Twojego systemu, możesz skorzystać z przewodnika szybkiego startu. Po wykonaniu uruchomienia oceny możesz wizualizować wyniki w Microsoft Foundry.
Projekt ten może zawierać znaki towarowe lub logotypy projektów, produktów lub usług. Autoryzowane użycie znaków towarowych lub logotypów Microsoft musi podlegać i przestrzegać Wytycznych dotyczących znaków towarowych i marek Microsoft.
Użycie znaków towarowych lub logotypów Microsoft w zmodyfikowanych wersjach tego projektu nie może powodować nieporozumień ani sugerować sponsorowania przez Microsoft. Każde użycie znaków towarowych lub logotypów stron trzecich podlega zasadom tych stron trzecich.
Jeśli napotkasz problemy lub masz pytania dotyczące tworzenia aplikacji AI, dołącz do:
Jeśli masz opinie o produkcie lub zgłaszasz błędy podczas tworzenia, odwiedź:
Zastrzeżenie: Niniejszy dokument został przetłumaczony za pomocą usługi tłumaczenia AI Co-op Translator. Chociaż dokładamy starań, aby tłumaczenie było jak najbardziej precyzyjne, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub niedokładności. Oryginalny dokument w języku źródłowym powinien być uznawany za wiążące źródło informacji. W przypadku krytycznych informacji zalecane jest korzystanie z profesjonalnego tłumaczenia wykonanego przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędną interpretację wynikające z korzystania z tego tłumaczenia.
