Lokales LLM
GPT-OSS für Mac Mini
GPT-OSS für Mac Mini mit Macfleet Cloud verwendenGPT-OSS ist OpenAIs Serie von offenen Sprachmodellen, die für leistungsstarkes Reasoning, agentische Aufgaben und vielseitige Entwickler-Anwendungsfälle entwickelt wurden. Mit Apache 2.0-Lizenzierung bieten diese Modelle produktionsreife KI-Fähigkeiten, die vollständig auf Ihrer Hardware laufen.
Hauptfunktionen
- Zwei Modellvarianten: GPT-OSS-120B (117B Parameter) für Produktionsnutzung und GPT-OSS-20B (21B Parameter) für geringere Latenz
- Apache 2.0-Lizenz: Bauen Sie frei ohne Copyleft-Beschränkungen oder Patentrisiko
- Konfigurierbares Reasoning: Einfache Anpassung des Reasoning-Aufwands (niedrig, mittel, hoch) je nach Bedarf
- Vollständige Chain-of-Thought: Kompletter Zugang zum Reasoning-Prozess des Modells für Debugging und Vertrauen
- Agentische Fähigkeiten: Native Funktionsaufrufe, Web-Browsing, Python-Code-Ausführung und Strukturierte Ausgaben
- Native MXFP4-Quantisierung: Optimiert, um GPT-OSS-120B auf einer einzigen H100-GPU zu betreiben
Erste Schritte
- Installieren Sie Ollama auf Ihrem Mac Mini
- Modell herunterladen:
ollama pull gpt-oss:20b
oderollama pull gpt-oss:120b
- Nutzung beginnen:
ollama run gpt-oss:20b
Alternative Installation über Hugging Face:
huggingface-cli download openai/gpt-oss-20b --include "original/*" --local-dir gpt-oss-20b/
Perfekt für
- Produktions-KI-Anwendungen mit leistungsstarkem Reasoning
- Entwickler, die agentische KI-Systeme bauen
- Forschung und Experimente mit offenen Modellen
- Datenschutzbewusste Bereitstellungen
- Feinabstimmung für spezialisierte Anwendungsfälle
- Mac Mini M4 mit MLX-Optimierung
GPT-OSS bringt modernste Reasoning-Fähigkeiten auf Ihre lokale Hardware mit vollständiger Transparenz und Kontrolle.
Apple silicon as-a-Service
Discover why Macfleet is the preferred cloud provider for developers.