LLM Local

GPT-OSS para Mac Mini

Usar GPT-OSS para Mac Mini con Macfleet Cloud
Captura de pantalla de la interfaz GPT-OSS

GPT-OSS es la serie de modelos de lenguaje de peso abierto de OpenAI diseñados para razonamiento poderoso, tareas agénticas y casos de uso versátiles para desarrolladores. Con licencia Apache 2.0, estos modelos ofrecen capacidades de IA listas para producción que se ejecutan completamente en tu hardware.

Características Principales

  • Dos Variantes de Modelo: GPT-OSS-120B (117B parámetros) para uso en producción y GPT-OSS-20B (21B parámetros) para menor latencia
  • Licencia Apache 2.0: Construye libremente sin restricciones copyleft o riesgo de patentes
  • Razonamiento Configurable: Ajusta fácilmente el esfuerzo de razonamiento (bajo, medio, alto) según tus necesidades
  • Cadena de Pensamiento Completa: Acceso completo al proceso de razonamiento del modelo para depuración y confianza
  • Capacidades Agénticas: Llamadas de función nativas, navegación web, ejecución de código Python y Salidas Estructuradas
  • Cuantización MXFP4 Nativa: Optimizado para ejecutar GPT-OSS-120B en una sola GPU H100

Comenzar

  1. Instala Ollama en tu Mac Mini
  2. Descarga el modelo: ollama pull gpt-oss:20b o ollama pull gpt-oss:120b
  3. Comienza a usar: ollama run gpt-oss:20b

Instalación alternativa vía Hugging Face:

huggingface-cli download openai/gpt-oss-20b --include "original/*" --local-dir gpt-oss-20b/

Perfecto Para

  • Aplicaciones de IA en producción que requieren razonamiento poderoso
  • Desarrolladores construyendo sistemas de IA agénticos
  • Investigación y experimentación con modelos abiertos
  • Despliegues conscientes de la privacidad
  • Ajuste fino para casos de uso especializados
  • Mac Mini M4 con optimización MLX

GPT-OSS trae capacidades de razonamiento de vanguardia a tu hardware local con completa transparencia y control.

Apple silicon as-a-Service

Discover why Macfleet is the preferred cloud provider for developers.