Cómo tener ChatGPT Premium gratis con LM Studio en tu PC

ChatGPT Premium gratis con LM Studio

El 5 de agosto de 2025 marca un momento histórico en la evolución de la inteligencia artificial: OpenAI ha lanzado dos nuevos modelos open source, gpt-oss-120b y gpt-oss-20b, los primeros modelos de lenguaje de código abierto desde GPT-2 (2019).

Diseñados para ofrecer un alto rendimiento en tareas complejas a bajo coste, estos modelos están optimizados para funcionar incluso en hardware de consumo. Esto abre una puerta a lo que muchos soñaban: usar una alternativa a ChatGPT Premium gratis, directamente en tu PC, gracias a LM Studio.

Diferencias clave entre las variantes

gpt-oss-120b: potencia empresarial

Este es el modelo insignia, diseñado para cargas de trabajo empresariales y tareas de razonamiento de alto nivel. Requiere una GPU H100 con 80 GB de VRAM y alcanza una paridad casi total con OpenAI o4-mini en benchmarks clave.

  • Parámetros totales: 117 mil millones
  • Parámetros activos por token: 5.1 mil millones
  • Ideal para: entornos empresariales, investigación avanzada y despliegue en servidores

gpt-oss-20b: eficiencia accesible

Este es el modelo que vamos a usar la mayoría. Funciona en ordenadores con tan solo 16 GB de VRAM, pero ofrece un rendimiento comparable al de OpenAI o3-mini.

  • Ideal para: inferencia local, laptops con Apple Silicon y PCs con GPU de gama alta
  • Perfecto para: quienes buscan usar ChatGPT gratis sin depender de servidores externos
Diferencias clave entre gpt-oss-120b y gpt-oss-20b

Requisitos de hardware

gpt-oss-120b

  • GPU: NVIDIA A100 80GB o H100
  • RAM: 128 GB
  • Disco: 500 GB NVMe SSD

gpt-oss-20b

  • Mínimo:
    • GPU: Cualquier tarjeta con 16 GB de VRAM
    • RAM: 32 GB
  • Recomendado:
    • GPU: RTX 4090 o RTX 6000 Ada
    • Compatible con: Macs con Apple Silicon y PCs con GPU dedicada

Yo, por ejemplo, uso un Ryzen 7 3800X con 32 GB de RAM y una RTX 4070 (con solo 12 GB de VRAM), y el modelo funciona perfectamente porque parte de la carga se gestiona desde la RAM del sistema.

En los Macs con memoria unificada, la eficiencia es aún mayor: CPU y GPU comparten una sola reserva de memoria física, lo que evita la copia de datos entre ambos y mejora el rendimiento en tareas como edición de vídeo, gráficos 3D o IA. Eso sí, no es ampliable y no sustituye a una GPU dedicada para gaming extremo.

¿Cómo utilizar este modelo localmente?

Hay varias formas , yo me voy a centrar en LM Studio, veras que la instalación de este programa gratuito es muy sencilla. Si ya lo tenemos instalado mirar que tengamos la última versión. El programa se actualiza solo y te avisará si hay una nueva versión disponible.

actualizar LM Studio

Y en este caso vemos que la actualización es precisamente para soportar estos nuevos modelos de OpenAI

ChatGPT Premium gratis en tu PC con LM Studio

Descarga del modelo

Una vez dentro del programa, en el menú lateral vamos a «Discover» para instalar modelos, empezamos a escribir «Open …»cuando ya nos aparecerá la versión que nos interesa la gpt-oss-20b, la «pequeña».

instalar gpt-oss-20b gratis en tu PC LM Studio

Una vez instalado ya se puede utilizar , cargamos el modelo (Control+L en windows) o clicamos en el desplegable superior y seleccionamos. Podemos ver que este modelo ocupa unos 12Gb de espacio en disco.

Seleccionar el modelo ChatGPT Premium gratis en tu PC con LM Studio

Consejos de utilización

Una función clave es el Reasoning Effort, que permite ajustar cuánta “reflexión” hace el modelo antes de responder:

  • Mayor Esfuerzo de Razonamiento (High): Cuando se selecciona un nivel alto, el modelo dedica más tiempo y recursos computacionales a analizar el problema.Esto implica que puede generar una «cadena de pensamiento» interna más larga y detallada para explorar diferentes ángulos, evaluar alternativas y justificar su conclusión.El resultado suele ser una respuesta más precisa, detallada y de mayor calidad, pero a costa de un tiempo de generación más largo y un mayor uso de los recursos del sistema
  • Menor Esfuerzo de Razonamiento (Low): Al optar por un nivel bajo, el modelo produce una respuesta mucho más rápido porque su proceso de razonamiento interno es más corto.Esta opción es ideal para preguntas sencillas o cuando la velocidad es más importante que la profundidad del análisis.

Yo por defecto lo dejo en medium y es cuestión de ir probando. Todo dependerá de los recursos de tu ordenador, la complejidad de la pregunta y del tiempo que quieras esperar 🙂

esfuerzo de razonamiento: Chat gpt en LM studio

Comparativa: ¿Cómo rinde frente a otros modelos?

Hice pruebas con las mismas preguntas en varios modelos:

  • ChatGPT (o4)
  • Gemini 2.5 Pro
  • Claude 3.7 Sonnet
  • Copilot (Microsoft)
  • Groq (con Mixtral)
  • LLaMA 3 70B
  • Nuestro GPT OSS 20B en local con LM Studio


Me centré sólo en «preguntas trampa»:

  • Un padre y su hijo tienen un accidente de coche. El padre muere al instante y el hijo es llevado al hospital. El cirujano de urgencias dice: ‘No puedo operar a este niño, es mi hijo’. ¿Cómo es posible?
    Respuesta trampa: El cirujano es la madre del niño.
    Conclusión:Todas los modelos acertaron.
  • Si tengo 4 manzanas y 3 naranjas en una mano, y 6 manzanas y 5 naranjas en la otra, ¿qué tengo?
    Respuesta trampa: Dos manazas o decir que es imposible sostener tanta fruta, cualquier parecida cosa sirve excepto contar las frutas y dar el total (10 en una mano y 8 en la otra, 18 en total)
    Conclusión: Groq, Llama fallaron. Chat Gpt , Gemini 2.5Pro acertaron y LM Studio me dio una respuesta intermedia, detecto algo raro y se quedo en : El enunciado está diseñado para que pienses en contar las frutas, pero lo que realmente posees al sostenerlas son tus dos extremidades.
  • Un gallo pone un huevo en la cima de un tejado inclinado. ¿Hacia qué lado rueda el huevo?
    Respuesta trampa: los gallos no ponen huevos
    Conclusión: Todos los modelos acertaron
  • ¿Cuántas «r» hay en la frase «el perro rabioso de San Roque no tiene rabo porque Ramón Ramírez se lo ha cortado?».
    Respuesta real: 10, hay palabras con dos letras R
    Conclusión: Aquí hubo de todo, Gemini 2.5 Pro me dio una respuesta incorrecta y al pedirle que lo detallara se dio cuenta y pido disculpas. Claude dijo 8 pero avisó que habían dos palabras con dos letras R. Groq se volvió a equivocar. El resto bien a la primera. Esta era la típica prueba que las versiones del año pasado de estos modelos se equivocaban .
  • En una carrera, adelantas al segundo. ¿En qué posición estás ahora?
    Respuesta trampa: Si adelantas al segundo en una carrera, ocupas su posición. Por lo tanto, ahora estás en segundo lugar.
    Conclusión: Todos acertaron.
  • ¿Qué pasaría si los gatos pudieran hablar solo en japonés?
    Respuesta trampa: Ideal para ver cómo la IA maneja escenarios surrealistas.
    Conclusión: En esta la mejor respuesta para mi gusto fue la de Chat GPT porque fue la más divertida. El resto dieron una serie de situaciones pero desde un punto de vista más serio y científico, lo que no es incorrecto pero yo buscaba algo más divertido. Nuestro chat gpt local nos dio esta, que no me pareció muy ingeniosa tambien:
    • Si los gatos pudieran hablar solo en japonés, tendríamos:
      • Una comunicación más rica entre humanos y felinos.
      • Menos malentendidos y conflictos por el uso de muebles o la rutina diaria.
      • Un nuevo mercado cultural: literatura, cine, moda y tecnología basada en “gato‑japonés”.
      • Y, sobre todo, una cultura donde los gatos no solo maúllan, sino que también cuentan sus historias en un idioma tan delicado como el propio japonés.
      • En definitiva, la convivencia con nuestros amigos felinos se convertiría en una experiencia lingüística y emocional más profunda, ¡y quién sabe cuántos “kawaii desu” nos dirían cada día!
  • ¿quien gano el campeonato de la liga de futbol en España la temporada 2024/2025?
    Esta pregunta no fue capaz de resolver porque sólo tienes datos hasta junio de 2024 y no puede conectarse a otras web para descubrir la respuesta correcta:
    • No dispongo de información sobre el resultado de la temporada 2024‑2025 de La Liga, ya que mi base de datos se actualiza hasta junio 2024 y esa campaña aún no ha finalizado (o no se había iniciado en ese momento).
      • Para saber quién fue campeón en esa temporada te recomiendo consultar:
      • El sitio oficial de la Liga de Fútbol Profesional (LFP)
      • La página del Real Federación Española de Fútbol (RFEF)
      • Fuentes deportivas actualizadas como ESPN, Marca, AS o El Espanol.
      • Allí encontrarás los datos oficiales y las estadísticas completas de la temporada 2024‑25.

Optimizar el sistema

Para que todo funcione de forma fluida, sigue estos 3 consejos:

  • Cierra programas en segundo plano
    Evita tener muchas apps abiertas, especialmente navegadores o programas que usen GPU como editores de vídeo o juegos.
  • Actualiza los drivers de tu GPU.
    Instala siempre la última versión del controlador de NVIDIA o AMD. Mejoras de rendimiento en CUDA pueden marcar la diferencia.
  • Ajustes clave en LM Studio:
    • Aceleración GPU en caso de tener una gráfica dedicada siempre en ON
    • Offload KV Cache to GPU: Mejor en ON . (mejora fluidez y reduce latencia)
    • Limit Model Offload to Dedicated GPU Memory: OFF por defecto. Actívalo solo si el sistema se vuelve inestable al cargar modelos grandes.
    • Guardrails: Balanced com punto de partida, son precauciones para evitar que LM Studio consuma todos los recursos de tu sistema y lo deje inestable. La opción Balanced ofrece una buena combinación entre rendimiento y seguridad.

Conclusión: ¿Vale la pena usar GPT OSS 20B con LM Studio?

Sí, absolutamente. GPT OSS 20B es una alternativa real y práctica a ChatGPT Premium, que puedes ejecutar directamente en tu ordenador sin suscripciones, sin censura y con total privacidad.

Lo más destacable es que no necesitas un superordenador: con una GPU de consumo con al menos 12–16 GB de VRAM y 32 GB de RAM, como una RTX 4070 o un Mac con Apple Silicon, ya puedes obtener una experiencia fluida en local. Eso sí, cuantos más recursos tengas, más rápido y potente será el resultado.

Aunque no llega al nivel de GPT-4 en tareas muy complejas, su rendimiento es más que suficiente para la mayoría de usos cotidianos: redacción, análisis, lógica, creatividad, programación e incluso tutoría personalizada.

Gracias a herramientas como LM Studio, ahora cualquiera con un buen PC puede aprovechar el poder de la IA avanzada sin depender de la nube, sin preocuparse por suscripciones mensuales o limitaciones de uso.

En resumen: si tienes el hardware adecuado y te tomas unos minutos para configurarlo bien, puedes tener tu propio ChatGPT local gratuito, rápido, privado y sin límites, listo para ayudarte a trabajar, crear o aprender.

Fuentes:

https://cookbook.openai.com/articles/gpt-oss/run-locally-ollama

https://simonwillison.net/2025/Aug/5/gpt-oss/

https://blogs.nvidia.com/blog/ai-decoded-lm-studio

https://www.microcenter.com/site/mc-news/article/lm-studio-getting-started.aspx

Descargar https://openai.com/es-ES/open-models/

OpenAI te ofrece una web para probar los modelos sin necesidad de instalación: https://gpt-oss.com/

Comparte si te ha gustado

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *