Ir al contenido principal

Mejores Mini PC con GPU para IA y Deep Learning: Ranking Completo [2026]

26 de marzo de 2026
22 min

Ranking de mini PCs con GPU dedicada y potente iGPU para IA, deep learning y Stable Diffusion. ASUS ROG NUC, Minisforum AtomMan, Framework Desktop, DGX Spark comparados.

Javier Santos

Especialista en IA & Machine Learning

📧¿Te gusta este contenido?

Únete a 547+ profesionales que reciben tips de IA cada semana. Sin spam, cancela cuando quieras.

Mejores Mini PC con GPU para IA y Deep Learning: Ranking Completo [2026]

En 2026, la linea entre "mini PC" y "estacion de trabajo de IA" se ha difuminado por completo. Hay mini PCs con RTX 5080, con 128 GB de memoria unificada accesible por GPU, e incluso con el chip Blackwell de NVIDIA capaz de ejecutar modelos de 200B parametros. Esta comparativa cubre todas las opciones con GPU seria para IA, desde la entrada a 1.000 EUR hasta el NVIDIA DGX Spark a 4.000 EUR.

TL;DR

  • Mejor para LLMs grandes (70B+): Beelink GTR9 Pro -- 128 GB unificados, hasta 96 GB VRAM, ~1.900 EUR
  • Mejor GPU discreta calidad-precio: Minisforum AtomMan G7 Pro -- RTX 5070, desde 1.360 USD
  • Mejor modular y reparable: Framework Desktop -- Ryzen AI Max+ 395, desde 1.099 USD
  • Mejor para Stable Diffusion: ASUS ROG NUC -- RTX 5080 (16 GB GDDR7), ~2.850 USD
  • Maximo rendimiento IA puro: NVIDIA DGX Spark -- 1 petaFLOP FP4, 128 GB, ~3.999 USD
  • Mejor presupuesto con GPU real: Minisforum AtomMan G1 Pro -- RTX 5060 desktop, desde 1.040 USD
  • Para LLMs: Memoria unificada 128 GB (Strix Halo) > RTX 5080 (16 GB VRAM)
  • Para Stable Diffusion / imagen: RTX 5080 > RTX 5070 > Radeon 8060S


"We're entering an era where a $2,000 mini PC can run models that required a $50,000 server two years ago. The democratization of AI inference is real." -- Jensen Huang, CEO de NVIDIA (CES 2026, 7 de enero de 2026)

Segun TechRadar (febrero 2026), el AMD Ryzen AI Max+ 395 con Radeon 8060S integrada supera a la RTX 4090 en un 220% en eficiencia de IA cuando se mide en tokens por vatio, gracias a que puede acceder a hasta 96 GB de la memoria del sistema como VRAM (TechRadar, febrero 2026). Esto ha cambiado las reglas: para LLMs grandes, la VRAM importa mas que los TFLOPS brutos.

"La Radeon 8060S con 96 GB de VRAM compartida ha convertido los mini PCs en maquinas de inferencia de LLMs que antes solo eran posibles con tarjetas de 2.000 EUR." -- Javier Santos Criado, consultor de IA en Javadex (marzo 2026)


GPU Discreta vs Memoria Unificada: Que Necesitas Segun tu Caso de Uso

Esta es la decision mas importante antes de elegir un mini PC con GPU para IA:

FactorGPU Discreta (RTX 5070/5080)Memoria Unificada (Strix Halo 128 GB)
VRAM maxima8-16 GB GDDR7Hasta 96 GB (de 128 GB sistema)
TFLOPS brutosSuperiores (RTX 5080: ~30 TFLOPS FP16)~16 TFLOPS FP16 (Radeon 8060S)
Mejor para LLMs grandesNo (16 GB VRAM limita a ~13B)Si (96 GB = hasta 70B)
Mejor para Stable DiffusionSi (CUDA optimizado, 16 GB VRAM)Funcional pero mas lento
Mejor para fine-tuningSi (si cabe en VRAM)Si (modelos que no caben en 16 GB)
Consumo energetico115-175W (solo GPU)~140W (todo el sistema)
Precio1.400-3.200 USD1.100-2.300 USD
Regla simple: Si tu trabajo principal es ejecutar LLMs de 30B-70B parametros, la memoria unificada de 128 GB gana. Si tu trabajo es Stable Diffusion, generacion de video o fine-tuning de modelos que caben en 16 GB, la GPU discreta gana.


Ranking Completo: Mini PCs con GPU para IA [2026]

#Mini PCGPUVRAM / Mem. AccesiblePrecio (USD)Mejor ParaPuntuacion
1Beelink GTR9 ProRadeon 8060S (iGPU)96 GB unificada~1.990LLMs 70B+9.5/10
2Minisforum MS-S1 MAXRadeon 8060S (iGPU)96 GB unificada~2.300AI workstation, rack9.3/10
3Framework DesktopRadeon 8060S (iGPU)96 GB unificada~1.999Modular, Linux9.2/10
4ASUS ROG NUC 2025RTX 5080 (discreta)16 GB GDDR7~2.850Stable Diffusion9.0/10
5Minisforum AtomMan G7 ProRTX 5070 (discreta)8 GB GDDR7~1.680Mejor GPU discreta/precio8.8/10
6Minisforum AtomMan G1 ProRTX 5060 desktop8 GB+ GDDR7~1.440GPU discreta economica8.5/10
7GMKtec EVO-X2Radeon 8060S (iGPU)96 GB unificada~1.500Budget Strix Halo8.7/10
8NVIDIA DGX SparkBlackwell (dedicada)128 GB unificada~3.999IA puro, 200B modelos9.4/10

CaracteristicaValor
APUAMD Ryzen AI Max+ 395 (16 Zen 5, 32 hilos, 5.1 GHz)
iGPURadeon 8060S (RDNA 3.5, 40 CUs, ~RTX 4060-4070 mobile)
NPUXDNA 2, 50 TOPS (126 TOPS total)
RAM128 GB LPDDR5X-8000 (hasta 96 GB como VRAM)
Almacenamiento2 TB Crucial NVMe (2x M.2 PCIe 4.0)
Conectividad2x 10 GbE, WiFi 7, BT 5.4, 2x USB4
TDP140W
Precio~1.990 USD en Amazon

Fortalezas

  • 96 GB de VRAM efectiva: ningun GPU discreta de mini PC ofrece esto. El RTX 5080 tiene 16 GB
  • Ejecuta Llama 3.3 70B Q4 a ~10 tok/s (ServeTheHome Review, febrero 2026)
  • Doble 10 GbE: perfecto para servir IA en red o clusterizar con otras unidades
  • DeepSeek V4 33B a ~16 tok/s: rendimiento profesional para uso interactivo

Debilidades

  • RAM LPDDR5X soldada: no ampliable
  • 140W bajo carga maxima (mas que otros Strix Halo)
  • Problemas reportados con NICs Intel E610-XT2 (BSODs en algunos usuarios)
  • Refrigeracion audible bajo carga sostenida (32 dB)

El mejor mini PC para LLMs grandes en 2026, sin discusion. Si tu objetivo es ejecutar modelos de 70B parametros, los 128 GB de memoria unificada con 96 GB accesibles como VRAM no tienen rival en formato compacto. Es la alternativa directa al Mac Studio M4 Max pero por la mitad de precio con el doble de RAM.

Por que lo recomiendo: Lo he analizado en profundidad en la comparativa principal de mini PCs para IA. Para modelos de 70B, no hay alternativa real a este precio.


2. Minisforum MS-S1 MAX -- La Workstation de IA Mas Expandible

CaracteristicaValor
APUAMD Ryzen AI Max+ 395 (16 Zen 5, 32 hilos)
iGPURadeon 8060S (40 CUs, RDNA 3.5)
RAM128 GB LPDDR5X-8000
Almacenamiento2x M.2 (PCIe 4.0 x4 + x1), hasta 16 TB con RAID
Conectividad2x 10 GbE, WiFi 7, USB4 v2 (80 Gbps)
EspecialSlot PCIe x16 interno, formato rack 2U
TDP160W pico, PSU 320W
Precio~2.300-2.960 USD

Veredicto: Minisforum MS-S1 MAX

La opcion premium si necesitas expandibilidad. El slot PCIe x16 interno permite anadir una GPU discreta o acelerador de IA. El formato 2U y la doble 10 GbE lo hacen ideal para clusters de IA en rack. TechRadar lo llamo "the best mini workstation for AI we've ever tested" (TechRadar, marzo 2026). Precio superior justificado si necesitas el slot PCIe.

Por que lo recomiendo: Si planeas montar un home lab de IA serio, el MS-S1 MAX con su formato rack y slot PCIe es la base perfecta.


3. Framework Desktop -- Modular, Reparable y con Strix Halo

CaracteristicaValor
APUAMD Ryzen AI Max+ 395 (top config) o Ryzen AI Max 385
iGPURadeon 8060S (40 CUs, RDNA 3.5)
RAMHasta 128 GB LPDDR5X (soldada)
FormatoMini-ITX, 4.5L
EspecialPCIe x4 slot, mainboard extraible, coolers Noctua/Cooler Master
Precio1.099 USD (385/32 GB) -- 1.999 USD (395/128 GB)

Veredicto: Framework Desktop

El Strix Halo mas barato del mercado y el mas reparable. Framework es la unica marca que vende la placa base por separado (799 USD), permitiendo transplantarla a cualquier carcasa Mini-ITX. Linux funciona de forma excelente segun Phoronix (marzo 2026). Para quien valora la sostenibilidad y la modularidad, no hay alternativa.

Por que lo recomiendo: Si vienes del mundo Linux y quieres control total del hardware, el Framework Desktop es un sueno. La mainboard por separado a 799 USD con Ryzen AI Max es una ganga para integradores.


4. ASUS ROG NUC 2025 -- La Bestia con RTX 5080

CaracteristicaValor
CPUIntel Core Ultra 9 275HX (Arrow Lake-HX)
GPUNVIDIA RTX 5080 Laptop (16 GB GDDR7, 175W TGP)
RAM32 GB DDR5-6400 (ampliable a 96 GB)
Dimensiones282 x 188 x 56 mm (~3L)
ConectividadWiFi 7, TB4, 2.5 GbE
Precio~2.850-3.200 USD

Veredicto: ASUS ROG NUC 2025

El mejor mini PC para Stable Diffusion y generacion de imagenes/video con IA. La RTX 5080 con 16 GB GDDR7 y soporte CUDA nativo es imbatible para cargas de trabajo que dependen de NVIDIA (Stable Diffusion, ComfyUI, LoRA training). Para LLMs, sin embargo, los 16 GB de VRAM limitan a modelos de ~13B. Para modelos grandes, el GTR9 Pro con 96 GB de VRAM compartida es mejor opcion.

Por que lo recomiendo: Si tu flujo de trabajo gira alrededor de Stable Diffusion, SDXL, generacion de video con SVD o fine-tuning de LoRAs, la RTX 5080 con CUDA es el camino. Para LLMs, no.


5. Minisforum AtomMan G7 Pro -- Mejor GPU Discreta por Precio

CaracteristicaValor
CPUIntel Core i9-14900HX (24 nucleos, 32 hilos)
GPUNVIDIA RTX 5070 Laptop (8 GB GDDR7, 115W)
RAMHasta 96 GB DDR5-5200
Almacenamiento2x M.2 NVMe (hasta 8 TB)
TDP200W (CPU 85W + GPU 115W)
Precio1.360 USD (barebone) -- 1.680 USD (32 GB + 1 TB)

Veredicto: Minisforum G7 Pro

La mejor relacion precio/rendimiento en GPU discreta NVIDIA. A 1.680 USD con 32 GB y 1 TB, ofrece 798 TOPS de rendimiento IA via RTX 5070 por significativamente menos que el ASUS ROG NUC. Los 8 GB de VRAM limitan Stable Diffusion a resoluciones estandar, pero para inferencia CUDA y cargas de IA moderadas es excelente.

Por que lo recomiendo: Si quieres CUDA real sin pagar mas de 2.000 USD, no hay nada mejor. Ideal para desarrolladores que necesitan entrenar modelos pequenos o hacer inferencia rapida con modelos de 7B-13B.


6. Minisforum AtomMan G1 Pro -- GPU Desktop en Mini PC

CaracteristicaValor
CPUAMD Ryzen 9 8945HX (Zen 4, 100W)
GPUNVIDIA RTX 5060 Desktop (145W, GPU completa)
RAMHasta 96 GB DDR5 SO-DIMM
PSU350W
Precio1.040 USD (barebone) -- 1.440 USD (32 GB + 1 TB)

Veredicto: Minisforum G1 Pro

La entrada mas economica a GPU discreta NVIDIA seria. Lo unico de este mini PC es que lleva la RTX 5060 de escritorio (no la version mobile), lo que significa rendimiento completo sin recortes termicos. A 1.440 USD configurado es la opcion mas barata con GPU real de este ranking.

Por que lo recomiendo: Si tu presupuesto esta entre 1.000-1.500 USD y necesitas CUDA para Stable Diffusion o fine-tuning, el G1 Pro ofrece la mejor entrada.


7. GMKtec EVO-X2 -- El Strix Halo Mas Barato

CaracteristicaValor
APUAMD Ryzen AI Max+ 395
iGPURadeon 8060S (40 CUs)
RAM64 GB o 128 GB LPDDR5X-8000
ConectividadHDMI 2.1, DP, 2x USB4, 2x 2.5 GbE, WiFi 7
ModosSilencioso (54W) / Equilibrado (85W) / Rendimiento (140W)
EspecialOCuLink para eGPU externa
PrecioDesde ~1.500 USD (64 GB) -- ~2.050 USD (128 GB)

Veredicto: GMKtec EVO-X2

El Strix Halo mas asequible con OCuLink. A 1.500 USD con 64 GB ya puedes ejecutar modelos de 33B con fluidez. El OCuLink anade la posibilidad de conectar una eGPU (como el dock Minisforum DEG2 a 239 USD + tu GPU de escritorio) para lo mejor de ambos mundos: 128 GB de RAM para LLMs + GPU discreta para Stable Diffusion.

Por que lo recomiendo: Si quieres Strix Halo sin pagar 2.000 USD, la version de 64 GB a 1.500 USD es excelente para modelos de 33B. Y el OCuLink es un seguro de escalabilidad.


8. NVIDIA DGX Spark -- IA Pura, 200B de Parametros

CaracteristicaValor
ChipNVIDIA GB10 Grace Blackwell Superchip (20 ARM + Blackwell GPU)
RAM128 GB LPDDR5X (273 GB/s)
Rendimiento IAHasta 1 petaFLOP FP4
CapacidadModelos de hasta 200B parametros
SONVIDIA DGX OS (Linux) -- NO ejecuta Windows
AlmacenamientoHasta 4 TB SSD
Precio3.999 USD (Founders) -- 4.699 USD (standard)

Veredicto: NVIDIA DGX Spark

La maquina de IA mas potente en formato de escritorio, pero NO es un PC de proposito general. Solo ejecuta DGX OS (Linux), no Windows. No es para navegar, programar o editar video -- es exclusivamente para desarrollo e inferencia de modelos de IA. Si eso es exactamente lo que necesitas, 1 petaFLOP a FP4 por 3.999 USD es extraordinario.

Por que lo recomiendo: Solo para equipos de investigacion o desarrolladores profesionales de IA que necesiten ejecutar modelos de 200B parametros. Para el 99% de los usuarios, el GTR9 Pro o el Framework Desktop son mejores opciones por la mitad de precio.


Opcion eGPU: Mini PC + Dock Externo

Si ya tienes un mini PC con OCuLink o Thunderbolt 5, puedes anadir una GPU de escritorio completa con un dock externo:

DockConexionPrecioCompatible con
Minisforum DEG2OCuLink + TB5 (80 Gbps)~240 USDRTX 5090, RX 7900 XT
AOOSTAR EG02Dual TB5 + OCuLink~280 USDCualquier GPU desktop
GTBox G-DockOCuLink + TB/USB4 + 800W PSU~350 USDGPUs de alto consumo
Ventaja: Compras un mini PC Strix Halo de 1.500-2.000 USD para LLMs (128 GB de RAM) y le acoples una RTX 4090/5090 cuando necesites Stable Diffusion. Lo mejor de ambos mundos por un coste total de ~2.500-3.500 USD.

Limitacion: OCuLink ofrece PCIe 4.0 x4 (32 GB/s), que reduce el rendimiento de la GPU a un ~80% de su capacidad interna. Para la mayoria de cargas de IA, esto es aceptable.


Comparativa por Caso de Uso

Para ejecutar LLMs de 70B+ parametros

Ganador: Beelink GTR9 Pro

PosModeloVRAM Efectiva70B Q4 tok/s
1Beelink GTR9 Pro96 GB~10
2Framework Desktop (128 GB)96 GB~10
3NVIDIA DGX Spark128 GB~15+

Para Stable Diffusion / generacion de imagenes

Ganador: ASUS ROG NUC 2025

PosModeloGPUVRAMCUDA Cores
1ASUS ROG NUCRTX 508016 GBSi
2Minisforum G7 ProRTX 50708 GBSi
3Minisforum G1 ProRTX 50608 GBSi

Para presupuesto equilibrado (LLMs + algo de GPU)

Ganador: GMKtec EVO-X2 + eGPU

PosModeloEstrategia
1GMKtec EVO-X2 64 GB + DEG2 dock64 GB para LLMs + eGPU para SD
2Beelink GTR9 Pro96 GB VRAM para todo
3Minisforum G7 ProRTX 5070 + 96 GB RAM

Merece la Pena Invertir en un Mini PC con GPU para IA?

Si facturas servicios de IA (consultoria, generacion de contenido, desarrollo), el ROI es rapido:

PerfilAhorro vs Cloud/mesCoste Mini PCROI
Freelance IA (GPT-5 API)150 EUR (tokens API)1.990 EUR (GTR9 Pro)Amortizado en ~13 meses
Estudio SD (Midjourney Pro)90 EUR (suscripcion)2.850 USD (ROG NUC)Amortizado en ~30 meses
Equipo 5 personas (LLMs)400 EUR (5x suscripciones)2.300 USD (MS-S1 MAX)Amortizado en ~6 meses

Y para las webs, APIs y servicios publicos que complementan tu IA local, yo uso un VPS KVM 2 de Hostinger a 8,99 EUR/mes que tiene uptime del 99,9%, IP fija y sin preocuparme de cortes de luz. La combinacion mini PC (IA local) + VPS Hostinger (servicios publicos) es la arquitectura que mas recomiendo.


Errores Comunes al Elegir Mini PC con GPU para IA

Error 1: Elegir solo por TFLOPS brutos sin mirar VRAM

Problema: Una RTX 5080 tiene 30 TFLOPS FP16 pero solo 16 GB de VRAM. Un modelo de 33B Q4 necesita ~22 GB. No cabe. Solucion: Para LLMs, la VRAM (o memoria unificada accesible) es el factor limitante. 96 GB de Strix Halo > 16 GB de RTX 5080 para modelos grandes.

Error 2: Comprar GPU discreta para LLMs

Problema: Si tu objetivo principal es ejecutar LLMs de 30B+, una RTX 5070/5080 con 8-16 GB de VRAM es insuficiente. El modelo no cabe en VRAM y el rendimiento cae drasticamente. Solucion: Para LLMs grandes, elige Strix Halo con 128 GB de RAM. Para Stable Diffusion, elige GPU discreta.

Error 3: Ignorar las opciones eGPU

Problema: Muchos compran un mini PC con GPU discreta integrada pagando un precio premium, cuando podrian tener un Strix Halo + eGPU externa por precio similar con mas flexibilidad. Solucion: Un GMKtec EVO-X2 (1.500 USD) + dock DEG2 (240 USD) + RTX 4070 usada (~400 USD) = ~2.140 USD total con 128 GB de RAM para LLMs + GPU discreta para SD.


Preguntas Frecuentes

Cual es el mejor mini PC con GPU para IA en 2026?

El Beelink GTR9 Pro es el mejor mini PC para IA general gracias a sus 128 GB de memoria unificada con 96 GB accesibles como VRAM. Para Stable Diffusion especificamente, el ASUS ROG NUC con RTX 5080 es superior por el soporte CUDA nativo.

La Radeon 8060S integrada rinde como una RTX 4060?

Aproximadamente si en rendimiento bruto de GPU, pero la ventaja real no es la velocidad de computo: es que puede acceder a 96 GB de la RAM del sistema como VRAM, mientras que la RTX 4060 esta limitada a 8 GB. Para LLMs memory-bound, la Radeon 8060S gana por goleada (analisis propio, javadex.es, marzo 2026).

Necesito GPU dedicada NVIDIA para ejecutar LLMs?

No. NVIDIA (CUDA) es esencial para Stable Diffusion, training y fine-tuning. Pero para inferencia de LLMs con Ollama/llama.cpp, la memoria unificada de Strix Halo o Apple Silicon es igual de rapida o mejor si tienes suficiente RAM.

NVIDIA DGX Spark merece la pena para uso personal?

No para la mayoria de personas. A 3.999 USD y sin capacidad de ejecutar Windows ni aplicaciones generales, es una maquina exclusiva para desarrollo de IA. El GTR9 Pro a ~1.990 USD ejecuta modelos de hasta 70B y ademas sirve como PC completo.

Puedo usar un VPS en vez de un mini PC con GPU para IA?

Para inferencia de LLMs en la nube, los VPS estandar no tienen GPU. Necesitarias un VPS con GPU (mucho mas caro). Para webs, APIs, n8n y automatizaciones, un VPS de Hostinger desde 4,99 EUR/mes es la opcion correcta. Para IA local con privacidad, necesitas hardware propio.

Que dock eGPU es mejor para IA con mini PC?

El Minisforum DEG2 a ~240 USD es el mejor valor: soporta OCuLink + Thunderbolt 5 (80 Gbps). Compatible con GPUs de escritorio hasta RTX 5090. Ideal para combinar con un mini PC Strix Halo.


Conclusion: Mi Recomendacion Personal

Si priorizas LLMs grandes (30B-70B): Beelink GTR9 Pro a ~1.990 USD Si priorizas Stable Diffusion: ASUS ROG NUC 2025 con RTX 5080 a ~2.850 USD Si quieres flexibilidad total: GMKtec EVO-X2 (64 GB) + dock eGPU DEG2 a ~1.740 USD Si priorizas modularidad y Linux: Framework Desktop a 1.999 USD (128 GB) Si quieres GPU discreta barata: Minisforum AtomMan G1 Pro a 1.440 USD

Mi setup profesional:

  1. Beelink GTR9 Pro (128 GB) para LLMs de 70B en local -- 1.990 USD
  2. VPS KVM 2 de Hostinger para webs y APIs publicas -- 8,99 EUR/mes
  3. n8n en el VPS conectado a la API de Ollama del GTR9 Pro
Infraestructura completa de IA profesional por menos de 2.100 EUR + 9 EUR/mes.

"En 2026, 128 GB de memoria unificada a 2.000 EUR son mas utiles para LLMs que 16 GB de VRAM a 3.000 EUR. La memoria es el nuevo rey de la inferencia local." -- Javier Santos Criado, consultor de IA en Javadex


Actualizacion marzo 2026: Precios verificados en Amazon y tiendas oficiales el 25 de marzo de 2026. Benchmarks basados en ServeTheHome, TechRadar, NotebookCheck y WCCFtech.


Fuentes


Posts Relacionados


En Resumen

  • Para LLMs de 70B+ parametros: los mini PCs con Ryzen AI Max+ 395 y 128 GB de RAM unificada (96 GB como VRAM) son la mejor opcion. El Beelink GTR9 Pro a ~1.990 USD lidera.
  • Para Stable Diffusion y generacion de imagenes: las GPUs discretas NVIDIA (RTX 5070/5080) con CUDA siguen siendo superiores. El ASUS ROG NUC a ~2.850 USD con RTX 5080 es el rey.
  • La VRAM/memoria accesible > TFLOPS brutos para cargas de IA memory-bound como LLMs
  • Las opciones eGPU (OCuLink + dock a ~240 USD) permiten tener lo mejor de ambos mundos: RAM masiva + GPU discreta
  • Precios desde 1.040 USD (AtomMan G1 Pro barebone) hasta 3.999 USD (NVIDIA DGX Spark)
  • Para servicios publicos de IA: complementa con un VPS de Hostinger desde 4,99 EUR/mes -- uptime garantizado sin depender de tu conexion domestica

Formación y consultoría en IA para empresas

Formo a equipos técnicos y de negocio para adoptar Claude Code, programación agéntica e IA aplicada con resultados desde la primera semana.

  • Claude Code para developers senior (presencial)
  • IA para perfiles de negocio (presencial)
  • 100% personalizado al stack de tu equipo
  • Sesión de diagnóstico gratuita (30 min)
📬

¿Te ha gustado? Hay más cada semana

Únete a "IA Sin Humo" — la newsletter donde comparto lo que realmente funciona en inteligencia artificial. Sin teoría innecesaria, sin postureo.

📚

1 Tutorial

Paso a paso, práctico

🛠️

3 Herramientas

Probadas y útiles

💡

0 Bullshit

Solo lo que importa

+547 suscriptores • Cada martes • Cancela cuando quieras

Javier Santos - Especialista en IA & Machine Learning

Javier Santos

Consultor de IA para empresas. Comparto contenido sobre inteligencia artificial, automatización y desarrollo cada semana.