SubQ: El LLM subcuadrático que promete 12M de tokens de contexto a 1000x menor costo
El 5 de mayo de 2026, una startup con sede en Miami llamada Subquadratic emergió del stealth con una afirmación audaz: su modelo SubQ es el primer gran modelo de lenguaje construido sobre una arquitectura verdaderamente subcuadrática, capaz de procesar 12 millones de tokens en una sola ventana de contexto a una fracción del costo computacional de los modelos líderes actuales.
La recepción fue inmediata — y profundamente dividida.
¿Qué es Subquadratic?
Subquadratic es una empresa de infraestructura de IA fundada en 2026 con sede en Miami, Florida. Liderada por el CEO Justin Dangel y el CTO Alexander Whedon (exdirector de GenAI en Meta), la startup recaudó $29 millones en financiamiento semilla con una valoración reportada de $500 millones.
La lista de inversores parece un quién es quién de la realeza startup: el cofundador de Tinder Justin Mateen, el expartner de SoftBank Vision Fund Javier Villamizar, e inversores tempranos de Anthropic, OpenAI, Stripe y Brex.
La innovación central: Atención Dispersa Subcuadrática (SSA)
La característica principal es SSA (Atención Dispersa Subcuadrática), un mecanismo de atención dispersa que cambia fundamentalmente cómo el modelo escala con la longitud del contexto.
El problema cuadrático
La atención del Transformer estándar escala como O(n²) — duplica el contexto, cuadruplica el cómputo. Con 1 millón de tokens, solo la atención requeriría billones de operaciones. Esta es la razón por la que la mayoría de los modelos limitan el contexto a 128K o 200K tokens.
La solución subcuadrática
SSA reemplaza la matriz de atención densa con un mecanismo de selección dispersa basado en contenido. En lugar de comparar cada token con todos los demás, el modelo selecciona dinámicamente qué tokens atender, reduciendo la complejidad a una escala casi lineal O(n).
Esto difiere de enfoques anteriores de atención dispersa (como los usados en Mamba, RWKV o DeepSeek) porque:
- Selección basada en contenido — los tokens se seleccionan según su relevancia, no patrones fijos
- Completamente subcuadrático — toda la arquitectura, no solo la atención, está optimizada para escalado lineal
- Dispersión entrenable — el modelo aprende qué relaciones importan durante el preentrenamiento
Resultado: Subquadratic afirma una reducción de ~1000x en el cómputo de atención con 12M de tokens en comparación con los modelos Transformer estándar.
Rendimiento en benchmarks
Subquadratic publicó resultados en tres benchmarks:
| Benchmark | Puntuación SubQ | Comparación |
|---|---|---|
| SWE-Bench Verified | 81.8% | Opus 4.6: 80.8% |
| RULER 128K (recuperación de contexto largo) | 95.0% | Opus 4.6: 94.8% |
| MRCR v2 (recuperación de 1M tokens) | 65.9% | GPT-5.5: 74.0%, Gemini 3.1 Pro: 26.3% |
Con 1M de tokens, SubQ supera dramáticamente a Gemini 3.1 Pro (65.9% vs 26.3%) en MRCR v2, aunque queda detrás de GPT-5.5 (74.0%). El resultado de RULER es particularmente impresionante — 95% de precisión con contexto de 128K, igualando a Claude Opus 4.6 con una reducción de costo de ~300x ($8 vs ~$2,600).
Productos: Tres formas de usar SubQ
Subquadratic lanzó tres productos en beta privada:
1. SubQ API
Endpoints de API compatibles con OpenAI con una ventana de contexto de producción de 1 millón de tokens. Los desarrolladores pueden cambiar a SubQ con cambios mínimos de código.
2. SubQ Code
Un agente CLI de codificación que carga bases de código completas en el contexto. En lugar de fragmentación RAG, SubQ Code puede ingerir todo tu repositorio y razonar sobre él de manera holística.
3. SubQ Search
Una herramienta de investigación gratuita de contexto largo — piensa en Perplexity con memoria de un millón de tokens. Los primeros evaluadores reportan poder cargar libros completos o documentación técnica para su análisis.
El argumento del costo
Quizás la afirmación más impactante es económica. El análisis de costo por tarea de Subquadratic:
| Tarea | SubQ | Claude Opus | Ratio de costo |
|---|---|---|---|
| RULER 128K | $8 | ~$2,600 | ~325x más barato |
| SWE-Bench | ~$0.50 | ~$5 | ~10x más barato |
| MRCR v2 1M | ~$50 | ~$15,000 (est.) | ~300x más barato |
Si estos números se sostienen, las implicaciones son enormes: tareas de contexto largo que eran económicamente inviables (analizar bases de código completas, procesar documentos legales completos, revisar artículos académicos completos) se vuelven rutinarias.
El escepticismo: Por qué los investigadores exigen pruebas
No todos están convencidos. La comunidad de investigación en IA ha planteado varias preocupaciones:
1. Sin artículo técnico
Subquadratic no ha publicado un artículo revisado por pares ni un informe técnico completo. El sitio web dice “artículo próximamente” — una bandera roja para muchos investigadores.
2. Pesos cerrados
El modelo no es de código abierto. La verificación independiente es imposible sin acceso a los pesos o una especificación reproducible.
3. Benchmarks limitados
Solo se publicaron tres benchmarks, todos favoreciendo tareas de contexto largo o codificación. No hay resultados en razonamiento general (MMLU, GPQA), matemáticas (MATH, GSM8K) o benchmarks multimodales.
4. Brecha entre investigación y producción
La configuración de investigación obtiene 83% en MRCR v2, pero la API de producción obtiene 65.9% — una brecha de 17 puntos que plantea preguntas sobre qué se está evaluando.
5. Resultados de una sola ejecución
Los resultados publicados carecen de intervalos de confianza. En la evaluación comparativa de ML, las ejecuciones únicas pueden ser engañosas debido a la varianza.
Intentos subcuadráticos anteriores (Mamba, RWKV, Hyena, S4) han mostrado promesa a pequeña escala pero no han igualado la calidad de Transformer a escala completa de producción. La comunidad espera ver si SubQ rompe ese patrón.
“Las afirmaciones de Subquadratic son o el avance arquitectónico de IA más importante desde ‘Attention Is All You Need’ — o un espejismo bien financiado. No hay término medio.” — Investigador de IA citado en la cobertura de VentureBeat
Qué es real (y qué no)
Separemos los hechos confirmados de las afirmaciones no verificadas:
Confirmado:
- $29M de financiamiento semilla con valoración de ~$500M ✅
- El equipo incluye al exdirector de GenAI de Meta, Alexander Whedon ✅
- La empresa emergió del stealth el 5 de mayo de 2026 ✅
- La API y los productos existen en beta privada ✅
No verificado:
- Contexto de 12M de tokens en producción ❌ (solo configuración de investigación)
- Reducción de cómputo de 1000x ❌ (sin auditoría independiente)
- Reproducibilidad de benchmarks ❌ (sin artículo, sin pesos)
- Fiabilidad de producción ❌ (beta privada, evaluadores limitados)
Hoja de ruta: Lo que viene
Subquadratic tiene una hoja de ruta agresiva:
- Q3 2026: Acceso ampliado a la API, lanzamiento de SDKs
- Q4 2026: Objetivo de ventana de contexto de 50 millones de tokens
- 2027: Herramientas empresariales de post-entrenamiento
La empresa ha declarado que no tiene planes de abrir los pesos de SubQ, posicionándose como proveedor comercial de API.
Por qué esto importa
Incluso con el escepticismo, SubQ representa un momento significativo en el desarrollo de IA:
-
La barrera cuadrática es la última gran restricción de las arquitecturas Transformer. Quien resuelva el escalado subcuadrático desbloqueará casos de uso fundamentalmente nuevos.
-
El contexto largo lo cambia todo. Con 1M+ tokens, los agentes pueden trabajar con bases de código completas, casos legales, literatura académica o documentos comerciales en una sola pasada — sin RAG, sin fragmentación, sin pérdida de contexto.
-
La economía fuerza la atención. Incluso si SubQ ofrece el 10% de lo prometido, seguiría siendo más barato que los enfoques existentes para tareas de contexto largo.
-
La presión competitiva es saludable. SubQ sea real o no, el revuelo empuja a todos los laboratorios a acelerar su propia investigación subcuadrática.
Conclusión
El lanzamiento de SubQ de Subquadratic es uno de los anuncios de IA más consecuentes — y más controvertidos — de 2026. Si se valida, SSA podría remodelar fundamentalmente la economía de la IA, haciendo que los contextos de un millón de tokens sean asequibles y ubicuos. Si no, se une a una larga lista de arquitecturas que no pudieron escalar.
La verificación independiente llegará en los próximos meses. Hasta entonces, lo mejor es abordar SubQ con curiosidad genuina y escepticismo saludable.
Lo que es seguro: la carrera hacia la IA subcuadrática ya está oficialmente en marcha.
Referencias
- VentureBeat: Startup de Miami Subquadratic afirma ganancia de eficiencia IA de 1000x
- FelloAI: Revisión de SubQ — El primer LLM subcuadrático
- SiliconANGLE: Subquadratic lanza con $29M para ventanas de contexto de 12M tokens
- TokenPost: Inversión semilla de Subquadratic, LLM SubQ de 12M tokens
- 虎嗅: Subquadratic asegura $29M en financiamiento semilla
- Habr: LLM con complejidad lineal y contexto de hasta 12M tokens