Skip to content

LFM2-24B-A2B: Inteligencia y rapidez en IA local

Una arquitectura híbrida para mayor eficiencia en IA

En el mundo de la inteligencia artificial generativa, la meta siempre ha sido construir modelos cada vez más grandes. Sin embargo, los límites de consumo energético y capacidad de memoria han orientado los avances hacia lograr una mayor eficiencia arquitectónica. El modelo LFM2-24B-A2B propone una solución disruptiva al combinar lo mejor de dos métodos: la atención y las convoluciones. La clave de su diseño radica en la proporción 1:3 entre bloques de atención y bloques base, es decir, de las 40 capas totales, 30 emplean convoluciones eficientes y solo 10 utilizan mecanismos de atención especializada. Este enfoque permite mantener la capacidad de razonamiento sofisticado de los sistemas tradicionales, a la vez que optimiza el rendimiento y reduce el consumo de memoria, haciéndolo viable para funcionar en hardware de consumo convencional.

Eficiencia con Sparse Mixture of Experts (MoE)

El aspecto más sobresaliente del LFM2-24B-A2B es su diseño Mixture of Experts. Aunque contiene 24 mil millones de parámetros, solo activa aproximadamente 2,3 mil millones por token. Esto significa que el modelo puede aprovechar la inteligencia de grandes sistemas, pero con la velocidad y eficiencia de uno mucho más pequeño. Esta arquitectura avanzada permite instalar el modelo en 32GB de RAM, abriendo la puerta a su uso en computadoras portátiles y dispositivos con GPU integradas, eliminando la necesidad de centros de datos sofisticados. Además, cuenta con una ventana de contexto de 32.768 tokens, lo que lo convierte en una opción robusta para análisis de texto de gran longitud y tareas de consulta local.

Desempeño sobresaliente y ventajas clave

Las pruebas muestran que LFM2-24B-A2B supera a modelos supuestamente más poderosos en tareas de lógica y razonamiento, y alcanza una velocidad de procesamiento de 26.800 tokens por segundo en una GPU H100, superando a competidores como Qwen3-30B-A3B y Snowflake gpt-oss-20b. Su diseño eficiente permite obtener resultados avanzados en tareas complejas, pero con un requisito técnico mucho menor que los modelos convencionales de gran escala.

  • Híbrido inteligente: Combinación de atención agrupada y convoluciones para máxima eficiencia.
  • Uso realista: Capaz de ejecutarse en dispositivos comunes gracias a su bajo requerimiento de memoria activa.
  • Rendimiento líder: Supera a otros modelos en velocidad, longitud de contexto y capacidad de análisis.

fuente: https://www.marktechpost.com/2026/02/25/liquid-ais-new-lfm2-24b-a2b-hybrid-architecture-blends-attention-with-convolutions-to-solve-the-scaling-bottlenecks-of-modern-llms/

Related Post

Últimos Días para Descuentos en TechCrunch Disrupt

Aprovechá los mejores precios para TechCrunch Disrupt 2026 Solo quedan cinco días para asegurarte tus entradas para TechCrunch Disrupt 2026 al precio más bajo del año. Hasta el 27 de

IA: Transformando Sociedad, Trabajo y Creatividad

El Futuro de la Inteligencia Artificial: Impacto Social, Trabajo y Creatividad La Inteligencia Artificial (IA) está transformando el mundo de formas profundas. Existen preocupaciones acerca de cómo la automatización puede

Diseño Visual en Gafas de Realidad Aumentada

Diseño de Interfaces para Gafas Inteligentes: El Reto de la Transparencia El futuro de las interfaces visuales está cambiando radicalmente con la llegada de gafas inteligentes que superponen información digital

Powering over 1.5 million websites worldwide

Our set he for firmament morning sixth subdue darkness creeping gathered divide our let god moving.

Or

+10 378 267 3782

Contanos tu necesidad

Completá el formulario y nos pondremos en contacto a la brevededad para ayudarte a dar el siguiente paso.