Skip to content

LFM2-24B-A2B: Inteligencia y rapidez en IA local

Una arquitectura híbrida para mayor eficiencia en IA

En el mundo de la inteligencia artificial generativa, la meta siempre ha sido construir modelos cada vez más grandes. Sin embargo, los límites de consumo energético y capacidad de memoria han orientado los avances hacia lograr una mayor eficiencia arquitectónica. El modelo LFM2-24B-A2B propone una solución disruptiva al combinar lo mejor de dos métodos: la atención y las convoluciones. La clave de su diseño radica en la proporción 1:3 entre bloques de atención y bloques base, es decir, de las 40 capas totales, 30 emplean convoluciones eficientes y solo 10 utilizan mecanismos de atención especializada. Este enfoque permite mantener la capacidad de razonamiento sofisticado de los sistemas tradicionales, a la vez que optimiza el rendimiento y reduce el consumo de memoria, haciéndolo viable para funcionar en hardware de consumo convencional.

Eficiencia con Sparse Mixture of Experts (MoE)

El aspecto más sobresaliente del LFM2-24B-A2B es su diseño Mixture of Experts. Aunque contiene 24 mil millones de parámetros, solo activa aproximadamente 2,3 mil millones por token. Esto significa que el modelo puede aprovechar la inteligencia de grandes sistemas, pero con la velocidad y eficiencia de uno mucho más pequeño. Esta arquitectura avanzada permite instalar el modelo en 32GB de RAM, abriendo la puerta a su uso en computadoras portátiles y dispositivos con GPU integradas, eliminando la necesidad de centros de datos sofisticados. Además, cuenta con una ventana de contexto de 32.768 tokens, lo que lo convierte en una opción robusta para análisis de texto de gran longitud y tareas de consulta local.

Desempeño sobresaliente y ventajas clave

Las pruebas muestran que LFM2-24B-A2B supera a modelos supuestamente más poderosos en tareas de lógica y razonamiento, y alcanza una velocidad de procesamiento de 26.800 tokens por segundo en una GPU H100, superando a competidores como Qwen3-30B-A3B y Snowflake gpt-oss-20b. Su diseño eficiente permite obtener resultados avanzados en tareas complejas, pero con un requisito técnico mucho menor que los modelos convencionales de gran escala.

  • Híbrido inteligente: Combinación de atención agrupada y convoluciones para máxima eficiencia.
  • Uso realista: Capaz de ejecutarse en dispositivos comunes gracias a su bajo requerimiento de memoria activa.
  • Rendimiento líder: Supera a otros modelos en velocidad, longitud de contexto y capacidad de análisis.

fuente: https://www.marktechpost.com/2026/02/25/liquid-ais-new-lfm2-24b-a2b-hybrid-architecture-blends-attention-with-convolutions-to-solve-the-scaling-bottlenecks-of-modern-llms/

Related Post

El Futuro del Trabajo en la Era de la IA

La Economía AGI: ¿Qué Pasa Cuando Las Máquinas Trabajan Por Nosotros? En un mundo donde la inteligencia artificial (IA) es capaz de realizar la mayor parte del trabajo, las personas

MEM: La revolución en memoria robótica

MEM: Revolucionando la Memoria de los Robots En los desafíos más complejos, como limpiar una cocina o seguir recetas extensas, los robots requieren más que simples órdenes. La nueva tecnología

La inteligencia artificial transforma la atención al cliente

Innovación en Soporte al Cliente a través de la Inteligencia Artificial La empresa 14.ai ha impulsado el desarrollo de una potente marca de consumo orientada a descubrir el verdadero potencial

Powering over 1.5 million websites worldwide

Our set he for firmament morning sixth subdue darkness creeping gathered divide our let god moving.

Or

+10 378 267 3782

Contanos tu necesidad

Completá el formulario y nos pondremos en contacto a la brevededad para ayudarte a dar el siguiente paso.