LFM2: La Nueva Generación de IA en Dispositivos

Avances en el rendimiento y la eficiencia para la Inteligencia Artificial en dispositivos

La nueva generación de modelos de Inteligencia Artificial (IA) generativa desarrollada por Liquid AI, conocida como LFM2, representa un gran paso adelante en el uso de IA directamente en dispositivos como teléfonos, computadoras portátiles, autos y relojes inteligentes. Estos modelos ofrecen una velocidad de respuesta hasta dos veces mayor en comparación con otras soluciones actuales, y además permiten entrenar sistemas similares tres veces más rápido que generaciones anteriores. Esto convierte a LFM2 en una de las opciones más económicas y accesibles para quienes buscan implementar AI potente en equipos con recursos limitados.

Estas mejoras no son menores; facilitan que la IA funcione en tiempo real, incluso sin conexión a internet, lo que garantiza privacidad y velocidad. Esto resulta clave en áreas donde la información debe ser procesada de manera inmediata y segura, como la electrónica de consumo, la robótica, los sistemas financieros y el sector educativo.


Innovación en arquitectura y entrenamiento

LFM2 se apoya en una arquitectura innovadora que combina las ventajas de diferentes métodos de procesamiento para maximizar la eficiencia. Distribuido en tres tamaños (350 millones, 700 millones y 1.200 millones de parámetros), cada modelo está optimizado para distintos tipos de dispositivos y aplicaciones, pero siempre manteniendo la agilidad y la capacidad para responder rápido.

La base de entrenamiento de LFM2 usó una enorme cantidad de datos cuidadosamente seleccionados —10 billones de textos en su corpus, incluyendo información en múltiples idiomas y código informático. Para garantizar su calidad, se empleó una técnica donde el nuevo modelo aprende de uno anterior (LFM1-7B), mejorando su precisión y capacidad al absorber el conocimiento ya adquirido.

Gracias a estas características, los modelos LFM2 pueden comprender secuencias de texto mucho más extensas y responder eficientemente a una variedad de tareas, desde recordar datos hasta razonar y entender instrucciones complejas.


Desempeño líder y despliegue flexible

Las evaluaciones realizadas demuestran que LFM2 supera claramente a otros modelos de su tamaño en diferentes pruebas, ofreciendo mejores respuestas y mayor velocidad, incluso en conversaciones de varias preguntas y respuestas. La alternativa de menor tamaño iguala o supera el rendimiento de modelos más grandes y populares del mercado, al tiempo que consume menos recursos.

Además, LFM2 es extremadamente versátil para su uso en distintos dispositivos, desde teléfonos de alta gama hasta procesadores convencionales. Su tecnología permite que la IA se ejecute de manera eficiente en distintos entornos y plataformas, sin depender del procesamiento en la nube, lo que reduce costos y protege la privacidad del usuario.

Esta capacidad de optimización para el despliegue local marca un hito para la integración de la inteligencia artificial en una gama cada vez más amplia de aplicaciones y productos cotidianos, impulsando así una adopción creciente de soluciones inteligentes fuera del entorno tradicional de los grandes centros de datos.


Fuente: https://www.marktechpost.com/2025/07/13/liquid-ai-open-sources-lfm2-a-new-generation-of-edge-llms/