La carrera por crear modelos de IA cada vez más gigantescos (con billones de parámetros) es insostenible económica y ecológicamente. La "IA Frugal" o Small Language Models (SLM) busca obtener un rendimiento similar en tareas específicas utilizando una fracción de la potencia de cómputo y datos de entrenamiento.
No todas las empresas pueden pagar clústeres de miles de GPUs. Los modelos frugales permiten que pymes y startups entrenen y ejecuten sus propias IAs en hardware convencional o incluso en dispositivos móviles (Edge AI), reduciendo la dependencia de las APIs costosas de las grandes tecnológicas.
Se ha demostrado que un modelo pequeño entrenado con datos de "libros de texto" de alta calidad puede superar a un modelo gigante entrenado con el ruido de todo internet. El enfoque está cambiando de "big data" a "smart data", donde la curaduría y limpieza de la información es más importante que el volumen bruto.