Uma nova era para a acessibilidade de grandes modelos de linguagem (LLMs) pode estar começando. Pesquisadores desenvolveram uma estratégia inovadora que permite executar modelos complexos de Mistura de Especialistas (MoE), como o renomado Mistral 8x7B, em hardware de consumo e até mesmo na camada gratuita do Google Colab. Esta abordagem,