# Mistura de especialistas > [!NOTE] Mistura de especialistas > **Mistura de Especialistas (Mixture of Experts - MoE)** é uma arquitetura que permite que modelos de IA escalem para um número massivo de parâmetros, mantendo a eficiência computacional. Em vez de um único modelo processar todas as entradas, um MoE é composto por múltiplos "especialistas"e uma "rede de portão" (gating network). Para cada entrada, a rede de portão aprende a ativar seletivamente apenas um ou alguns dos especialistas mais relevantes para aquela tarefa ou dado específico, permitindo que o modelo tenha uma capacidade gigantesca (muitos parâmetros) mas utilize apenas uma fração deles para cada inferência, resultando em maior desempenho e menor custo computacional em comparação com modelos densos de tamanho similar. **:: Referência ::** [[7 AI Terms You Need to Know Agents, RAG, ASI & More]] # Notas