# Ollama > [!NOTE] Ollama > Uma ferramenta de código aberto para executar modelos de linguagem de grande porte (LLMs) localmente. **:: Referência ::** [Ollama](https://ollama.com/) # Notas Ollama é uma ferramenta de código aberto que permite executar **[[Grandes modelos de linguagem]]** diretamente no seu computador, sem depender da nuvem. Isso significa que você pode rodar modelos como **LLaMA 3, Mistral, Gemma, Phi**, entre outros, de forma **local**, com mais controle sobre privacidade e desempenho. ## 🧠 Principais características do Ollama: - **Execução local de [[Inteligência artificial|IA]]**: Ideal para quem quer evitar o envio de dados para servidores externos. - **Privacidade total**: Seus prompts e respostas ficam restritos ao seu sistema. - **Interface simples**: Pode ser usado via linha de comando ou interface gráfica. - **Compatível com macOS, Windows e Linux**. - **Modelos personalizáveis**: Você pode ajustar parâmetros e adaptar os modelos às suas necessidades. ## 💡 Por que usar o Ollama? - **Mais rápido**: Sem depender da internet ou servidores externos. - **Mais seguro**: Ótimo para dados sensíveis ou projetos confidenciais. - **Mais barato**: Evita custos com APIs pagas ou assinaturas. Se você é desenvolvedor, pesquisador ou apenas curioso por [[Inteligência artificial|IA]], o Ollama é uma excelente porta de entrada para explorar modelos avançados de linguagem no seu próprio ambiente. Quer que eu te mostre como instalar ou usar algum modelo específico com ele?