# Ollama
> [!NOTE] Ollama
> Uma ferramenta de código aberto para executar modelos de linguagem de grande porte (LLMs) localmente.
**:: Referência ::** [Ollama](https://ollama.com/)
# Notas
Ollama é uma ferramenta de código aberto que permite executar **[[Grandes modelos de linguagem]]** diretamente no seu computador, sem depender da nuvem. Isso significa que você pode rodar modelos como **LLaMA 3, Mistral, Gemma, Phi**, entre outros, de forma **local**, com mais controle sobre privacidade e desempenho.
## 🧠 Principais características do Ollama:
- **Execução local de [[Inteligência artificial|IA]]**: Ideal para quem quer evitar o envio de dados para servidores externos.
- **Privacidade total**: Seus prompts e respostas ficam restritos ao seu sistema.
- **Interface simples**: Pode ser usado via linha de comando ou interface gráfica.
- **Compatível com macOS, Windows e Linux**.
- **Modelos personalizáveis**: Você pode ajustar parâmetros e adaptar os modelos às suas necessidades.
## 💡 Por que usar o Ollama?
- **Mais rápido**: Sem depender da internet ou servidores externos.
- **Mais seguro**: Ótimo para dados sensíveis ou projetos confidenciais.
- **Mais barato**: Evita custos com APIs pagas ou assinaturas.
Se você é desenvolvedor, pesquisador ou apenas curioso por [[Inteligência artificial|IA]], o Ollama é uma excelente porta de entrada para explorar modelos avançados de linguagem no seu próprio ambiente. Quer que eu te mostre como instalar ou usar algum modelo específico com ele?