O ChatCLI foi projetado para ser flexível, suportando uma ampla gama de modelos dos principais provedores de IA. Esta página serve como uma referência rápida para os modelos que são reconhecidos nativamente pelo nosso catálogo interno.

Você pode trocar de modelo a qualquer momento usando o comando /switch --model <nome-do-modelo>.


OpenAI

Os modelos da OpenAI são ideais para uma vasta gama de tarefas, desde a geração de código até o raciocínio complexo.

Nome do Modelo (ID)Nome de ExibiçãoJanela de Contexto
gpt-4oGPT-4o50,000 tokens
gpt-4o-miniGPT-4o mini50,000 tokens
gpt-5GPT-550,000 tokens
gpt-4GPT-4 family50,000 tokens

Anthropic (Claude)

Os modelos da Anthropic são conhecidos por suas grandes janelas de contexto e excelente capacidade de seguir instruções complexas.

Nome do Modelo (ID)Nome de ExibiçãoJanela de Contexto
claude-3-5-sonnet-20240620 (ou claude-3.5-sonnet)Claude 3.5 Sonnet200,000 tokens
claude-3-opus-20240229 (ou claude-3-opus)Claude 3 Opus200,000 tokens
claude-3-sonnet-20240229 (ou claude-3-sonnet)Claude 3 Sonnet200,000 tokens
claude-3-haiku-20240307 (ou claude-3-haiku)Claude 3 Haiku200,000 tokens
claude-4Claude 4200,000 tokens
claude-4-opusClaude 4 Opus200,000 tokens
claude-4-sonnetClaude 4 Sonnet200,000 tokens
claude-4-5-sonnetClaude 4.5200,000 tokens

Google (Gemini)

Os modelos Gemini do Google oferecem capacidades multimodais avançadas e grandes janelas de contexto.

Nome do Modelo (ID)Nome de ExibiçãoJanela de Contexto
gemini-1.5-pro-latestGemini 1.5 Pro1,000,000 tokens
gemini-1.5-flash-latestGemini 1.5 Flash1,000,000 tokens
gemini-1.0-pro/flashGemini 1.0 Pro32,000 tokens
gemini-2.0-pro/flashGemini 2.0 Pro2000000 tokens
gemini-2.5-pro/flashGemini 2.5 Pro2000000 tokens

xAI (Grok)

Modelos da xAI, conhecidos por sua integração de informações em tempo real e uma “personalidade” única.

Nome do Modelo (ID)Nome de ExibiçãoJanela de Contexto
grok-1Grok-18,192 tokens
grok-1.5Grok-1.5128,000 tokens
grok-1.5-vision-previewGrok 1.5 Vision128,000 tokens
grok-4Grok-4200,000 tokens

StackSpot (StackSpotAI)

Aceita todos os modelos compativeis na plataforma StackSpotAI, desde que selecionado junto a criação do Agent.


Ollama (Modelos Locais)

O ChatCLI suporta qualquer modelo que você tenha localmente através do Ollama. Para usar, certifique-se de que o provedor Ollama está habilitado e defina o nome do modelo.

  1. Habilite no seu arquivo .env:
      OLLAMA_ENABLED=true
      
  2. Defina o modelo no .env ou via comando:
      # No .env
    OLLAMA_MODEL="llama3"
      
    Ou no ChatCLI:
      /switch --model llama3
      

Você pode usar qualquer modelo que tenha baixado com ollama pull <nome-do-modelo>.