IA & AgentesAnalista de IA

Analista de IA

A tela onde você vê o cérebro da IA por dentro. Útil para debug, simulação e treinamento.

Onde fica

/inteligencia/analista-v2 (versão nova) ou /ia/analista (legacy). 3 tabs:

  • Inbox — conversas em andamento (com modos de intervenção)
  • Ao Vivo — debug em tempo real do que a IA está pensando
  • Playground — simulação isolada

Tab Inbox

Lista de conversas ativas (humano e IA). Cada item:

  • Cliente
  • Canal (WhatsApp / Telefone)
  • Início
  • Última mensagem (preview)
  • Status (IA / Aguardando humano / Em humano)

Click em uma conversa → abre painel de coaching com 4 modos.

Coaching ao vivo

Tab Ao Vivo

Conversa selecionada com panel de debug:

Panel de debug (lateral direita)

Em cada turno, mostra:

CampoO que é
InputO que o cliente disse / digitou
STT confidence(Voz) Confiança da transcrição
Sentiment detectadoPositivo / Neutro / Negativo / Raiva
Tópico classificadoCategoria (técnico, financeiro, comercial, etc.)
KB hitsTrechos da KB injetados no prompt
Tools availableQuais ferramentas a IA tinha pra escolher
Tool chosenQual ferramenta a IA escolheu (se alguma)
Tool argsArgumentos passados
Tool resultRetorno da ferramenta
OutputO que a IA respondeu
ReasoningPor que a IA escolheu esse caminho (chain-of-thought interno)
LatencyTempo total do turno

Útil pra entender:

  • “Por que a IA não usou a tool X?” (não estava disponível ou não foi escolhida)
  • “Por que respondeu errado?” (KB hit retornou trecho errado, ou não tinha hit)
  • “Por que demorou?” (qual etapa pesou)

Tab Playground

Sandbox para simular conversa sem afetar produção.

Setup

  • Escolha o agente
  • Escolha o canal (texto, voz simulada)
  • Escolha o cliente fictício (com perfil simulado)
  • Configure variáveis iniciais

Execução

  • Você manda mensagens como o cliente
  • IA responde como em produção (mesma KB, mesmas tools — mas ferramentas externas em modo dry-run podem ser mocadas)
  • Cada turno mostra o panel de debug

Útil para

  • Validar mudança de prompt antes de publicar
  • Testar flow novo
  • Treinar time
  • Reproduzir problema reportado pelo cliente

Como debugar uma resposta ruim

Roteiro padrão de debug:

  1. Olhe KB hits — algum trecho relevante apareceu?

    • Não → faltou cadastrar na KB
    • Sim, mas trecho errado → KB tem entries com texto que se confunde
  2. Olhe Tool chosen — escolheu a ferramenta certa?

    • Não escolheu nenhuma → não estava disponível ou não viu necessidade
    • Escolheu errada → descrição da tool ambígua
  3. Olhe Reasoning — o que a IA pensou?

    • “Cliente parece pedir X, vou responder Y” → mismatch de interpretação
    • “Não sei responder, vou transferir” → ok ou problema?
  4. Olhe Sentiment — bateu com o real?

    • Detectou raiva mas cliente está calmo → falso positivo (revisar threshold)
    • Detectou neutro mas cliente está bravo → cliente foi sutil
  5. Ajuste o que precisar e teste de novo no Playground.

Histórico do panel

Cada conversa fica disponível para revisão depois (até 90 dias). Você consegue ver tudo o que a IA pensou em qualquer chamada passada — útil pra postmortem.

Roadmap

  • Replay temporal — barra de tempo arrastável da chamada inteira
  • Comparar 2 versões do agente lado a lado em mesmo input
  • Auto-detectar padrões: “em 30 chamadas a IA falhou na mesma decisão — sugere ajustar X”

Próximo passo

Boas práticas