Pular para o conteudo principal

Mock AI-allowed coding round: simulação com avaliação e resposta melhorada

Uma simulação de round prático com IA permitida, incluindo prompt, resposta inicial, follow-ups, avaliação e uma versão melhorada da condução.

Andrews Ribeiro

Andrews Ribeiro

Founder & Engineer

O problema

Round com IA permitida parece mais fácil até a ferramenta entrar no centro da conversa.

Aí aparecem dois erros comuns:

  • o candidato terceiriza o raciocínio
  • o candidato usa a ferramenta, mas não deixa claro o que validou

Nos dois casos, a percepção cai.

O problema não é usar IA.

O problema é parecer guiado por ela.

Como usar este mock

Use assim:

  1. leia só o prompt
  2. responda em voz alta como você conduziria o round
  3. diga quando pediria ajuda da IA e com que pedido
  4. pare antes da avaliação
  5. grave uma segunda versão mais forte

O objetivo não é ter o prompt perfeito.

É mostrar controle operacional.

Prompt

Você está em uma entrevista prática e o entrevistador diz: “Você pode usar IA se quiser.” A tarefa é melhorar uma busca de usuários em React: hoje ela dispara request a cada tecla e sofre com resposta fora de ordem. A tela precisa ter debounce, cancelamento de request e feedback simples de loading e erro. Como você conduziria isso?

Resposta inicial do candidato

Eu pediria para a IA implementar a busca com debounce e cancelamento e depois eu revisaria o código. Acho que ela provavelmente criaria um hook para isso, e eu adaptaria se precisasse.

O que essa resposta tem de bom

  • entende que IA pode acelerar uma parte mecânica
  • não diz que aceitaria tudo sem revisar
  • reconhece que adaptação pode ser necessária

Onde ela ainda perde força

  • terceiriza cedo demais o recorte da solução
  • não diz o que faria antes de pedir ajuda
  • não delimita qual parte pediria para a IA
  • “depois eu revisaria” ainda está vago

Até aqui, o risco é soar passageiro.

Follow-up 1

Pergunta do entrevistador:

O que você faria antes de abrir a IA?

Resposta fraca:

Eu leria o código e depois perguntaria para ela.

Resposta melhor:

Antes de usar a IA, eu deixaria explícito meu plano mínimo: identificar onde a request nasce, onde o estado de loading e erro mora hoje e qual parte eu quero mudar primeiro. Aqui eu não pediria a feature inteira. Eu provavelmente implementaria ou esboçaria a estrutura do fluxo e usaria a IA para rascunhar um pedaço estreito, como a lógica de debounce com AbortController, porque assim eu mantenho o desenho da solução comigo.

Aqui a resposta melhora porque:

  • mantém autoria do recorte
  • transforma a IA em apoio local
  • mostra que o candidato sabe o que quer extrair dela

Follow-up 2

Pergunta do entrevistador:

A IA sugeriu um hook grande, com cache, retries e estados extras que você não pediu. O que faz?

Resposta apressada:

Eu usaria só o que faz sentido.

Resposta melhor:

Eu trataria isso como expansão de escopo e pisaria no freio. Se a tarefa pediu debounce, cancelamento e feedback simples, eu não deixaria a IA transformar isso em mini framework de busca. Eu descartaria o que saiu do escopo, manteria a solução mais curta possível e explicaria por que não quero pagar custo de complexidade desnecessária dentro do tempo da entrevista.

Aqui aparecem:

  • controle de escopo
  • julgamento sobre complexidade
  • capacidade de dizer não para a ferramenta

Follow-up 3

Pergunta do entrevistador:

Como você validaria ao vivo que a sugestão da IA não te deixou com bug escondido?

Resposta rasa:

Eu testaria manualmente.

Resposta melhor:

Eu validaria em camadas. Primeiro, conferiria se o comportamento pedido continua claro: uma request por pausa, cancelamento da anterior e resultado velho não sobrescrevendo o novo. Depois, leria o trecho crítico em voz alta para checar dependências e ponto de abort. Por fim, faria um teste manual curto reproduzindo digitação rápida, loading, erro e resposta fora de ordem. O importante é deixar visível que eu sei o que estou verificando, não só clicar na interface.

Avaliação do entrevistador

Se o candidato ficar na resposta inicial, a leitura provável é:

  • confortável com ferramenta
  • ainda pouco dono da solução
  • risco de dependência

Quando ele melhora nos follow-ups, o sinal sobe porque passa a aparecer:

  • recorte antes do prompt
  • pedido pequeno e verificável
  • rejeição de escopo extra
  • validação explícita do trecho crítico

Em entrevista com IA, isso pesa muito mais do que “saber escrever prompt bonito”.

Resposta melhorada

Se eu condensasse uma condução mais forte desde o começo, ela soaria perto disto:

Eu começaria entendendo o fluxo atual e deixando claro qual problema quero resolver primeiro: reduzir requests desnecessárias e impedir resposta fora de ordem de poluir a UI. Eu não pediria a feature inteira para a IA. Manteria a estrutura da solução comigo e usaria a ferramenta de forma pontual para explorar ou rascunhar a parte mais mecânica, como a combinação de debounce com cancelamento. Se a saída viesse grande demais, eu cortaria de volta para o escopo pedido. Depois eu revisaria o trecho crítico em voz alta, validando dependências, abort da request e comportamento da UI em loading, erro e troca rápida de entrada. O ponto é usar IA como acelerador local sem entregar a direção da solução.

Por que essa versão sobe o nível

  • mostra plano antes da ferramenta
  • mantém escopo apertado
  • trata validação como parte visível da resposta
  • rejeita complexidade extra sem drama
  • passa autoria

Ela não tenta impressionar pela quantidade de código.

Tenta impressionar por critério.

O que poderia melhorar ainda mais

Se o entrevistador apertar mais, ainda daria para aprofundar:

  • como dividir melhor o pedido para a IA
  • quando vale escrever teste rápido em vez de só validar manualmente
  • como explicar por que não escolheu biblioteca pronta
  • como adaptar a estratégia se a IA estiver lenta ou indisponível

Mas isso vem depois.

Primeiro vem controle da sessão.

Erros comuns nesse formato

  • pedir para a IA resolver a tarefa inteira
  • aceitar hook grande e genérico sem cortar escopo
  • validar em silêncio e deixar o entrevistador adivinhar seu critério
  • usar a ferramenta cedo demais sem entender onde está o problema
  • parecer orgulhosamente anti-IA ou passivamente dependente

Ângulo de entrevista

Esse mock é útil porque simula o formato que tende a crescer:

  • tarefa prática realista
  • IA permitida
  • pouco tempo
  • necessidade de manter autoria e clareza

Se você treinar bem esse formato, melhora não só rounds com IA.

Melhora também a forma como usa tooling moderno sem perder o controle da solução.

Resumo rápido

O que vale manter na cabeça

Checklist de pratica

Use isto ao responder

Próximo artigo Mock behavioral round: simulação com avaliação e resposta melhorada Artigo anterior Mock system design round: simulação com avaliação e resposta melhorada

Continue explorando

Artigos relacionados