Em abril de 2025, uma das maiores empresas de IA do mundo — a Anthropic — teve um vazamento curioso: o prompt de sistema do Claude 4, seu modelo de linguagem de última geração, foi exposto e revelava um conjunto de instruções altamente estruturado, técnico e preciso.

Muito mais do que um “textinho de boas-vindas”, esse prompt parecia o esqueleto comportamental da IA: cada linha indicava como o modelo deveria agir, o que fazer em caso de dúvida, como responder com segurança e o que jamais deveria fazer.

Era engenharia de prompt em estado bruto.

E para quem está criando uma IA aplicada a processos críticos — como estamos fazendo com a Arbor, inteligência artificial do EyeForest — isso é ouro em forma de lição.

As 7 Lições Avançadas de Engenharia de Prompt (direto dos bastidores do Claude 4, adaptadas ao mundo florestal com a Arbor)

1. Sempre defina quem é a IA e qual seu papel

Modelos genéricos geram respostas genéricas. Se você não explica quem é a IA, onde ela está operando e o que se espera dela, o comportamento se torna inconsistente.

Exemplo ruim (prompt):

“Você é uma IA florestal. Responda às perguntas do usuário.”

Exemplo bom (prompt):

“Você é a Arbor, IA orquestrador do EyeForest. No ForestGIS, seu papel é ser um agente especializado em geoprocessamento, gestão florestal e operar o sistema como um engenheiro cartógrafo com conhecimento ambiental. Use linguagem técnica e objetiva.”


2. Use condicionais para evitar respostas erradas ou arriscadas

Se você não limitar o comportamento da IA, ela vai tentar adivinhar — e isso é um risco.

Uma IA generativa não “sabe” o que fazer quando faltam dados. Ela vai preencher as lacunas com base em padrões — e pode parecer confiante mesmo quando está errada. É por isso que instruções condicionais são essenciais.

Elas funcionam como o if do seu código:

“Se houver informação suficiente, faça a análise. Se não houver, diga que não é possível.”

Essa abordagem reduz drasticamente erros de interpretação, aumenta a segurança da resposta e impede que a IA aja fora do que é permitido.

Exemplo ruim (prompt):

“Analise os dados e diga se o talhão pode ser colhido.”

Aqui, a IA pode assumir que sabe o suficiente — mesmo com dados parciais.

Exemplo bom (prompt):

“Se o inventário florestal estiver completo, avalie o talhão com base em idade e volume. Se faltar qualquer um desses dados, diga: ‘Não é possível avaliar este talhão com segurança devido à ausência de informações críticas.’”


3. Modele a IA para lidar com incerteza

Mais perigoso do que errar é parecer certo sem ter certeza.

Em operações florestais, uma resposta imprecisa da IA pode gerar consequências jurídicas, operacionais ou até ambientais. Por isso, não basta programar a IA para dar a “resposta certa” — ela precisa saber quando não responder.

A boa engenharia de prompt ensina a IA a reconhecer cenários de incerteza, e a agir com cautela em vez de adivinhar. Isso é essencial em análises com documentos, dados geográficos ou informações legais.

A IA precisa ser capaz de dizer: “Eu não sei.” “Faltam informações.”  “A análise é parcial.”

Isso não é limitação. Isso é responsabilidade.

Exemplo ruim (prompt):

“O talhão está regular?”

Aqui, a IA pode responder “Sim” mesmo sem checar todos os critérios de regularidade.

Exemplo bom (prompt):

“Se todos os documentos obrigatórios estiverem presentes e válidos (CAR, licença de operação, certidões … ), diga que o talhão está regular. Se faltar qualquer um desses documentos, informe que a regularidade não pode ser confirmada com base nos dados disponíveis e pode oferecer uma informação parcial.”


4. Ensine com contraste: Mostre exemplos bons e ruins

Ensinar apenas o certo não é suficiente. A IA aprende melhor quando entende também o que é errado.

Modelos como o Claude ou o Gemini são sensíveis ao contexto e à linguagem. Se você só mostra um exemplo ideal, o modelo pode extrapolar o padrão — e gerar uma resposta ambígua ou até incorreta.

Exemplos negativos funcionam como cercas de proteção: eles delimitam o que está fora do esperado. É como escrever testes unitários — você define o que passa e o que falha.

Isso é ainda mais importante no contexto da Arbor, que lida com comandos, filtros e estruturas específicas em módulos como o ForestGIS e o ForestChain.

O modelo precisa entender não apenas como responder, mas o que evitar.

Exemplo ruim (prompt):

“Filtre os contratos de arrendamento com status válido.”

Isso é vago. O que exatamente é “válido”? O modelo pode interpretar como “vigente”, “em negociação” ou qualquer outra coisa.

Exemplo bom (prompt):

“Liste apenas os contratos de arrendamento com status vigente. Ignore contratos com status ‘em negociação’, ‘encerrado’ ou ‘em análise’.”

Aqui o modelo entende claramente o critério de filtro e os casos que deve excluir. Isso reduz ambiguidade e aumenta a previsibilidade da resposta.


5. Use regras binárias, não instruções subjetivas

Por que isso importa: Modelos de IA não “entendem intenção” — eles seguem instruções. Termos subjetivos como “simples” ou “legal” variam de pessoa para pessoa. Mas uma instrução binária (sim/não) é verificável e produz respostas mais consistentes.

Exemplo ruim (prompt):

“Explique de forma simples e clara.”

Parece simples, mas não diz nada de útil para a IA. O que é simples? O que é claro? O resultado muda a cada interação.

Exemplo bom (prompt):

“Responda com tom direto e linguagem técnica. Não use emojis, interjeições ou expressões como ‘ótima pergunta’ ou ‘com certeza’. A resposta deve ter até 150 palavras.”

Aqui, cada elemento da resposta esperada é objetivo e mensurável. A IA sabe exatamente o que fazer — e o que evitar.


6. Ensine o que não fazer (Tool Grammar Negativa)

Por que isso importa: A IA aprende por contraste. Mostrar só o jeito certo não basta. Bons prompts devem incluir também exemplos do que não fazer — isso ajuda a IA a rejeitar instruções mal formuladas, vagas ou perigosas.

Exemplo ruim (prompt):

“Liste os talhões para colheita.”

Esse comando é vago. Ele não especifica critérios mínimos como status silvicultural, idade da floresta ou localização. A IA pode listar qualquer coisa.

Exemplo bom (prompt):

“Liste apenas os talhões com:

  • status igual a ‘pronto_colheita’
  • idade maior ou igual a 6 anos
  • localização dentro da área definida pelo gestor ([bounding box])”

Inclua exemplos positivos e negativos no corpo do prompt:

  • Correto: Talhão XP-12, 7 anos, status ‘pronto_colheita’, dentro da área.
  • Incorreto: Talhão AB-07, 3 anos, status ‘em crescimento’.
  • Incorreto: Talhão Z-20, 8 anos, status ‘pronto_colheita’, mas fora da área delimitada.”

Esse tipo de contraste explícito ensina o modelo a ser mais rigoroso na filtragem e reduz a chance de respostas genéricas ou fora do padrão.


7. Peça reflexão após a ação

Modelos tendem a agir e responder imediatamente. Pedir uma análise após a execução gera respostas mais úteis e confiáveis.

Exemplo ruim (prompt):

“Liste os documentos da propriedade.”

Esse comando apenas aciona a recuperação da informação. Ele não exige nenhuma análise sobre a suficiência ou validade dos documentos.

Exemplo bom (prompt):

“Liste os documentos encontrados (CAR, licença de operação, certidões negativas). Em seguida, avalie se, com base nesses documentos, a propriedade pode ser considerada apta à negociação no ForestChain. Se faltar algum documento essencial, explique por que a aptidão não pode ser confirmada.”


E se sua empresa pudesse contar com isso agora?

A Arbor já está integrada ao ecossistema EyeForest — atuando no ForestGIS, ForestChain e ForestTracker.

É uma IA que está sendo treinando para pensar como um engenheiro florestal, um analista de geoprocessamento e um especialista em compliance ambiental e jurídico — ao mesmo tempo.

E o melhor: a lógica da Arbor é construída com base nessas 7 lições e muitas outras. Com ela, você não depende da sorte nem do improviso. Depende de engenharia.

Se sua empresa quer colocar IA para operar de verdade — com precisão, segurança e inteligência de negócio — converse com a gente.

About The Author