Na semana passada, enquanto eu tentava explicar para um cliente rural como a IA pode sugerir o melhor talhão para colheita, Daniel Kokotajlo publicava uma linha do tempo que prevê o fim da civilização mais ou menos para… dezembro de 2027.

Sim, temos dois anos até a IA superar engenheiros, pesquisadores e tomar decisões com autonomia absoluta. Isso se não nos enganar antes, como num filme de espião em Silicon Valley.

Segundo o relatório AI 2027, essa seria a sequência:

  • SC – Superhuman Coder (março de 2027)
  • SAR – Superhuman AI Researcher (agosto de 2027)
  • SIAR – Superintelligent AI Researcher (novembro de 2027)
  • ASI – Artificial Superintelligence (dezembro de 2027)

Fonte: ai-2027.com

A visão catastrofista — Kokotajlo e os profetas da singularidade

Daniel Kokotajlo não está sozinho nessa linha. Ele segue a trilha de pensadores como:

  • Nick Bostrom, que em Superintelligence (2014) defende que, se perdermos o controle da IA uma única vez, pode ser o fim. Ele compara nossa situação à dos gorilas diante dos humanos: não por maldade, mas por irrelevância.
  • Eliezer Yudkowsky, do MIRI, que diz que não estamos nem perto de prontos para brincar com AGI — e que os riscos são incontroláveis.

O ponto comum entre eles: a ideia de que a IA vai evoluir mais rápido do que conseguimos reagir. E que os próximos saltos não serão incrementais, mas transformacionais.

O contraponto — Nem todo mundo acha que vamos sumir

Felizmente, há quem pise no freio — com boas razões.

  • Gary Marcus (Rebooting AI) critica abertamente os LLMs. Para ele, os modelos são impressionantes, mas longe da generalização real. Fazem bem aquilo que não entendem.
  • Yoshua Bengio reconhece os riscos, mas aposta em governança global e mecanismos técnicos de alinhamento. Não é uma corrida cega, mas uma transição que pode ser guiada.
  • Melanie Mitchell (Artificial Intelligence: A Guide for Thinking Humans) lembra que IA é poderosa, mas não mágica. Ainda somos fundamentais no loop.
  • Rodney Brooks, cofundador da iRobot, diz que superestimamos a IA e subestimamos o mundo real. Na prática, os modelos atuais ainda tropeçam em tarefas simples fora do laboratório.

E, do ponto de vista técnico: LLMs como GPT-4 não têm objetivos próprios. Eles operam por predição estatística, não por intenção. Não existe agency autônoma. Ainda.

Minha visão — Um olhar realista sobre o que vem aí…

A verdade, como em quase tudo, está no meio. Subestimar a IA é ingênuo. Superestimar é ineficiente.

Tecnologia precisa de debate, mas também de aplicação prática e ética no presente.

Aqui na Forestoken, a IA não está tentando dominar o mundo — ela está ajudando consultores e gestores a tomar decisões mais inteligentes sobre florestas reais, contratos reais, mapas reais.

Nossa IA, a Arbor, já:

  • Interpreta cláusulas contratuais florestais e fundiárias
  • Gera modelos e relatórios técnicos para o setor
  • Explica normas ambientais em linguagem clara
  • Apoia decisões com base em geointeligência e risco jurídico

Ela não tem ego, nem agenda. Só dados e contexto.

O que a gente deveria temer de verdade?

Talvez o risco maior não seja a IA nos destruir.

Talvez seja a gente ignorar como ela pode ajudar agora — e deixar decisões florestais, jurídicas e ambientais na mão de planilhas mal feitas, documentos genéricos e suposições desatualizadas.

A singularidade pode vir.

Mas, por enquanto, ela ainda pede ajuda pra abrir um PDF com sobreposição de APP.

About The Author