Estamos testemunhando uma aceleração vertiginosa na inteligência artificial, onde os marcos de ontem se tornam rapidamente os padrões de hoje. A recente revelação sobre a capacidade de raciocínio do Gemini 3 Deep Think e os prazos agressivos para a automação do trabalho de escritório não são apenas notícias de tecnologia; são sinais de uma transformação estrutural em nossa sociedade e economia.
O anúncio de que o Gemini 3 Deep Think, da Google, alcançou 84,6% no benchmark ARC-AGI-2 é um divisor de águas. Para colocar em perspectiva, a média de acertos humanos neste teste de raciocínio abstrato – uma medida considerada um forte indicador de inteligência genuína – é de apenas 60%. O modelo não só superou a capacidade humana média, como também deixou concorrentes como Claude Opus 4.6 (68,8%) e GPT-5.2 (52,9%) significativamente para trás.
Isso não se trata mais de uma IA que apenas prevê a próxima palavra em uma frase; é uma IA que raciocina.
O valor prático desta nova capacidade é impressionante. O Deep Think já demonstrou utilidade real ao:
- Capturar falhas lógicas em artigos de matemática que passaram despercebidos pela revisão de pares humanos.
- Otimizar receitas de crescimento de cristais semicondutores, atingindo níveis de precisão inalcançáveis pelos métodos anteriores.
- Converter um simples esboço manual em um arquivo pronto para impressão 3D, encurtando o caminho da ideia à materialização física.
Com feitos como medalhas de ouro nas Olimpíadas de Matemática, Física e Química de 2025, e o status de Grande Mestre Lendário no Codeforces, o modelo está se consolidando como a ferramenta de descoberta e verificação mais potente para engenheiros e cientistas.
Se a superioridade intelectual da IA é motivo de deslumbramento, o prazo para suas consequências no mercado de trabalho é motivo de alarme. Mustafa Suleyman, CEO de IA da Microsoft, estabeleceu um prazo firme: a maioria das tarefas de colarinho branco — incluindo funções de advogados, contadores, gerentes de projeto e profissionais de marketing — poderá ser automatizada em apenas 12 a 18 meses (no máximo, até meados de 2027).
Esta previsão ousada não é isolada. O professor Stuart Russell, coautor do livro-texto de IA mais usado na história, adverte sobre um potencial desemprego de 80%, argumentando que nenhum emprego está seguro. Dario Amodei, CEO da Anthropic, projeta o desaparecimento de 50% dos empregos de nível básico nos próximos cinco anos.
O impacto social é profundo. Um estudo da Brookings mostra que 6,1 milhões de trabalhadores de escritório (86% deles mulheres) carecem das habilidades, poupanças ou oportunidades locais para fazer a transição, tornando-os os primeiros e mais vulneráveis a serem deslocados.
A automação não é uma promessa futura; é uma realidade presente e radical. O Spotify revelou que seus principais engenheiros não escreveram uma única linha de código desde dezembro, graças a um sistema interno de IA chamado “Honk”. Este sistema, que usa a tecnologia Claude, permitiu que a empresa lançasse mais de 50 novos recursos em 2025, com correções de bugs e deployments de recursos sendo realizados em tempo real, diretamente de um celular.
O que o Spotify exemplifica é a evolução do desenvolvedor para o “gerente de IA” — a função não é mais construir, mas orquestrar. A principal vantagem competitiva da empresa, neste cenário, não é mais o código em si, mas sim o dataset massivo e exclusivo de comportamento musical que ela está construindo, o verdadeiro “ouro” para treinar uma IA com uma vantagem de longo prazo sobre a concorrência.
No meio desta corrida por poder e automação, o clamor por responsabilidade atinge um ponto de ruptura. As saídas dramáticas de pesquisadores de segurança da Anthropic e da OpenAI na mesma semana sinalizam uma crise interna.
Um dos pesquisadores de segurança de IA da Anthropic, Mrinank Sharma, que liderava a pesquisa sobre salvaguardas e riscos de bioterrorismo, renunciou para estudar poesia, alertando que o “mundo está em perigo” devido à IA, armas biológicas e crises globais em cascata. Paralelamente, outro pesquisador deixou a OpenAI por preocupações com a introdução de anúncios no ChatGPT. O conflito é claro: o equilíbrio entre a comercialização rápida e o crescimento versus a segurança de longo prazo, a ética e o bem-estar mental da humanidade.A
convergência de uma IA super-racional (Deep Think), uma aceleração radical na automação e o alarme dos especialistas em segurança nos coloca em um ponto de inflexão histórica. Não podemos mais tratar a IA como uma mera ferramenta de produtividade. Devemos encará-la como uma força de reestruturação civilizacional que exige um diálogo urgente sobre ética, propósito humano e preparação da força de trabalho.
Qual é a sua estratégia para os próximos 18 meses? O futuro do trabalho e do raciocínio já está aqui.