Quantas horas de formação recebeu na sua carreira para liderar equipas?
Dezenas. Talvez centenas.
Liderança situacional. Gestão de conflitos. Feedback construtivo. Delegar de forma eficaz. Motivação de equipas.
Agora, quantas horas de formação recebeu para liderar equipas onde metade dos "colaboradores" são agentes de inteligência artificial?
Zero.
E não está sozinho. Nenhum MBA, nenhum programa executivo, nenhuma escola de gestão o preparou para liderar equipas onde humanos, agentes de IA e sistemas automatizados trabalham em paralelo, 24/7, a uma velocidade que nenhum organograma tradicional consegue acompanhar.
Isto não é uma falha sua. É uma falha de um modelo de gestão que foi desenhado para fábricas analógicas e processos lineares — e que ainda não percebeu que, com a IA, as regras operacionais, de liderança e de responsabilidade mudaram de forma estrutural.
O Problema Que Ninguém Está a Discutir
A maioria das conversas sobre IA nas empresas continuam focadas na tecnologia.
Que ferramentas usar? Quanto custa? Como implementar? Como integrar com os sistemas atuais?
Mas há uma pergunta muito mais importante que quase ninguém está a fazer:
Porque ter acesso a agentes de IA é fácil. Qualquer empresa pode subscrever o Grok, o ChatGPT, o Claude, o Gemini. A barreira tecnológica praticamente desapareceu.
O que não desapareceu — e está a tornar-se cada vez mais evidente — é a barreira de liderança.
Pense nisto: uma consultora global anunciou recentemente que tem 50.000 colaboradores humanos... e 20.000 agentes de IA.
Leu bem. Vinte mil.
Como é que se gere isso? Quem define as prioridades? Quem desenha os fluxos entre humanos e agentes? Quem supervisiona a qualidade? Quem assume responsabilidade quando algo corre mal?
A resposta honesta? Ninguém sabe ao certo. Estamos todos a construir o avião enquanto voamos. E as organizações que não aprenderem rapidamente a liderar esta nova força de trabalho híbrida vão ficar para trás — não por falta de tecnologia, mas por falta de modelo de liderança.
Mais à frente, vou partilhar um framework prático para começar a desenvolver estas competências. Mas primeiro, precisa de perceber o que está verdadeiramente em jogo — porque isto não é apenas uma mudança tecnológica, é uma mudança estrutural de modelo operacional.
Até agora, os organogramas tinham uma premissa simples: caixas com nomes de pessoas, ligadas por linhas de reporte.
Essa premissa acabou.
As organizações do futuro próximo vão ter:
A Anthropic — a empresa mãe do Claude — anunciou recentemente que o seu modelo mais avançado consegue trabalhar de forma autónoma durante 3 a 4 horas em tarefas de desenvolvimento de software, sem intervenção humana. Em contexto industrial, a mesma lógica aplica‑se a agentes que monitorizam linhas de produção, analisam dados de sensores ou antecipam necessidades de manutenção
Leia novamente: quatro horas de trabalho autónomo, consistente, ligado a processos reais.
Isto já não é ficção científica. É o presente em algumas organizações — inclusive em empresas industriais e tecnológicas que competem pelos mesmos mercados que a sua. E será o seu presente muito em breve.
A questão não é se vai acontecer. A questão é: está preparado para desenhar uma organização que funcione assim?
Consegue imaginar o seu organograma a integrar, de forma clara, quem decide, quem supervisiona e que agentes de IA executam, sem criar zonas cinzentas de responsabilidade?
Gerir uma equipa de pessoas exige um conjunto de competências.
Gerir uma "equipa" onde parte do trabalho é feito por humanos e parte por agentes de IA exige competências completamente diferentes:
A maioria dos gestores está a improvisar respostas para estas perguntas. Não por incompetência — mas por falta de precedentes, frameworks consolidados ou modelos operacionais testados em larga escala para este tipo de coordenação híbrida.
Aqui está algo que poucos líderes querem admitir: não sabemos totalmente como estes sistemas funcionam.
Os próprios engenheiros que constroem os modelos de linguagem não conseguem explicar completamente porque é que eles aprendem o que aprendem. Sabemos que funciona. Não sabemos exatamente porquê.
É como a gravidade: sabemos como se comporta, usamo-la todos os dias, mas a física fundamental continua cheia de zonas cinzentas.
Isto significa que os riscos também são, em parte, desconhecidos:
Liderar neste contexto exige uma combinação rara e exigente: confiança suficiente para avançar com intenção e humildade suficiente para questionar, colocar travões e redesenhar processos sempre que necessário.
Neste momento, provavelmente está a sentir uma de duas coisas:
Urgência — "Preciso de agir já, antes que fique para trás."
Ou
Paralisia — "Isto é demasiado complexo, vou esperar para ver."
Ambas as reações são compreensíveis. E ambas são perigosas nos extremos.
Mover demasiado rápido, sem um modelo operacional claro, cria caos organizacional, desperdício de recursos e erosão da confiança das equipas — sobretudo quando está a ligar sistemas críticos, agentes de IA e processos de negócio que não perdoam improvisações.
Mover demasiado devagar, enquanto o mercado acelera e os seus concorrentes começam a integrar IA nos fluxos de produção, manutenção e decisão comercial, cria um gap competitivo que se torna exponencialmente mais difícil de fechar.
O caminho? Mover com intenção.
Não se trata de ser o primeiro. Trata-se de ser deliberado: definir onde a IA entra, quem decide, quem supervisiona e como mede o impacto, antes de escalar.
No próximo artigo, partilho um framework prático de 4 fases para começar — mesmo sem ter todas as respostas. [Ler a Parte 2: O Framework]