Se a dívida cognitiva é o passivo invisível que acumulamos ao terceirizar o exercício reflexivo a uma inteligência artificial (IA) (ou outra ferramenta tecnológica), o estágio mais crítico desse processo é o que podemos chamar de armadilha da soberania cognitiva. 

O fascínio com a eficiência da IA pode nos levar a um “piloto automático” perigoso. A armadilha acontece quando uma liderança, seduzida por respostas rápidas, aceita as saídas da máquina como uma verdade objetiva “super-humana”. O perigo é silencioso: essa liderança de sua autonomia, delegando ao algoritmo o domínio de, por exemplo:

  • premissas do cenário de decisão;
  • reconhecimento de limitações técnicas;
  • responsabilidade ética e areflexão sobre nuances morais das consequências da decisão.

Reconhecendo os riscos ocultos para manter a soberania sobre as decisões

IAs são ferramentas indiscutivelmente necessárias à gestão moderna, pois são capazes de entregar decisões complexas em segundos. Uma ferramenta que supre lideranças com respostas por anseios e pressões cada vez maiores é, portanto, fundamental.

O problema é que a continuidade (e a confiança ganha com o tempo) do uso de ferramentas com esse poder pode levar lideranças a tratá-las como uma espécie de gênio da lâmpada, mesmo que para aspectos parciais. E é daí que vem a fonte de declínio silencioso e progressivo da capacidade de questionar os parâmetros e fundamentos que originam as decisões da máquina.

Nate Silver, em seu best-seller “O Sinal e o Ruído: por que tantas previsões falham e outras não”, diz que “previsões baseadas em dados podem ter sucesso —e podem falhar. Se negarmos nosso papel no processo, as chances de fracasso aumentam. Antes de exigirmos mais dos nossos dados, precisamos exigir mais de nós mesmos”.

“Exigir mais de nós mesmos” significa não nos rendermos à “mágica do gênio” e mantermos domínio sobre o que sabemos do cenário em que é necessária uma decisão, como quais são os fatos que temos e quais são as premissas que assumimos sobre esses fatos (pois é fácil misturar as duas coisas). 

Mas existe algo mais: precisamos ter o maior domínio possível sobre o que não sabemos sobre o cenário de decisão. E isso costuma ser muito incômodo. Em seu livro, Nate Silver diz ainda que “nossos modelos são meras simplificações do mundo”, ou seja, sempre haverá informações necessárias, mas que não estarão disponíveis aos nossos modelos, sejam eles matemáticos, sejam de pensamento. 

Leia também:

Dívida cognitiva na era da IA: quando a eficiência cobra um preço invisível da liderança

Soberania cognitiva é o novo paradigma de liderança

Líderes que compreendem (da melhor forma possível e continuamente) quais são essas informações são líderes que mantém a soberania sobre suas decisões, o que os leva a uma espiral virtuosa de aprendizado e adaptação contínuos.

Do contrário, no dia a dia corporativo, os sintomas são claros:

  • líderes que já não conseguem explicar o “porquê” de uma estratégia, apenas o “como” ela foi gerada pela ferramenta;
  • equipes que param de investigar o “por que fazer” para focar apenas no “o que fazer”, mimetizando o comportamento de submissão tecnológica da chefia;
  • no limite, há substituição do conhecimento profundo por uma gestão baseada em crenças e fórmulas mágicas de prateleira.

Essa terceirização excessiva interrompe as redes de conhecimento da empresa. Se a liderança apenas repassa o que a ferramenta entrega, surge a pergunta inevitável: quem está realmente no controle da execução da estratégia?

Mas há soluções.

Guia Prático: como líderes podem manter a soberania no dia a dia

Líderes empresariais discutindo estratégias para manter a soberania no dia a dia, usando tecnologia e inovação para fortalecer suas organizações.
Foto: Alysha Yogi/ Shutterstock

Para retomar o controle, o caminho não é a proibição, mas a criação de governanças práticas baseadas no que os especialistas chamam de engajamento metacognitivo. 

Em outros termos, trata-se de “pensar sobre o pensamento”. É praticar conscientemente a supervisão dos próprios processos mentais e dos resultados ofertados pela máquina, garantindo que a tecnologia amplie a visão em vez de atrofiá-la.

Para não cair na armadilha, a liderança pode adotar três práticas que funcionam como filtros de realidade essenciais antes de validar qualquer decisão apoiada por IA:

Prática 1: seja ceticamente saudável e investigue as fontes de informações.

O risco combatido: a adoção de declarações (às vezes “óbvia”) que não são fatos e/ou dados não representativos do problema em questão.

Por quê: é comum que uma referência citada pela IA diga exatamente o oposto do que a resposta criada por ela afirma. Mesmo sem a contradição, é preciso verificar se a fonte original realmente diz o que a IA afirma e/ou se o cenário original dialoga com o cenário de decisão.

Prática 2: busque por teses rivais.

O risco combatido: ignorar que outros fatores (como um momento favorável de mercado) podem causar resultados . 

Por quê: ao receber uma correlação (ex: “estratégia X causou lucro Y”), force-se a imaginar o resultado oposto. Isso ajuda a derrubar o viés de confirmação e manter o raciocínio crítico afiado, combatendo a submissão ao algoritmo.

Prática 3: questione se a evidência apresentada se aplica ao seu contexto específico.

O risco combatido: tratar uma resposta como se fosse universalmente aplicável.

Por quê: uma solução de aceleração de processos que funciona em uma startup pode ser desastrosa para uma fábrica, na qual as regras de segurança são prioritárias. Enfim: questione sempre se a evidência se aplica à sua realidade específica ou se é apenas uma universalização indevida.

Provocações finais: o diferencial humano na era digital

É um fato: diferenciais competitivos duradouros não vêm da velocidade da automação, mas da preservação da capacidade de reconhecimento de nuances e cenários. Empresas que tratam a IA com ceticismo construtivo e investem na alfabetização de suas lideranças estarão à frente daquelas que apenas buscam o atalho da eficiência.

As práticas apresentadas vão nesse sentido e a receita essencial talvez nem seja tão nova: criar processos que levem lideranças (e suas equipes) a adotar padrões de planejamento (definir metas a partir da seleção de ações alinhadas à estratégia corporativa), monitoramento (supervisão dos efeitos do processo decisório, que pode ser imperfeito) e avaliação dos resultados para que sejam feitos ajustes nas ações.

A provocação que fica para o board de sua empresa é: estamos usando a IA para expandir nossas ideias ou estamos permitindo que ela as crie do zero, enquanto nossa capacidade de pensar se reduz? No capítulo atual da evolução, a soberania real pertence a quem sabe equilibrar o poder do gênio com a autoridade de quem realmente entende de seus negócios.

* Alexandre R. Peres é Professor Convidado da Fundação Dom Cabral para Business Analytics, People Analytics e Liderança Orientada por Dados. Integra o Advisory board da consultoria KYD360 (foco em fraud analytics) e é pesquisador do Núcleo de Pesquisa e Desenvolvimento de Pessoas e Lideranças da FDC. Possui Bacharelado em Engenharia Civil pela Poli/USP, Pós-graduação pela FGV/EAESP e Mestrado e Doutorado pela Engenharia de Produção pela Poli/USP.