Porque na era da IA, a gestão de risco é, antes de tudo, uma questão de estrutura de poder e responsabilidade.
Na gestão tradicional, governança e risco operam como disciplinas distintas, porém essencialmente complementares. A Governança fornece a estrutura e as regras (“o que devemos fazer”), enquanto o Risco lida com as incertezas e falhas dessa estrutura (“o que pode dar errado”). Uma estrutura clara, lógica e, na era da decisão automatizada, perigosamente obsoleta.
A Inteligência Artificial não apenas acelera as decisões; ela dissolve a cadeia de responsabilidade. Quando um algoritmo de precificação dinâmica, operando em milissegundos, afunda a margem de um produto ou gera uma crise de imagem, a pergunta “quem aprovou isso?” ecoa no vazio. Não há assinatura, não há e-mail, não há culpado claro.
Esse vácuo de responsabilidade é o maior ponto cego do C-level hoje. E é aqui que a governança deixa de ser um exercício de compliance para se tornar a forma mais potente e proativa de gerenciamento de risco.
O caso da Zillow Offers, que perdeu mais de meio bilhão de dólares com seu modelo de iBuying, é emblemático. O erro não foi primariamente do algoritmo que previa os preços dos imóveis. O erro foi uma falha sistêmica de governança de risco. Faltavam os “disjuntores” — os limites estratégicos, definidos por humanos, que impediriam o modelo de operar sob condições de mercado que ele não foi treinado para entender.
Líderes delegam projetos de IA e esperam um ROI, mas se isentam de arquitetar os limites operacionais desses sistemas. Eles entregam um motor de Fórmula 1 a um algoritmo e se surpreendem quando ele bate no muro por falta de uma pista bem desenhada.
A governança algorítmica é o desenho dessa pista. É o framework de responsabilidade, transparência e controle sobre sistemas de decisão automatizados. É o conselho de administração da sua força de trabalho digital.
Uma governança eficaz não é uma âncora que prende a inovação. É um sistema de navegação que permite assumir riscos maiores com mais segurança.
Nassim Nicholas Taleb, em “Antifrágil” (2012), argumenta que os sistemas prosperam não apenas resistindo a choques, mas se beneficiando deles. Uma governança algorítmica antifrágil não busca apenas evitar o erro. Ela cria mecanismos de auditoria constante e testes de estresse que usam pequenos erros para fortalecer o sistema como um todo. Trata-se de construir um sistema imunológico corporativo, não apenas um colete à prova de balas.
A estratégia é definida pela estrutura. No passado, a estrutura do setor. Hoje, a estrutura de governança interna define a sustentabilidade do seu diferencial competitivo. A aplicabilidade de frameworks como o COBIT, tradicionalmente de TI, torna-se estratégica. Eles fornecem um modelo para mapear objetivos de negócio a processos de controle, garantindo que para cada decisão algorítmica exista uma linha clara de responsabilidade humana que a supervisione.
Imagine uma empresa que usa IA para otimizar lances em pregões. Sem governança, o algoritmo poderia adotar uma estratégia suicida para vencer a qualquer custo, destruindo a margem de lucro. A governança eficaz estabelece “circuit breakers”: limites de margem mínima e de exposição de capital que o algoritmo não pode violar. A decisão de cruzar essa linha vermelha volta, por design, para um gestor humano.
Em uma construtora, um modelo de IA poderia ser adotado para otimizar a alocação de equipes em múltiplas obras. Um evento imprevisto — uma greve, uma falha de fornecedor — pode levar o algoritmo a tomar decisões em cascata que paralisam todo o portfólio. A governança define o “protocolo de exceção”: em que ponto a autonomia do sistema é suspensa e um comitê de crise, composto por líderes de engenharia e operações, assume o controle tático.
A pergunta estratégica mudou. O foco saiu da ferramenta (como usar a IA?) e migrou para a estrutura de controle (como governamos seu uso?). A questão fundamental hoje é: como estruturamos o poder e a responsabilidade para controlar essa otimização?”
A governança de IA não é uma rede de segurança; é o sistema de direção. E em um ambiente de negócios onde a velocidade é exponencial, entregar o controle total do volante a um sistema sem supervisão não é inovação. É uma abdicação de responsabilidade.
A tarefa mais crítica da liderança na era da IA não é escolher a tecnologia certa. É arquitetar a estrutura de poder que garantirá que essa tecnologia sirva, sempre e sem exceção, à estratégia humana.
#Governança #GestãoDeRiscos #InteligenciaArtificial #Liderança #Estratégia #COBIT #NassimTaleb
O conteúdo deste artigo reflete a posição do autor e não, necessariamente, a do Grupo JML.