O Erro como Fenômeno de Rede: Nenhuma Falha é Isolada

A narrativa convencional do erro frequentemente busca um culpado: o operador que apertou o botão errado, o médico que fez o diagnóstico incorreto, o piloto que tomou a decisão fatal. Esta visão, embora intuitiva, é uma simplificação perigosa. Quando analisamos um evento adverso através da lente da ciência das redes e dos estudos organizacionais, percebemos que um erro nunca é um ato isolado de um único indivíduo, mas sim a manifestação pontual de uma falha sistêmica, um colapso em uma rede de pessoas, com processos, tecnologias, culturas e decisões complexas.

Sob esta ótica, o indivíduo é meramente o componente através do qual uma cadeia de falhas latentes, dispersas pela rede, finalmente se concretiza. O erro humano é a consequência, não a causa. O acadêmico e especialista em segurança Charles Perrow, em sua obra Normal Accidents (1984), argumenta que em sistemas complexos e altamente acoplados (como usinas nucleares, tráfego aéreo ou mercados financeiros), acidentes são “normais” – ou seja, inevitáveis. Eles não resultam de uma única falha, mas de interações imprevistas e inesperadas entre múltiplas falhas menores dentro do sistema. A rede, em sua complexidade, gera suas próprias patologias.

A Rede em Colapso: Exemplos Históricos

1. O Desastre do Ônibus Espacial Challenger (1986)

A explosão do Challenger 73 segundos após o lançamento, que matou sete astronautas, foi imediatamente atribuída a uma falha nos anéis de vedação (O-rings) nos propulsores de foguete sólidos. No entanto, a investigação revelou uma rede de falhas organizacionais que tornou o desastre quase inevitável:

  • Pressões Culturais e Econômicas: A NASA estava sob intensa pressão para manter um cronograma de lançamentos ambicioso. Essa pressão criou uma cultura onde a segurança começou a ser comprometida em favor da eficiência e da agenda.
  • Fluxo de Informações Comprometido: Engenheiros da Morton Thiokol (fabricante dos foguetes) haviam expressado sérias preocupações sobre o desempenho dos O-rings em temperaturas frias, previstas para o dia do lançamento. No entanto, essa informação foi diluída e suprimida ao longo da cadeia de comando. A rede de comunicação, que deveria garantir a tomada de decisão segura, falhou.
  • Normalização do Desvio: Anomalias nos O-rings em voos anteriores haviam sido observadas, mas não resultaram em falha catastrófica. Isso criou uma “normalização do desvio”, um conceito explorado pela socióloga Diane Vaughan em seu livro The Challenger Launch Decision (1996). A rede organizacional passou a aceitar um nível de risco que, retroativamente, se mostrou inaceitável. O erro, portanto, não foi de um engenheiro ou gerente, mas de uma rede que havia aprendido a tolerar a falha silenciosa.

2. A Crise Financeira Global de 2008

A queda do banco Lehman Brothers e a subsequente crise econômica mundial são um exemplo clássico de erro como fenômeno de rede em escala global. Não houve um único “culpado”, mas uma constelação de fatores interligados:

  • Incentivos Perversos na Rede: Corretoras eram incentivadas a conceder hipotecas de alto risco (“subprime”) a tomadores não qualificados. Essas hipotecas eram então “empacotadas” em produtos financeiros complexos (CDOs) e vendidas globalmente.
  • Falha Regulatória Sistêmica: A rede regulatória era fragmentada e desatualizada, incapaz de acompanhar a inovação financeira e a interconexão global. Agências de classificação de risco, partes integrantes da rede, classificaram esses produtos tóxicos como seguros, conferindo-lhes uma falsa aura de confiabilidade.
  • Acoplamento Apertado do Sistema Financeiro: Como descrito por Perrow, o sistema financeiro global é um sistema complexo e altamente acoplado. A falência de um único nó importante (Lehman Brothers) desencadeou uma reação em cadeia imediata e incontrolável através de toda a rede, pois todos os nós estavam interconectados por dívidas e derivativos. O “erro” foi uma propriedade emergente da própria arquitetura da rede.

A Lente Teórica: Para Além do Bode Expiatório

O académico e pesquisador de fatores humanos, Sidney Dekker, é uma das vozes mais críticas da busca pelo “bode expiatório”. Em seu livro The Field Guide to Understanding ‘Human Error’ (2014), ele defende uma mudança da pergunta “Quem causou o acidente?” para “Como as ações daquela pessoa fizeram sentido na sua situação?”. Esta abordagem, conhecida como “Just Culture” (Cultura Justa), reconhece que os profissionais geralmente estão fazendo o melhor que podem dentro de um contexto cheio de restrições, ambiguidades e metas conflitantes.

A rede, portanto, não é um palco neutro onde atos individuais ocorrem. Ela é um agente ativo que molda o comportamento. Ela pode:

  • Criar Pontos Cegos: Quando a comunicação entre departamentos é deficiente.
  • Amplificar Pressões: Quando metas de produção e segurança entram em conflito.
  • Diluir a Responsabilidade: Em estruturas hierárquicas complexas, onde todos são um pouco responsáveis, mas ninguém é integralmente responsável.

Analisar erros através da lente das redes não é um exercício para isentar indivíduos de sua responsabilidade, mas para compreendê-la em seu contexto real e produtivo. É uma visão mais humilde e, paradoxalmente, mais poderosa. Ela nos força a olhar para a teia organizacional – pessoas em rede conectadas através dos fluxos de informação – e a perceber que cortar um único nodo (demitindo um indivíduo) raramente reforça a teia. A verdadeira resiliência e a prevenção de erros futuros só podem ser alcançadas quando entendemos e fortalecemos a rede como um todo, criando sistemas que sejam capazes de absorver, aprender com as falhas e impedir que uma sequência de pequenos erros se propague até se tornar uma catástrofe.

Referências:

  • PERROW, Charles. Normal Accidents: Living with High-Risk Technologies. Basic Books, 1984.
  • VAUGHAN, Diane. The Challenger Launch Decision: Risky Technology, Culture, and Deviance at NASA. University of Chicago Press, 1996.
  • DEKKER, Sidney. The Field Guide to Understanding ‘Human Error’. 3rd ed., CRC Press, 2014.