A modernização das Forças Armadas é um imperativo existencial. No entanto, na ânsia de preparar o militar para a guerra do futuro, caracterizada pela onipresença de sistemas autônomos e fluxos de dados massivos, corremos o risco de cair em um reducionismo pedagógico perigoso: a crença de que a fluência tecnológica é sinônimo de capacidade de programação.
A armadilha do Python e o risco do reducionismo tecnológico
Este equívoco, que denomino a armadilha do Python, ameaça desviar recursos preciosos da formação de líderes estratégicos para a formação de técnicos medíocres. Para o Exército Brasileiro, e especificamente para a Linha de Ensino Militar Bélico, a solução não reside em transformar cadetes em engenheiros de software, mas em distinguir, com clareza doutrinária, a fronteira entre a expertise técnica e o letramento em Inteligência Artificial.
A armadilha do Python seduz pela sua tangibilidade. Em um mundo digital, ensinar uma linguagem de programação como Python parece uma resposta óbvia à demanda por modernização. Contudo, no contexto da formação de militares combatentes — Infantaria, Cavalaria, Artilharia — esta abordagem ignora o custo de oportunidade curricular. O tempo investido ensinando a sintaxe de um código, uma habilidade perecível que se degrada sem a prática diária e constante, é tempo subtraído do desenvolvimento de competências duráveis: liderança, ética, história militar e pensamento crítico. Tentar transformar generalistas em programadores resulta, invariavelmente, em militares que não programam bem o suficiente para desenvolver sistemas seguros e que, tragicamente, deixaram de aprofundar-se na arte do comando.
O conceito de letramento em IA: o usuário competente
A verdadeira necessidade é o letramento em IA. Diferente da expertise técnica, o letramento foca no emprego, na crítica e na decisão. O militar combatente deve ser um usuário competente e um comprador inteligente. Ele não precisa saber como a rede neural ajusta seus pesos matemáticos; ele precisa saber interpretar o grau de confiança de uma probabilidade estatística, identificar quando um algoritmo de reconhecimento de alvos está enviesado por dados ruins e, especialmente, quando a fricção da guerra torna a máquina não confiável.
Benchmarking Internacional e a distinção epistemológica
O benchmarking internacional corrobora esta visão. A Academia Militar dos Estados Unidos (West Point) reestruturou seu currículo para oferecer um Core Curriculum de fundamentos digitais para todos os cadetes, reservando a programação profunda apenas para os especialistas. O objetivo é formar o que a doutrina americana chama de smart buyer (comprador inteligente) e líderes capazes de operar em teaming homem-máquina. Similarmente, a Royal Military Academy Sandhurst, no Reino Unido, enfatiza a liderança intelectual em ambientes saturados por dados, focando na manutenção da capacidade de decisão humana diante da sugestão algorítmica.
A distinção é epistemológica. A expertise técnica lida com a construção da ferramenta (como fazer funcionar); o letramento lida com a aplicação da ferramenta (como vencer utilizando-a). Na guerra algorítmica, o perigo não reside apenas na falha técnica do sistema, mas na confiança automatizada — a tendência humana de aceitar cegamente a recomendação de um computador. O militar letrado em IA é aquele treinado para manter um ceticismo saudável, para interrogar a máquina e para aplicar o filtro ético e legal (Direito Internacional dos Conflitos Armados) que nenhum algoritmo é capaz de processar plenamente.
O desafio da IA generativa no processo pedagógico do ensino militar
A introdução de ferramentas de IA generativa, como Grandes Modelos de Linguagem (LLMs), reforça essa necessidade. O desafio pedagógico nas nossas Escolas não deve ser como proibir o militar de usar a IA, mas como ensinar o militar a liderar com a IA. O militar do futuro terá um ala cognitivo digital. Sua competência será medida não pela capacidade de escrever o relatório sozinho, mas pela capacidade de avaliar a precisão, a lógica e a integridade das informações geradas por seus sistemas de apoio à decisão.
Portanto, o Exército Brasileiro deve resistir à tentação de incluir disciplinas de programação genéricas em currículos já saturados. O foco deve ser transversal: o ensino de Data Science aplicado à Tática, a discussão sobre Ética de IA nas aulas de Direito, e o entendimento de Sensores e Guerra Eletrônica nas instruções de Material.
A névoa da guerra e o fator humano
Em última análise, a guerra continua sendo um fenômeno humano, submetido àquilo que o prussiano Carl von Clausewitz imortalizou como a névoa da guerra. Em sua obra Da Guerra, ele nos alerta que a guerra é o reino da incerteza; três quartos das coisas sobre as quais a ação na guerra é construída encontram-se envoltas em uma névoa de maior ou menor incerteza.
A Inteligência Artificial apresenta-se como uma ferramenta poderosa para penetrar essa obscuridade, processando dados em velocidades sobre-humanas. Contudo, ela não elimina a fricção do combate; muitas vezes, apenas altera sua natureza, gerando o risco de uma falsa onisciência. Se nossas escolas caírem na armadilha do Python, formando militares focados na sintaxe do código em vez da sintaxe da batalha, teremos tecnocratas paralisados quando a máquina alucinar ou desconectar. Por outro lado, ao formarmos líderes letrados em IA, garantimos comandantes com o intelecto preparado para usar a tecnologia como um farol, mas com a coragem necessária para navegar no escuro quando a névoa inevitavelmente descer.
REFERÊNCIAS
BRENNER, P.; TRIPP, L. Digital literacy: Vital tools for the Great Power Competition. Air Education and Training Command, 2024. Disponível em: https://www.airmanmagazine.af.mil.
DENNING, P. J. Computational thinking. Communications of the ACM, v. 49, n. 6, p. 33-35, 2006.
EXÉRCITO BRASILEIRO. Diretriz Estratégica de Inteligência Artificial para o Exército Brasileiro (EB20-D-02.031). Brasília: EME, 2024.
KLINE, A. et al. Digital Literacy and the future of military education. Joint Force Quarterly, n. 110, 2023.
LONG, D.; MAGERKO, B. What is AI Literacy? Competencies and Design Considerations. In: Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems. ACM, 2020.
LUSHENKO, P.; SPARROW, R. Artificial Intelligence and US Military Cadets' Attitudes about Future War. Armed Forces & Society, 2024.
SCHARTZ, P. Army of None: Autonomous Weapons and the Future of War. W. W. Norton & Company, 2018.
UNITED STATES MILITARY ACADEMY. Academic Program: Core Curriculum and Engineering Sequence. West Point, NY. Disponível em: https://www.westpoint.edu/academics.
Comentarios