Em 2020, durante a ocupação do Afeganistão, os Estados Unidos utilizaram um sistema de Inteligência Artificial (IA) generativa desenvolvida pelo Departamento de Defesa Americano com o objetivo de prever ataques terroristas do Talibã.
Basicamente, a IA utiliza fontes de dados públicos para prever onde futuros ataques podem acontecer. O modelo, conhecido como Raven Sentry, conta principalmente com acesso a dados históricos para beneficiar as análises militares.
O sistema é capaz de reconhecer padrões de ataques e prever ataques futuros a partir dos dados históricos inseridos no programa. O contexto dos ataques também são considerados pela IA, como datas comemorativas, situações climáticas e locais que geralmente costumam ser alvos de terroristas, como mesquitas e bairros residenciais estratégicos.
O programa não toma decisões operacionais sozinho, mas consegue fornecer uma ampla conjuntura do cenário atual tendo em vista a história dos últimos 40 anos. Vale destacar ainda que a IA possui código livre, ou seja, ela pode ser utilizada comercialmente ou incorporada por outros desenvolvedores, e é aí que mora o maior problema.
E qual o problema da IA?
Os questionamentos éticos sobre o uso da ferramenta são o principal problema para as atividades de defesa, especialmente em modelos generativos, como o criado pelo governo americano.
Um dos riscos envolve o uso comercial desse tipo de tecnologia e a possibilidade de tomada de decisões a partir dos dados fornecidos por ela.
Entretanto, atualmente, a Agência Nacional de Segurança dos EUA (NSA) está buscando o desenvolvimento de outros projetos baseados em Inteligência Artificial para implementar nas ações militares do país. O objetivo é sair na frente na corrida tecnológica, especialmente com a China, país que cresce a passos largos no setor.