A pilha de IA definida pela Carnegie Mellon University é fundamental para a abordagem adotada pelo Exército dos EUA para seus esforços de plataforma de desenvolvimento de IA, de acordo com Isaac Faber, cientista-chefe de dados do Centro de Integração de IA do Exército dos EUA, falando no Governo Mundial de IA evento realizado presencialmente e virtualmente em Alexandria, Virgínia, na semana passada.
“Se quisermos mover o Exército de sistemas legados para a modernização digital, um dos maiores problemas que encontrei é a dificuldade em abstrair as diferenças em aplicativos”, disse ele. “A parte mais importante da transformação digital é a camada intermediária, a plataforma que torna mais fácil estar na nuvem ou em um computador local.” O desejo é poder mover sua plataforma de software para outra plataforma, com a mesma facilidade com que um novo smartphone carrega os contatos e históricos do usuário.
A ética abrange todas as camadas da pilha de aplicativos de IA, o que posiciona o estágio de planejamento no topo, seguido pelo suporte à decisão, modelagem, aprendizado de máquina, gerenciamento de dados em massa e a camada de dispositivo ou plataforma na parte inferior.
“Estou defendendo que pensemos na pilha como uma infraestrutura central e uma maneira de os aplicativos serem implantados e não ficarem isolados em nossa abordagem”, disse ele. “Precisamos criar um ambiente de desenvolvimento para uma força de trabalho distribuída globalmente.”
O Exército tem trabalhado em uma plataforma Common Operating Environment Software (Coes), anunciada pela primeira vez em 2017, um design para o trabalho do DOD que é escalável, ágil, modular, portátil e aberto. “É adequado para uma ampla gama de projetos de IA”, disse Faber. Para executar o esforço, “O diabo está nos detalhes”, disse ele.
O Exército está trabalhando com a CMU e empresas privadas em uma plataforma protótipo, incluindo Visimo de Coraopolis, Pensilvânia, que oferece serviços de desenvolvimento de IA. Faber disse que prefere colaborar e coordenar com a indústria privada em vez de comprar produtos prontos. “O problema com isso é que você fica preso ao valor que está sendo fornecido por aquele fornecedor, que geralmente não é projetado para os desafios das redes do DOD”, disse ele.
Exército treina uma série de equipes de tecnologia em IA
O Exército se envolve em esforços de desenvolvimento de força de trabalho de IA para diversas equipes, incluindo: liderança, profissionais com pós-graduação; equipe técnica, que passa por treinamento para obter a certificação; e usuários de IA.
As equipes de tecnologia no Exército têm diferentes áreas de foco, incluindo: desenvolvimento de software de propósito geral, ciência de dados operacionais, implantação que inclui análise e uma equipe de operações de aprendizado de máquina, como uma grande equipe necessária para construir um sistema de visão computacional. “À medida que as pessoas passam pela força de trabalho, elas precisam de um lugar para colaborar, construir e compartilhar”, disse Faber.
Os tipos de projetos incluem diagnóstico, que pode combinar fluxos de dados históricos, preditivo e prescritivo, que recomenda um curso de ação com base em uma previsão. “Na outra ponta está a IA; você não começa com isso”, disse Faber. O desenvolvedor tem que resolver três problemas: engenharia de dados, a plataforma de desenvolvimento de IA, que ele chamou de “bolha verde”, e a plataforma de implantação, que ele chamou de “bolha vermelha”.
“Eles são mutuamente exclusivos e todos interconectados. Essas equipes de pessoas diferentes precisam se coordenar programaticamente. Normalmente, uma boa equipe de projeto terá pessoas de cada uma dessas áreas de bolha”, disse ele. “Se você ainda não fez isso, não tente resolver o problema da bolha verde. Não faz sentido buscar IA até que você tenha uma necessidade operacional.”
Questionado por um participante sobre qual grupo é o mais difícil de alcançar e treinar, Faber disse sem hesitação: “Os mais difíceis de alcançar são os executivos. Eles precisam aprender qual é o valor a ser fornecido pelo ecossistema de IA. O maior desafio é como comunicar esse valor”, disse ele.
Painel discute casos de uso de IA com maior potencial
Em um painel sobre Fundamentos da IA emergente, o moderador Curt Savoie, diretor do programa Estratégias Globais de Cidades Inteligentes da IDC, empresa de pesquisa de mercado, perguntou qual caso de uso de IA emergente tem mais potencial.
Jean-Charles Lede, consultor de tecnologia de autonomia da Força Aérea dos EUA, Escritório de Pesquisa Científica, disse: “Eu destacaria as vantagens de decisão na ponta, apoiando pilotos e operadores, e decisões na retaguarda, para planejamento de missão e recursos”.

Krista Kinnard, Chefe de Tecnologia Emergente do Departamento do Trabalho, disse: “O processamento de linguagem natural é uma oportunidade de abrir as portas para a IA no Departamento do Trabalho”, disse ela. “No final das contas, estamos lidando com dados sobre pessoas, programas e organizações.”
Savoie perguntou quais são os grandes riscos e perigos que os painelistas veem ao implementar IA.
Anil Chaudhry, Diretor de Implementações Federais de IA para a Administração de Serviços Gerais (GSA), disse que em uma organização de TI típica usando desenvolvimento de software tradicional, o impacto de uma decisão de um desenvolvedor só vai até certo ponto. Com IA, “Você tem que considerar o impacto em uma classe inteira de pessoas, constituintes e partes interessadas. Com uma simples mudança nos algoritmos, você pode estar atrasando benefícios para milhões de pessoas ou fazendo inferências incorretas em escala. Esse é o risco mais importante”, disse ele.
Ele disse que pede aos seus parceiros contratuais que tenham “humanos no circuito e humanos no circuito”.
Kinnard apoiou isso, dizendo: “Não temos intenção de remover humanos do loop. É realmente sobre empoderar as pessoas para tomar melhores decisões.”
Ela enfatizou a importância de monitorar os modelos de IA depois que eles são implantados. “Os modelos podem variar conforme os dados subjacentes às mudanças”, ela disse. “Então você precisa de um nível de pensamento crítico não apenas para fazer a tarefa, mas para avaliar se o que o modelo de IA está fazendo é aceitável.”
Ela acrescentou: “Nós construímos casos de uso e parcerias em todo o governo para garantir que estamos implementando IA responsável. Nunca substituiremos pessoas por algoritmos.”
Lede da Força Aérea disse: “Frequentemente temos casos de uso em que os dados não existem. Não podemos explorar 50 anos de dados de guerra, então usamos simulação. O risco está em ensinar um algoritmo que você tem uma ‘lacuna entre simulação e realidade’ que é um risco real. Você não tem certeza de como os algoritmos serão mapeados para o mundo real.”
Chaudhry enfatizou a importância de uma estratégia de teste para sistemas de IA. Ele alertou sobre desenvolvedores “que se apaixonam por uma ferramenta e esquecem o propósito do exercício”. Ele recomendou que o gerente de desenvolvimento projete uma estratégia de verificação e validação independente. “Seu teste é onde você tem que focar sua energia como líder. O líder precisa ter uma ideia em mente, antes de comprometer recursos, sobre como eles justificarão se o investimento foi um sucesso.”
Lede, da Força Aérea, falou sobre a importância da explicabilidade. “Sou um tecnólogo. Não faço leis. A capacidade da função da IA de explicar de uma forma que um humano possa interagir é importante. A IA é uma parceira com quem temos um diálogo, em vez de a IA chegar a uma conclusão que não temos como verificar”, disse ele.
Esse artigo é uma releitura de: www.aitrends.com