HOME > blog

Promova IA e ML confiáveis ​​e identifique as melhores práticas para dimensionar a IA
17 de setembro de 2024

Promover IA e ML confiáveis ​​e identifique as melhores práticas para dimensionar a IA

Promover IA confiável e aprendizado de máquina para mitigar o risco da agência é uma prioridade para o Departamento de Energia dos EUA (DOE), e identificar as melhores práticas para implementar IA em escala é uma prioridade para a Administração de Serviços Gerais dos EUA (GSA).

Promover IA confiável e aprendizado de máquina para mitigar o risco da agência é uma prioridade para o Departamento de Energia dos EUA (DOE), e identificar as melhores práticas para implementar IA em escala é uma prioridade para a Administração de Serviços Gerais dos EUA (GSA).

Foi o que os participantes aprenderam em duas sessões no Governo Mundial de IA evento ao vivo e virtual realizado em Alexandria, Virgínia, na semana passada.

Pamela Isom, Diretora do Escritório de IA e Tecnologia, DOE

Pamela Isom, Diretora do AI and Technology Office no DOE, que falou sobre Advancing Trustworthy AI and ML Techniques for Mitigating Agency Risks, está envolvida na proliferação do uso de IA em toda a agência há vários anos. Com ênfase em IA aplicada e ciência de dados, ela supervisiona políticas e padrões de mitigação de risco e está envolvida na aplicação de IA para salvar vidas, combater fraudes e fortalecer a infraestrutura de segurança cibernética.

Ela enfatizou a necessidade de o esforço do projeto de IA fazer parte de um portfólio estratégico. “Meu escritório está lá para impulsionar uma visão holística sobre IA e para mitigar riscos, reunindo-nos para enfrentar desafios”, disse ela. O esforço é auxiliado pelo Escritório de IA e Tecnologia do DOE, que está focado em transformar o DOE em uma empresa de IA líder mundial, acelerando a pesquisa, o desenvolvimento, a entrega e a adoção de IA.

“Estou dizendo à minha organização para estar ciente do fato de que você pode ter toneladas e toneladas de dados, mas eles podem não ser representativos”, ela disse. Sua equipe analisa exemplos de parceiros internacionais, indústria, academia e outras agências para resultados “em que podemos confiar” de sistemas que incorporam IA.

“Sabemos que a IA é disruptiva, ao tentar fazer o que os humanos fazem e fazê-lo melhor”, disse ela. “Está além da capacidade humana; vai além dos dados em planilhas; pode me dizer o que farei em seguida antes que eu mesma pense nisso. É tão poderosa”, disse ela.

Como resultado, deve-se prestar muita atenção às fontes de dados. “A IA é vital para a economia e nossa segurança nacional. Precisamos de precisão; precisamos de algoritmos em que possamos confiar; precisamos de exatidão. Não precisamos de vieses”, disse Isom, acrescentando: “E não se esqueça de que você precisa monitorar a saída dos modelos muito depois de eles terem sido implantados”.

Guia de Ordens Executivas para Trabalho de IA da GSA

A Ordem Executiva 14028, um conjunto detalhado de ações para abordar a segurança cibernética de agências governamentais, emitida em maio deste ano, e a Ordem Executiva 13960, promovendo o uso de IA confiável no governo federal, emitida em dezembro de 2020, fornecem orientações valiosas para seu trabalho.

Para ajudar a gerenciar o risco do desenvolvimento e implantação de IA, a Isom produziu o AI Risk Management Playbook, que fornece orientação sobre recursos do sistema e técnicas de mitigação. Ele também tem um filtro para princípios éticos e confiáveis ​​que são considerados em todos os estágios do ciclo de vida da IA ​​e tipos de risco. Além disso, o playbook está vinculado a Ordens Executivas relevantes.

E ele fornece exemplos, como seus resultados chegaram a 80% de precisão, mas você queria 90%. “Algo está errado aí”, disse Isom, acrescentando, “O playbook ajuda você a olhar para esses tipos de problemas e o que você pode fazer para mitigar o risco, e quais fatores você deve ponderar ao projetar e construir seu projeto.”

Embora interna ao DOE no momento, a agência está analisando os próximos passos para uma versão externa. “Nós a compartilharemos com outras agências federais em breve”, ela disse.

Melhores práticas da GSA para dimensionar projetos de IA descritas

Anil Chaudhry, Diretor de Implementações Federais de IA, Centro de Excelência em IA (CoE), GSA

Anil Chaudhry, Diretor de Implementações Federais de IA do Centro de Excelência em IA (CoE) da GSA, que falou sobre Melhores Práticas para Implementação de IA em Escala, tem mais de 20 anos de experiência em entrega de tecnologia, operações e gerenciamento de programas nos setores de defesa, inteligência e segurança nacional.

A missão do CoE é acelerar a modernização tecnológica em todo o governo, melhorar a experiência pública e aumentar a eficiência operacional. “Nosso modelo de negócios é fazer parcerias com especialistas em assuntos da indústria para resolver problemas”, disse Chaudhry, acrescentando: “Não estamos no negócio de recriar soluções da indústria e duplicá-las.”

O CoE está fornecendo recomendações para agências parceiras e trabalhando com elas para implementar sistemas de IA, já que o governo federal se envolve fortemente no desenvolvimento de IA. “Para IA, o cenário governamental é vasto. Cada agência federal tem algum tipo de projeto de IA em andamento agora”, ele disse, e a maturidade da experiência em IA varia amplamente entre as agências.

Os casos de uso típicos que ele está vendo incluem ter foco de IA em aumentar velocidade e eficiência, em economia de custos e prevenção de custos, em tempo de resposta aprimorado e maior qualidade e conformidade. Como uma das melhores práticas, ele recomendou as agências verificar sua experiência comercial com os grandes conjuntos de dados que encontrarão no governo.

“Estamos falando de petabytes e exabytes aqui, de dados estruturados e não estruturados”, disse Chaudhry. (Nota do editor: Um petabyte é igual a 1.000 terabytes.) “Pergunte também aos parceiros da indústria sobre suas estratégias e processos sobre como eles fazem análises de tendências macro e micro, e qual tem sido sua experiência na implantação de bots, como na Automação de Processos Robóticos, e como eles demonstram sustentabilidade como resultado do desvio de dados.”

Ele também pede aos potenciais parceiros da indústria que descrever o talento de IA em sua equipe ou qual talento eles podem acessar. Se a empresa for fraca em talentos de IA, Chaudhry perguntaria: “Se você comprar algo, como saberá que conseguiu o que queria quando não tem como avaliar?”

Ele acrescentou: “Uma prática recomendada na implementação de IA é definir como você treina sua força de trabalho para alavancar ferramentas, técnicas e práticas de IA, e definir como você desenvolve e amadurece sua força de trabalho. O acesso a talentos leva ao sucesso ou ao fracasso em projetos de IA, especialmente quando se trata de escalar um piloto para um sistema totalmente implantado.”

Em outra prática recomendada, Chaudhry recomendou examinar o parceiro da indústria acesso ao capital financeiro. “IA é um campo onde o fluxo de capital é altamente volátil. “Você não pode prever ou projetar que gastará X quantia de dólares este ano para chegar onde quer estar”, ele disse, porque uma equipe de desenvolvimento de IA pode precisar explorar outra hipótese, ou limpar alguns dados que podem não ser transparentes ou são potencialmente tendenciosos. “Se você não tem acesso a financiamento, é um risco que seu projeto fracasse”, ele disse.

Outra prática recomendada é acesso ao capital logístico como os dados que os sensores coletam para um sistema de IoT de IA. “A IA requer uma quantidade enorme de dados que sejam confiáveis ​​e oportunos. O acesso direto a esses dados é crítico”, disse Chaudhry. Ele recomendou que acordos de compartilhamento de dados sejam feitos com organizações relevantes para o sistema de IA. “Você pode não precisar deles imediatamente, mas ter acesso aos dados, para que você possa usá-los imediatamente e ter pensado nas questões de privacidade antes de precisar dos dados, é uma boa prática para dimensionar programas de IA”, disse ele.

Uma prática recomendada final é o planejamento de infraestrutura física, como espaço de data center. “Quando você está em um piloto, precisa saber quanta capacidade precisa reservar em seu data center e quantos pontos finais precisa gerenciar” quando o aplicativo é dimensionado, disse Chaudhry, acrescentando: “Tudo isso está vinculado ao acesso ao capital e a todas as outras melhores práticas.”

Saiba mais em Governo Mundial de IA.

Esse artigo é uma releitura de: www.aitrends.com

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Primeiros passos

com inteligência artificial, para compreender conceitos e utilização pratica no dia a dia com foco no marketing da sua empresa e relacionamento social!