O professor Rainério Rodrigues Leite responde as perguntas mais relevantes associadas ao tema Melhores práticas de Inteligência Artificial para o Setor Público, envolvendo:
- IA generativa no setor público
- Governança de IA e ética
- Qualidade e estruturação de dados
- Conformidade com LGPD
- Capacitação de servidores
- Segurança da informação em IA
O IBGP recomenda uma visita à página do Curso Inteligência Artificial Generativa Aplicada ao Serviço Público: Fundamentos e Aplicações Práticas do Professor clicando da imagem abaixo.
O que diferencia a Inteligência Artificial tradicional da Inteligência Artificial generativa e por que essa distinção é relevante para o setor público?
A Inteligência Artificial tradicional é caracterizada pela capacidade de reconhecer padrões a partir de grandes volumes de dados. Seu uso é consolidado em tarefas como reconhecimento de voz, imagem, análise estatística e classificação de informações. Ela é eficaz em identificar tendências, prever comportamentos e automatizar processos repetitivos com alta acurácia.
Já a Inteligência Artificial generativa representa um salto qualitativo: além de reconhecer, ela cria. Essa IA é capaz de gerar conteúdos novos a partir de inputs simples, como textos, imagens, músicas, códigos de programação e vídeos. A diferença crucial está na capacidade criativa. Enquanto a IA tradicional responde com base em padrões pré-existentes, a IA generativa formula saídas novas e contextualizadas, com alto grau de sofisticação.
Para o setor público, essa distinção é estratégica. A IA tradicional é útil para tarefas rotineiras, mas a generativa pode ser aplicada para síntese de informações legais, elaboração de relatórios automatizados, apoio à tomada de decisão estratégica e diálogos inteligentes com cidadãos. Isso eleva a eficiência e amplia a qualidade dos serviços públicos. Contudo, essa inovação exige uma governança robusta, especialmente quanto ao controle de alucinações (erros), uso ético e proteção de dados sensíveis.
Quais são os riscos e cuidados necessários ao implementar IA generativa em instituições públicas?
A implementação de IA generativa em instituições públicas envolve benefícios significativos, mas também riscos que precisam ser cuidadosamente administrados. Um dos principais perigos é a alucinação — fenômeno em que a IA produz respostas incorretas, mas com aparência convincente. Isso é especialmente delicado em ambientes institucionais, onde decisões baseadas em informações erradas podem comprometer processos administrativos ou legais.
Outro risco está relacionado à exposição de dados sensíveis. Ao utilizar modelos públicos de IA, como ChatGPT ou outros LLMs, existe o perigo de que informações confidenciais da organização alimentem involuntariamente os bancos de dados da própria IA, gerando vulnerabilidades. Isso pode ocorrer quando servidores, por desconhecimento, inserem conteúdos sigilosos em ferramentas sem restrição de acesso.
Além disso, há a possibilidade de desinformação, dependência excessiva da tecnologia e uso não autorizado por parte dos servidores. Por isso, é fundamental estabelecer políticas institucionais claras, que orientem o uso seguro e responsável, inclusive delimitando quais informações podem ser processadas pelas IAs.
Capacitação é outro pilar essencial: servidores devem ser treinados para interpretar corretamente as respostas da IA, formular comandos adequados (prompt engineering) e reconhecer os limites da ferramenta. A tecnologia deve ser um suporte à tomada de decisão, nunca um substituto acrítico da análise humana.
Como a governança de TI pode apoiar a adoção estratégica da IA generativa no setor público?
A governança de TI exerce papel central na adoção segura e estratégica da Inteligência Artificial generativa no setor público. Ela não apenas define diretrizes técnicas, mas garante que a implementação da tecnologia esteja alinhada aos objetivos institucionais, respeitando a legislação, a ética e a eficiência administrativa.
Para isso, a governança de TI deve começar com o engajamento da alta gestão. A liderança precisa entender a relevância da IA e incluir sua adoção como parte do planejamento estratégico institucional. Quando a gestão não toma uma posição clara — nem proíbe, nem orienta — os riscos se multiplicam, pois o uso ocorre de forma difusa e sem controle.
Além disso, a governança de TI deve promover a formação de grupos multidisciplinares para discutir a aplicação da IA: profissionais de tecnologia, jurídico, comunicação, inovação, segurança da informação e capacitação precisam trabalhar de forma integrada. É esse conjunto de olhares que garante o uso equilibrado e assertivo da tecnologia.
Outro papel fundamental da governança está na estruturação de dados confiáveis e acessíveis, pois a IA depende de bases de dados organizadas. Também é responsabilidade da governança supervisionar a contratação segura de serviços na nuvem, o controle de acessos e a auditoria dos modelos utilizados.
Por que é essencial capacitar servidores públicos sobre Inteligência Artificial e quais competências devem ser desenvolvidas?
Capacitar servidores públicos em Inteligência Artificial (IA) deixou de ser uma opção e passou a ser uma necessidade estratégica. A velocidade com que a IA evolui, especialmente os modelos generativos, exige que os profissionais da administração pública estejam aptos não apenas a utilizar a tecnologia, mas também a compreendê-la criticamente.
A capacitação deve contemplar competências técnicas, estratégicas e éticas. No campo técnico, é essencial que os servidores saibam como interagir com ferramentas de IA — principalmente no uso da chamada “engenharia de prompt”, que é a formulação de comandos e perguntas capazes de gerar respostas mais precisas e úteis.
No plano estratégico, os servidores precisam desenvolver a habilidade de avaliar se uma ferramenta de IA se aplica a um determinado problema ou processo institucional. Isso implica mapear casos de uso, identificar gargalos operacionais e enxergar oportunidades de ganho de produtividade.
Já no campo ético, a formação deve abranger temas como privacidade de dados, transparência de algoritmos, riscos de viés algorítmico e limitações dos modelos generativos. A alfabetização ética é essencial para evitar o uso indevido ou acrítico dessas tecnologias.
Capacitar é, portanto, empoderar o servidor para que ele use a IA como um instrumento de inovação e melhoria contínua, sem abrir mão da responsabilidade institucional.
Como o Tribunal de Contas da União estruturou o uso de IA generativa e quais lições podem ser aproveitadas por outros órgãos?
O Tribunal de Contas da União (TCU) é um dos exemplos mais avançados na adoção estratégica da Inteligência Artificial generativa no setor público brasileiro. A instituição desenvolveu o ChatTCU, uma ferramenta baseada em IA generativa, treinada com sua própria base de normas, jurisprudência e serviços administrativos. Com isso, servidores podem consultar o acervo institucional por meio de linguagem natural, gerando resumos de peças processuais e facilitando a tomada de decisão.
O sucesso dessa iniciativa está fundamentado em alguns pilares replicáveis:
- Governança de dados: O TCU estruturou bases organizadas e seguras, com controle de acesso e garantia de integridade da informação. As respostas do ChatTCU são filtradas conforme o perfil do usuário e respeitam as permissões atribuídas.
- Diretrizes éticas claras: A instituição publicou um guia de uso ético e responsável da IA generativa, oferecendo segurança jurídica e técnica para seus servidores.
- Capacitação contínua: Foram ofertados cursos auto-instrucionais e presenciais sobre IA, com foco em uso prático e riscos associados. A organização também promove debates internos e workshops sobre inovação.
- Compartilhamento de soluções: O TCU disponibilizou seu código-fonte para mais de 70 instituições, fomentando a inovação colaborativa entre os entes públicos.
Esse exemplo mostra que, mesmo tecnologias complexas, podem ser implementadas com segurança e eficiência — desde que acompanhadas de planejamento, capacitação e ética.
Como a estruturação e qualidade dos dados impactam o sucesso da IA no setor público?
A estruturação e qualidade dos dados são fatores críticos para o sucesso da Inteligência Artificial (IA) na administração pública. Sem dados organizados, limpos e confiáveis, qualquer modelo de IA — especialmente os generativos — terá desempenho limitado e poderá produzir resultados equivocados, comprometendo decisões estratégicas.
No setor público, as bases de dados muitas vezes estão fragmentadas, duplicadas ou desatualizadas, o que impede análises consistentes. A IA funciona a partir de padrões extraídos dos dados: se esses padrões estiverem errados ou imprecisos, o resultado da análise ou da geração será igualmente falho. O princípio “garbage in, garbage out” (lixo entra, lixo sai) é especialmente verdadeiro nesse contexto.
Além disso, dados estruturados são essenciais para garantir governança da informação, rastreabilidade das decisões automatizadas e conformidade com legislações como a LGPD. Um chatbot que acessa dados desorganizados pode gerar respostas incorretas, reproduzir vieses ou violar a privacidade do cidadão.
Portanto, antes mesmo de investir em ferramentas sofisticadas de IA, os órgãos públicos devem priorizar o mapeamento, a padronização e a curadoria dos dados. Essa base sólida permitirá extrair valor real da tecnologia e reduzir riscos institucionais.
Quais são os principais benefícios estratégicos da IA para o setor público?
A Inteligência Artificial traz benefícios estratégicos significativos para o setor público, indo além da simples automação de tarefas. Quando usada com responsabilidade e planejamento, ela pode transformar a gestão pública em três eixos principais: eficiência, qualidade e inovação.
Em termos de eficiência, a IA permite otimizar fluxos de trabalho, reduzir tempo de resposta e liberar os servidores de tarefas repetitivas. Ferramentas como assistentes virtuais, geração automática de documentos e análise de grandes volumes de dados agilizam rotinas e diminuem a carga operacional.
No quesito qualidade, a IA proporciona maior acurácia nas decisões baseadas em dados. Ela identifica padrões ocultos em grandes volumes de informação, o que contribui para auditorias mais assertivas, diagnósticos mais rápidos e políticas públicas mais bem direcionadas.
Por fim, a IA é um vetor de inovação institucional. Ela promove novos modelos de atendimento ao cidadão, incentiva a cultura de dados e fortalece a capacidade de resposta do Estado. Além disso, a IA estimula a experimentação e a adoção de metodologias ágeis no serviço público, como encomendas tecnológicas e contratações voltadas à inovação.
Esses benefícios, contudo, só são alcançados com uma estrutura robusta de governança, capacitação contínua e políticas de uso responsáveis.
Como lidar com a resistência à adoção da IA por parte dos servidores públicos?
A resistência à adoção da IA é um fenômeno comum e compreensível, especialmente em ambientes públicos onde mudanças costumam ser graduais. Essa resistência pode se manifestar por medo de substituição, insegurança técnica ou desinformação sobre a tecnologia.
Para superar esses desafios, o primeiro passo é promover a transparência no processo de adoção. Os servidores precisam entender que a IA não vem para substituir, mas para ampliar as capacidades humanas, automatizando tarefas repetitivas e abrindo espaço para trabalhos mais analíticos e estratégicos.
Outra ação fundamental é a capacitação contínua, com programas de formação acessíveis, adaptados aos diferentes níveis de conhecimento técnico. Workshops, cursos introdutórios e oficinas práticas ajudam a desmistificar a IA e empoderar os profissionais.
Além disso, é essencial criar ambientes seguros de experimentação. Ao permitir que os servidores testem ferramentas em contextos controlados, os gestores promovem o aprendizado coletivo e diminuem o receio do erro.
Por fim, envolver os servidores no processo de construção das soluções — desde o mapeamento de problemas até a definição de requisitos — gera pertencimento, legitima a mudança e aumenta a aceitação institucional. A IA deve ser apresentada como um recurso de apoio, e não como uma ameaça.
Como o uso de IA pode promover maior transparência e controle na administração pública?
A Inteligência Artificial pode se tornar um dos maiores aliados da transparência e do controle institucional, desde que seja implementada com responsabilidade. Seu principal valor nesse campo é a capacidade de extrair, organizar e disponibilizar informações públicas de forma acessível, em tempo real e com alto grau de precisão.
Por meio da IA, é possível criar painéis inteligentes que cruzam dados de compras públicas, contratos, despesas e processos administrativos, facilitando o trabalho de auditoria e controle interno. Essas ferramentas permitem identificar padrões suspeitos, inconsistências contábeis ou práticas irregulares com mais rapidez.
Além disso, a IA pode ser utilizada para democratizar o acesso à informação. Chatbots integrados a bases legais e normativas, como o ChatTCU, podem facilitar a compreensão de legislações complexas por parte dos cidadãos. Isso aumenta a transparência e melhora o controle social sobre as ações governamentais.
Outro aspecto importante é o monitoramento automatizado de indicadores de desempenho, que permite avaliar políticas públicas em tempo real e ajustar rumos com base em evidências. Isso reforça a accountability institucional e torna a gestão mais responsiva.
Entretanto, o uso da IA exige supervisão humana e auditoria dos algoritmos, para evitar erros, vieses e decisões não explicáveis.
Quais são os principais desafios técnicos para o uso da IA no setor público?
Os desafios técnicos para adoção da IA no setor público são numerosos e interdependentes. O primeiro obstáculo é a infraestrutura tecnológica inadequada. Muitos órgãos ainda não operam em ambiente de nuvem, o que impede a integração com modelos avançados de IA que exigem comunicação em tempo real com servidores externos.
Outro desafio é a ausência de dados estruturados e confiáveis. Sem bases organizadas, não há como treinar modelos de IA com segurança e precisão. A carência de repositórios centralizados, interoperáveis e atualizados limita severamente a qualidade das análises.
A escassez de profissionais especializados também é uma barreira. Desenvolver, implementar e auditar sistemas de IA exige conhecimentos em ciência de dados, engenharia de software, segurança da informação e direito digital — competências ainda restritas no serviço público.
Há ainda o desafio da segurança da informação e privacidade de dados. A manipulação de grandes volumes de informação requer mecanismos de criptografia, autenticação e controle de acesso altamente rigorosos, o que nem sempre está disponível nos órgãos.
Por fim, faltam marcos legais claros sobre o uso da IA no setor público. A ausência de regulamentações específicas gera insegurança jurídica, o que pode inibir iniciativas inovadoras.
Como o setor público pode utilizar IA sem comprometer a segurança da informação?
A segurança da informação é um dos pilares fundamentais para o uso responsável de Inteligência Artificial (IA) no setor público. Como os modelos de IA processam dados sensíveis, é essencial garantir que a confidencialidade, a integridade e a disponibilidade dessas informações estejam protegidas em todas as etapas do processo.
Uma das primeiras medidas é a adoção de ambientes tecnológicos controlados. Ferramentas de IA devem ser implementadas em estruturas seguras, preferencialmente com autenticação por múltiplos fatores, criptografia ponta a ponta e segregação de dados conforme o perfil do usuário.
Além disso, é indispensável realizar controle rigoroso de acesso. Somente servidores autorizados devem ter permissão para consultar determinados dados, e cada acesso deve ser registrado para fins de auditoria.
Outro ponto crítico é o uso de modelos fechados e privados. Sempre que possível, os órgãos devem optar por IAs hospedadas internamente ou contratadas com garantias contratuais de sigilo — evitando plataformas públicas que utilizam os dados para treinamento posterior.
A sensibilização dos servidores também é vital. Muitos riscos de segurança decorrem de práticas inadvertidas, como copiar informações sensíveis para sistemas abertos. Políticas claras de uso, treinamento contínuo e supervisão ativa reduzem esses riscos.
O que são os “agentes de IA” e qual seu potencial na automação de tarefas públicas?
Agentes de IA são sistemas que combinam capacidades autônomas de decisão com fluxos automatizados, permitindo que tarefas complexas sejam executadas de forma quase independente, com mínima intervenção humana. São a evolução do que hoje conhecemos como chatbots: ao invés de apenas responder a perguntas, os agentes tomam decisões, interagem com diversos sistemas e produzem entregas completas.
No setor público, esses agentes têm enorme potencial. Um exemplo citado no podcast é o desenvolvimento de agentes especializados em auditoria: um agente pode planejar a auditoria, outro gerar relatórios, outro fazer a triagem de denúncias, e outro ainda analisar entrevistas. Isso acelera a produção, reduz erros humanos e libera os auditores para atividades de análise crítica.
Os agentes de IA são especialmente úteis em tarefas repetitivas, mas que exigem precisão e volume: triagem de processos, produção de minutas, consolidação de dados e relatórios, atendimento a consultas internas e externas.
Contudo, para que isso funcione, é necessário desenhar fluxos de trabalho, estruturar bancos de dados confiáveis e, principalmente, garantir governança e supervisão humana. A automação inteligente só gera valor se for acompanhada de responsabilidade e transparência.
Como o setor público pode iniciar o uso da IA mesmo sem estrutura completa?
Mesmo sem uma estrutura tecnológica sofisticada, os órgãos públicos podem iniciar sua jornada com IA adotando projetos-piloto escaláveis, voltados a problemas reais e com soluções acessíveis.
O primeiro passo é avaliar os dados disponíveis. Se houver um banco de dados minimamente organizado — por exemplo, informações normativas, contratuais ou de atendimento ao cidadão — já é possível testar uma aplicação simples, como um assistente virtual interno para consultas.
Outra alternativa viável é a contratação de soluções de IA como serviço, por meio de provedores que ofereçam segurança e personalização. Plataformas como o Azure (Microsoft), AWS (Amazon) e Google Cloud oferecem integrações com modelos de IA generativa sob controle institucional.
Também é recomendável buscar parcerias com universidades, startups e centros de pesquisa, que podem contribuir com conhecimento técnico e inovação.
É essencial começar com um caso de uso bem delimitado, com objetivos claros e mensuráveis. Com os aprendizados do piloto, o órgão pode evoluir gradualmente sua estrutura, capacitar seus times e escalar as soluções para outras áreas.
Qual a importância das políticas públicas voltadas à IA no contexto brasileiro?
A formulação de políticas públicas voltadas à IA é essencial para que o Brasil avance de forma estruturada, segura e competitiva nesse campo estratégico. Atualmente, o país ocupa posições intermediárias em rankings internacionais de maturidade em IA, como o Global AI Index. Sem políticas claras, esse cenário dificilmente se transformará.
Essas políticas devem garantir investimentos contínuos em pesquisa, infraestrutura tecnológica, formação de talentos e estímulo à inovação aberta, inclusive no setor público. Devem também regulamentar o uso ético da tecnologia, com foco na transparência algorítmica, proteção de dados e responsabilidade institucional.
A criação de centros de excelência em IA, fomento a contratações públicas inovadoras e critérios de interoperabilidade entre sistemas também são estratégias cruciais.
Para o setor público, essas políticas devem incluir a padronização de requisitos mínimos para segurança, privacidade e explicabilidade de sistemas de IA. Além disso, é fundamental incentivar a colaboração entre entes federativos, tribunais de contas, universidades e a sociedade civil.
Uma política pública de IA não é apenas uma diretriz técnica: é uma ferramenta de soberania, desenvolvimento econômico e fortalecimento institucional.
Como o compartilhamento de experiências pode acelerar a adoção da IA no setor público?
O compartilhamento de experiências é um dos fatores mais poderosos para acelerar a adoção eficaz da Inteligência Artificial no setor público. Quando órgãos públicos divulgam suas práticas, aprendizados, erros e soluções, promovem um ambiente de inteligência coletiva e inovação colaborativa.
Exemplos como o do TCU, que compartilhou o código-fonte do ChatTCU com mais de 70 instituições públicas, ilustram esse poder de multiplicação. Códigos reutilizáveis, guias de boas práticas, tutoriais e cases de sucesso funcionam como atalhos para outros órgãos que desejam iniciar projetos de IA, mas ainda não têm estrutura robusta.
Esse compartilhamento evita a reinvenção da roda, reduz custos, diminui os riscos e fortalece a cultura de governança digital no setor público. Além disso, promove padronizações técnicas, cria redes de apoio entre técnicos e gestores, e acelera o amadurecimento institucional em torno da tecnologia.
Espaços como fóruns interinstitucionais, eventos técnicos, comunidades online e ambientes colaborativos são ideais para fomentar essa troca. Ao adotar uma lógica de “código aberto” para políticas, processos e soluções, o setor público avança mais rápido, com mais segurança e em benefício de toda a sociedade.

Professor Rainério Rodrigues Leite
Engenheiro Civil e Bacharel em Direito, com especialização em Direito Administrativo e Gestão Pública. Atua desde 1994 como Auditor Federal de Controle Externo do Tribunal de Contas da União (TCU), onde tem desempenhado diversas funções de liderança estratégica desde 1995. Atualmente, lidera a Secretaria de Tecnologia da Informação e Evolução Digital. Foi um dos idealizadores do ChatTCU, o primeiro chatbot baseado em IA Generativa desenvolvido por um órgão público no Brasil, e liderou a implantação, estruturação e disseminação do uso dessa tecnologia no TCU.