O uso de IA na elaboração de pareceres técnicos na administração pública


O fato de um agente público assinar um parecer técnico elaborado por terceiro, neste caso usando IA, e assumindo a autoria, configuraria falsidade ideológica
A utilização de sistemas de Inteligência Artificial (IA) pela Administração Pública, embora destacáveis sob a ótica da eficiência administrativa, não pode ocorrer em um vácuo ético ou à revelia dos princípios que regem o Estado Democrático de Direito.
Certo é que no Brasil não dispomos de um marco legal específico, porém o uso de IA na tomada de decisões administrativas, pareceres técnicos, deve obediência direta e imediata à Constituição Federal de 1988 e à Lei de Acesso à Informação (lei nº 12.527/2011).
Como bem assevera o ministro Humberto Martins (STJ), o Estado moderno serve à sociedade sob um novo prisma de interesse público, onde a transparência não é apenas um acessório, mas a condição de validade da própria máquina estatal e do ato administrativo.
Quando um agente público utiliza IA para elaborar um parecer técnico e omite essa informação, ocorre uma violação ao Direito do administrado de ter pleno acesso à informação, uma vez que tanto a sociedade, como as partes interessadas têm o direito de conhecer a razão de decidir e, fundamentalmente, a “natureza” do emissor da lógica argumentativa do parecer técnico, que não seria o agente público, mas um algoritmo, no caso, oculto.
Vale lembrar que em regra geral um parecer técnico não é apenas um documento, é a justificativa ou fundamento pela qual o Estado lhe concede ou nega um direito ao cidadão.
Assim, a omissão impede o controle social sobre a origem e a própria natureza dos argumentos utilizados para fins do ato administrativo, ferindo a transparência em sua dimensão ética e funcional.
Veja-se que do ponto de vista administrativo e jurídico, o fato de um agente público assinar um parecer técnico elaborado por terceiro, neste caso usando IA, e assumindo a autoria, configuraria falsidade ideológica (artigo 299 do Código Penal) e violação grave dos deveres funcionais, enquadrando-se em diversas esferas de responsabilização.
Haveria violação de deveres funcionais, uma vez que o agente público falta com o dever de honestidade, imparcialidade e a obrigação de assinar apenas documentos cuja autoria seja sua ou devidamente creditada.
Nesse ponto temos que a assinatura de um parecer pelo agente público, elaborado por IA ocultando a verdadeira “autoria”, é indício claro de má-fé ou dolo.
E, a depender da intenção, a conduta pode se enquadrar na Lei de Improbidade Administrativa, por atentar contra os princípios da administração pública.
Pois bem, enquanto não temos uma lei específica que trate da matéria: aplicação de IA na elaboração de pareceres técnicos na Administração pública, o correto é não delegar a construção argumentativa e decisória à IA, pois o agente público tem a sua conduta controlada pela sociedade e as balizas da sua atuação estão bem estabelecidas nos seus deveres funcionais estabelecidos em lei.
Em síntese, se o Estado usa IA para fundamentar decisões que afetam a vida do cidadão, no atual estágio legal da matéria, esse ato (parecer técnico) é nulo, uma vez que o uso de IA não está sendo público, não é auditável e o parecer não está devidamente creditado.
(Obs. O presente texto passou por análise de algoritmos, para fins de testar os argumentos apresentados)
*/ ?>
