MENU



 

Desde que o ChatGPT foi lançado, estudiosos debatem sobre as oportunidades, benefícios e riscos apresentados pela inteligência artificial (IA). Esse debate fica ainda mais delicado no setor público. A IA traz grande potencial de melhorar os serviços públicos, mas também causa preocupações no aspecto de segurança, responsabilidade e ética.

 

Entretanto, as tecnologias de IA já são realidades em alguns governos e os gestores públicos precisam saber lidar com seus potenciais riscos. Recentemente, o governo de Cingapura[1] lançou um conjunto de ferramentas de produtividade para o serviço público, chamado de Pair[2], que pode ajudar na escrita e na codificação, utilizando Modelos de Linguagem de Grande Escala (Large Language Models ou LLMs) igual ao ChatGPT. Vale ressaltar que esse software vem com medidas de segurança reforçadas, para garantir que informações confidenciais possam ser inseridas sem retenção de dados. Situação semelhante ocorreu na China[3], onde a empresa Baidu criou junto com o governo chinês uma IA totalmente disponível ao público local. Essa tecnologia chinesa, chamada ERNIE Bot[4], foi regulamentada e será utilizada no serviço público do país.

 

Outros países também discutem o uso adequado do ChatGPT, IA mais conhecida atualmente, por meio de regulamentações. Na Austrália[5], um projeto de regulamentação está tramitando no órgão científico do país. Na União Europeia[6], discute-se um projeto de lei nesse sentido. Israel[7] publicou um projeto de política de IA e está coletando feedback do público antes de uma decisão final. No início de 2023, a Itália[8], até mesmo, suspendeu o uso do ChatGPT por um suposto recolhimento de informações pessoais de maneira ilegal. Após um mês, o ChatGPT voltou a ser liberado no país, em razão da OpenAI, empresa criadora da tecnologia, atualizar suas políticas de privacidade.

 

Portanto, é primordial entender os riscos envolvidos nas tecnologias de IA, para um uso mais eficaz de seus benefícios no setor público. Os principais riscos a serem considerados são:

 

  1. Viés e discriminação: modelos de IA podem absorver preconceitos dos dados usados para treiná-los, levando a respostas injustas para diferentes grupos de pessoas.
  2. Privacidade e segurança de dados: coletar e guardar dados pessoais para alimentar IA levanta preocupações sobre proteção de privacidade e segurança; é crucial proteger os dados dos cidadãos.
  3. Falhas na compreensão: modelos de IA podem não entender perguntas corretamente ou fornecer respostas incorretas, causando confusão e informações erradas.
  4. Dependência tecnológica: contar demais com IA em tarefas críticas no governo pode tornar uma organização vulnerável a problemas técnicos e interrupções.
  5. Falta de transparência: modelos de IA são frequentemente "caixas-pretas", tornando difícil entender como chegam a certas respostas, o que dificulta responsabilização e transparência.
  6. Treinamento e manutenção: manter modelos de IA atualizados e precisos requer investimentos contínuos em pessoal e recursos.
  7. Aceitação pública: cidadãos podem se preocupar com a automação de serviços governamentais e a substituição de funcionários por IA, afetando a aceitação pública dessas tecnologias.
  8. Responsabilidade legal: em casos de erros ou decisões incorretas baseadas em IA, questões de responsabilidade legal surgem sobre quem é responsável pelas consequências.
  9. Falta de acesso justo: nem todos os cidadãos têm igual acesso à tecnologia, criando disparidades no acesso aos serviços governamentais.
  10. Manipulação maliciosa: sistemas de IA podem ser alvos de manipulação maliciosa, como disseminação de desinformação ou exploração de vulnerabilidades.

 

Para reduzir esses riscos no setor público, é crucial os responsáveis por essas novas soluções (i) ofereçam mecanismos de revisão de dados de treinamento para eliminar vieses, (ii) garantam transparência na implementação da IA, (iii) protejamos dados inseridos na tecnologia, (iv) capacitem e treinem funcionários, e (v) supervisionem continuamente os sistemas de IA. Além disso, considera-se fundamental envolver a sociedade civil e especialistas em ética da IA na criação de políticas responsáveis para seu uso.

 

 

[1] https://www.businesstimes.com.sg/startups-tech/startups/singapore-developing-software-chatgpt-features-public-sector

[2] https://www.open.gov.sg/products/pair/

[3] https://www.aljazeera.com/economy/2023/8/31/chinas-baidu-rolls-out-chatgpt-rival-ernie-to-public

[4] http://research.baidu.com/Blog/index-view?id=183

[5] https://www.euronews.com/next/2023/09/11/which-countries-are-trying-to-regulate-artificial-intelligence

[6] https://www.euronews.com/next/2023/09/11/which-countries-are-trying-to-regulate-artificial-intelligence

[7] https://www.euronews.com/next/2023/09/11/which-countries-are-trying-to-regulate-artificial-intelligence

[8] https://tecnoblog.net/noticias/2023/04/28/chatgpt-volta-a-funcionar-na-italia-apos-atender-mudar-politicas-de-privacidade/