Ascensão da IA generativa preocupa líderes de compliance e privacidade

Ascensão da IA generativa preocupa líderes de compliance e privacidade

Confira quais são as quatro áreas principais que os líderes jurídicos, de compliance e de privacidade precisam abordar em relação à IA generativa

O Gartner destaca que a adoção rápida de Inteligência Artificial Generativa (GenAI) é a principal preocupação indicada por 70% dos líderes jurídicos, de compliance e de privacidade para os próximos dois anos. O resultado foi obtido em pesquisa realizada em setembro de 2023 com 179 líderes dessas áreas. 

“O aumento na capacidade e na usabilidade tem impulsionado a adoção rápida e generalizada da GenAI pelas empresas”, diz Stuart Strome, Diretor de Pesquisas para as áreas Jurídica, de Risco e de Compliance do Gartner. “No entanto, enquanto a regulamentação da Inteligência Artificial ainda está sendo desenvolvida, há diversas incertezas e riscos imprevisíveis. As empresas terão que lidar com esses desafios para garantir o uso ético e legal dessa nova e poderosa tecnologia.” 

Inteligência Artificial Generativa preocupa líderes de compliance e privacidade

Os especialistas do Gartner identificam quatro áreas principais que os líderes jurídicos, de compliance e de privacidade precisam abordar: 

  • Visibilidade Limitada em Relação a Riscos: A facilidade de adoção, a aplicabilidade generalizada e a capacidade das ferramentas GenAI de realizar diversas tarefas fazem com que as equipes de garantia tenham visibilidade limitada sobre novos riscos. “Os novos processos para detectar e gerenciar esses riscos levarão tempo para serem implementados, deixando as empresas expostas no interim”, diz o analista do Gartner. Strome destacou que “os líderes jurídicos devem adaptar práticas de monitoramento e gerenciamento de riscos já estabelecidas e amplamente distribuídas até que novos processos possam ser implementados. Por exemplo, eles podem modificar inventários de dados e registros de atividades de processamento de avaliações de impacto de privacidade para rastrear o uso da GenAI.” 
  • Falta de Clareza dos Funcionários sobre o Uso Aceitável: Os funcionários enfrentarão a falta de clareza sobre o que constitui o uso aceitável da tecnologia devido à falta de familiaridade com as regras que a governam. Os líderes jurídicos devem trabalhar para construir consenso sobre resultados a serem evitados e instituir controles para minimizar eventuais problemas com esses resultados, ao mesmo tempo em que promovem casos de uso aceitáveis, com políticas e orientações. “Os líderes jurídicos precisam instituir uma revisão humana obrigatória da produção da GenAI e proibir a inserção de propriedade intelectual ou de informações confidenciais da empresa em ferramentas públicas, como o ChatGPT, além de desenvolver políticas que exijam uma clara indicação da origem da GenAI em qualquer produção voltada para o público”, diz Strome. “É importante incluir exemplos do mundo real de uso proibido e aceitável da GenAI nas orientações e alertar os funcionários quando as políticas forem atualizadas. Além disso, deve-se considerar trabalhar com a equipe de TI para desenvolver e incorporar controles, como pop-ups em ferramentas GenAI que exigem aos usuários declarar que não estão usando as ferramentas para as situações proibidas.” 
  • Necessidade de Governança de Inteligência Artificial: À medida que as ferramentas de GenAI se tornam rapidamente mais comuns, a falta de responsabilidade pelos resultados negativos pode criar riscos legais e de privacidade inaceitáveis. No entanto, para a maioria das empresas, a governança de IA não se encaixará facilmente nas estruturas empresariais funcionais existentes, e a expertise necessária pode estar dispersa por toda a empresa ou até mesmo não existir. Os líderes jurídicos precisam documentar claramente papéis e responsabilidades para aprovações, gestão de políticas, gestão de riscos e treinamentos para uso das tecnologias. “Os líderes jurídicos devem advogar pela criação de um comitê de direção interfuncional, ou pela modificação do mandato de um comitê existente, para estabelecer princípios e padrões de uso, alinhando papéis e responsabilidades relacionados à governança da Inteligência Artificial”, diz Strome. 
  • Novas Oportunidades para Escalar Tarefas Jurídicas Repetitivas: A capacidade da GenAI de produzir saída em linguagem natural pode ser aplicada a várias aplicações departamentais para equipes jurídicas. Isso tem o potencial de minimizar o tempo que os advogados gastam em trabalhos de baixo valor. Embora as ferramentas GenAI tenham o potencial de ajudar em tarefas demoradas e repetitivas, como realizar pesquisas jurídicas, redigir contratos e produzir resumos de legislação, sua produção muitas vezes inclui erros. Os líderes jurídicos devem garantir que a produção seja revisada quanto à precisão e desenvolver um programa piloto interno para testar a automação ou aprimoramento da GenAI para tarefas repetitivas de baixo risco que envolvam a produção de entregas por escrito. Eles também precisam comparar os resultados dos projetos-piloto em termos de tempo gasto e qualidade da produção com o trabalho produzido de maneira convencional. 

“Dada a facilidade de uso e a flexibilidade de aplicação da GenAI para empresas, não é surpresa que a adoção rápida da tecnologia seja o risco de maior impacto para os líderes jurídicos. No entanto, os líderes jurídicos não devem simplesmente reagir instituindo políticas severas que restrinjam seu uso”, diz Strome.  

“Essa abordagem provavelmente impactará a competitividade de suas empresas e incentivará os funcionários a usarem ilicitamente ferramentas de GenAI em seus dispositivos pessoais. Os executivos jurídicos progressistas reconhecem que a GenAI pode gerar valor, e estão trabalhando com outros líderes de suas organizações para desenvolverem governança e políticas que orientem os funcionários e parceiros de negócios em direção a casos de uso de alto benefício e baixo risco”, finaliza Stuart Strome. 

Fonte: TI Inside 

Leia também: 4 formas que a Inteligência Artificial vai transformar a TI em 2024

Deixe um comentário

Seu endereço de e-mail não será publicado. Campos obrigatórios estão marcados *

Postar Comentário

Recentes