A inteligência artificial generativa está transformando rapidamente o ambiente corporativo, trazendo oportunidades e desafios significativos. De acordo com um relatório recente do Gartner, 80% dos executivos consideram a segurança e o risco cibernético como suas principais preocupações ao adotar IA generativa em suas organizações. Com a crescente adoção desses modelos, executivos de médias empresas precisam entender os riscos associados ao uso dessa tecnologia para garantir sua conformidade regulatória, a exemplo da Lei Geral de Proteção de Dados Pessoais (LGPD), e proteger informações sensíveis.
O recente relatório do Instituto Nacional de Padrões e Tecnologia dos EUA (NIST) oferece um panorama essencial sobre os riscos e as boas práticas para a gestão dessa tecnologia emergente. Entre os principais pontos abordados estão a governança da IA, a segurança da informação e a integridade dos conteúdos gerados. O documento destaca a necessidade de mecanismos de monitoramento contínuo, feedback estruturado dos usuários e transparência na tomada de decisões baseadas em IA, garantindo um uso mais ético e confiável.
Segundo o NIST, os principais riscos da IA generativa são:
- Confabulação: geração de informações falsas ou imprecisas.
- Viés e discriminação: reforço de preconceitos existentes nos dados de treinamento.
- Segurança da informação: vulnerabilidades a ataques cibernéticos e vazamento de dados sensíveis.
- Desinformação: potencial para criação e disseminação de fake news em larga escala.
- Privacidade: uso indevido de dados pessoais sem consentimento adequado.
- Impactos no trabalho: substituição de funções humanas e mudanças estruturais no mercado de trabalho.
- Uso mal-intencionado: aplicação em fraudes, manipulação política e criação de conteúdos prejudiciais.
- Falta de transparência: dificuldade em compreender como os modelos geram determinados resultados.
Para executivos e gestores, algumas ações práticas podem ser implementadas de imediato. Primeiro, é fundamental estabelecer protocolos de verificação e rastreabilidade dos dados utilizados e gerados pela IA, minimizando riscos de viés e desinformação. Em segundo lugar, é recomendável investir em testes prévios, como o red-teaming, que avalia vulnerabilidades da IA, por hackers éticos, antes de seu lançamento. Além disso, o envolvimento de especialistas e a colaboração com comunidades impactadas pelos sistemas de IA são estratégias essenciais para melhorar a transparência e a responsabilidade corporativa. Também é importante adotar medidas de segurança no uso de ferramentas gratuitas de IA generativa, como o ChatGPT, incluindo evitar o compartilhamento de informações sensíveis, revisar e validar as respostas geradas antes de utilizá-las em contextos críticos e configurar níveis adequados de controle e permissões dentro da organização. Adotar essas práticas pode não apenas reduzir riscos, mas também consolidar a confiança e a competitividade da empresa em um mercado cada vez mais orientado por IA.
* Leandro Figueiredo, Centro de Inteligência em Médias Empresas da FDC