close

Inteligência artificial necessita de regulamentação

Estudiosos apontam regulação e implantação mais lenta de recursos da IA como maneiras de mitigar riscos de mau uso das ferramentas

ia regulamentacao © - Shutterstock
por Redação 26 de julho, 2023
  • Inovação e transformação digital Mais informações
    Inovação e transformação digital

A regulamentação pelos governos e a implementação um pouco mais lenta dos avanços da Inteligência Artificial podem ser um caminho para evitar o mau uso – intencional ou não – da IA. O professor de economia do Massachusetts Institute of Technology (MIT), Daron Acemoglu, e o estudante de pós-graduação da mesma instituição, Todd Lensman, produziram o que chamam de primeiro modelo econômico de como regular tecnologias transformadoras.

A conclusão provisória dos estudiosos é de que a implantação mais lenta dos recursos de IA, provavelmente, é a melhor forma de conduzir os avanços, e que uma taxa de “aprendizado de máquina” combinada com restrições específicas do setor sobre o uso da tecnologia poderia fornecer os melhores resultados possíveis.

O próprio fundador e CEO da OpenAl, empresa criadora do ChatGPT, Sam Altman, defende a regulamentação, conforme publicado em reportagem no site QUARTZ.

Leia também:

Como a Inteligência Artificial afeta os negócios?

“Acreditamos que a intervenção regulatória dos governos será fundamental para mitigar os riscos de modelos cada vez mais poderosos”, disse Sam Altman a legisladores dos EUA, em junho. Uma pesquisa de 2022 com especialistas em IA produziu uma estimativa mediana de “desastre existencial” em 10%. E há muitos exemplos de riscos de uso de ferramentas de IA que ainda são problemas, desde advogados citando casos falsos até meios de comunicação publicando histórias imprecisas.

Risco de mau uso de tecnologias

ia regulamentacao
© – Shutterstock

Os autores esboçam algumas suposições sobre o que chamam de tecnologia transformadora: ela pode aumentar a produtividade em qualquer setor em que for usada, mas também pode ser mal utilizada (intencionalmente ou não) para criar um desastre. Por isso, argumentam que a melhor maneira de usar uma nova tecnologia transformadora é de forma lenta, pois isso permite um maior aprendizado sobre seus potenciais benefícios e riscos. “À medida que esses riscos forem melhor compreendidos, a nova tecnologia poderá ser implementada em toda a economia”, diz a reportagem.

Leia também:

Por quê a inteligência artificial não competirá com humanos?

“Queremos aprender isso antes que a IA seja usada em todos os setores da economia. E algum tipo de regulamentação é necessária, porque as empresas privadas arcam apenas com alguns dos custos do uso indevido da IA ​​e, portanto, têm um incentivo para adotá-la mais rapidamente do que é socialmente ideal”, dizem os autores do estudo.

Os economistas do MIT consideram a criação de esquemas fiscais, mas reconhecem que podem ser ineficazes. Eles sugerem que um caminho viável seria combinar algum tipo de imposto sobre tecnologias transformadoras, com regras limitando-as a setores específicos, nos quais o risco de adoção é baixo. Essa abordagem semelhante a um sandbox regulatório, segundo os especialistas, pode desacelerar a adoção do “aprendizado de máquina por setores de alto risco” .

Tyler Cowen, economista da Universidade George Mason, levantou outros raciocínios que podem confrontar as conclusões do estudo. Um é a possibilidade de nações rivais dos EUA – leia-se: China – desenvolverem uma IA menos segura ou mais ameaçadora. Esse é um argumento frequentemente citado pelos defensores da aceleração da adoção da IA. A implicação é que precisamos usar a IA de maneiras arriscadas – em sistemas de armas, por exemplo – ou então Pequim o fará primeiro, mesmo que a evidência sugira que o “aprendizado de máquina” chinês pode não estar próximo de tal atividade.






Os assuntos mais relevantes diretamente no seu e-mail

Inscreva-se na nossa newsletter