close

Como a ciência deve lidar com a IA generativa

Popularização dos LLMs impõe desafios sobre como usar a nova linguagem e evitar erros e fraudes nos trabalhos

ia generativa © - Shutterstock
por Redação março 24, 2023
  • Inovação e transformação digital Mais informações
    Inovação e transformação digital

A chamada inteligência artificial (IA) generativa provavelmente revolucionará as práticas de pesquisa e publicação, criando oportunidades, mas também preocupações. Pesquisadores já usaram o ChatGPT e outros grandes modelos de linguagem para escrever ensaios e palestras, resumir literatura, redigir e melhorar artigos, bem como identificar lacunas de pesquisa e escrever código de computador. Em breve, essa tecnologia deve evoluir a ponto de poder projetar experimentos, escrever e concluir manuscritos e apoiar decisões editoriais para aceitar ou rejeitar manuscritos. Mas como garantir a correção, a qualidade do trabalho e, o mais grave, a sua lisura?

A questão abre um grande debate no meio acadêmico sobre como lidar com o recurso. Artigo publicado no site Nature afirma que o uso dessa tecnologia é inevitável e, portanto, bani-la não funcionará. A sugestão é que se criem formas de lidar com ela. 

Assinado pelos pesquisadores Eva A. M. van Dis, Johan Bollen, Willem Zuidema, Robert van Rooij e Claudi L. Bockting, o artigo sugere que a comunidade de pesquisa se envolva em um amplo debate sobre as implicações dessa tecnologia potencialmente disruptiva. O grupo elenca cinco questões principais para que esse debate seja iniciado.

A importância da verificação humana

É inegável que os LLMs (Large Language Model ou Grandes Modelos de Linguagem) funcionarão como aliados da pesquisa, ganhando aos poucos um peso cada vez maior em seu uso. Os LLMs levarão a uma nova geração de mecanismos de pesquisa capazes de produzir respostas detalhadas e informativas para perguntas complexas do usuário. Mas o uso da IA conversacional para pesquisas especializadas provavelmente introduzirá imprecisões, vieses e plágio, diz o artigo. 

Os autores do artigo apresentaram ao ChatGPT uma série de perguntas e tarefas que exigiam uma compreensão aprofundada da literatura e descobriram que em muitos casos geravam textos falsos e enganosos. Então, os pesquisadores que usam o ChatGPT correm o risco de serem enganados por informações falsas ou tendenciosas e de incorporá-las em seus artigos. “Revisores desatentos podem ser enganados para aceitar um artigo escrito por IA por sua prosa bonita e convincente”, dizem.

Os autores argumentam que os seres humanos, de alguma forma, devem sempre permanecer responsáveis pela prática científica. Ao usarem LLMs em seu trabalho, os acadêmicos precisam permanecer vigilantes. Os processos de verificação e checagem de fatos conduzidos por especialistas serão indispensáveis. Mesmo quando os LLMs são capazes de agilizar resumos, avaliações e revisões com precisão, publicações de alta qualidade podem decidir incluir uma etapa de verificação humana.

Regras de responsabilidade

ia generativa
© – Shutterstock

Os autores acreditam que, em vez de se envolver em uma corrida armamentista entre chatbots de IA e detectores de chatbots de IA,  a comunidade de pesquisa e os editores devem descobrir como usar LLMs com integridade, transparência e honestidade. 

As declarações de contribuição do autor e os agradecimentos em trabalhos de pesquisa devem indicar claramente, por exemplo, como a IA foi usada na preparação de manuscritos e análises. Eles também devem indicar quais LLMs foram usados. Isso alertará os editores e revisores para examinar os manuscritos com mais cuidado em busca de possíveis imprecisões e créditos de origem impróprios. Da mesma forma, os periódicos científicos devem ser transparentes sobre o uso de LLMs ao selecionar manuscritos enviados.

Investir em LLMs verdadeiramente abertos

Uma das questões preocupantes para a comunidade de pesquisa em relação aos LLMs é a falta de transparência em relação aos dados. Os conjuntos de treinamento subjacentes e LLMs para ChatGPT e seus predecessores não estão disponíveis publicamente, e as empresas de tecnologia podem ocultar o funcionamento interno de suas IAs de conversação. Isso dificulta a descoberta da origem ou das lacunas no conhecimento dos chatbots. 

Para combater essa falta de transparência, o desenvolvimento e a implementação da tecnologia de IA de código aberto devem ser priorizados. Organizações não comerciais, como universidades, geralmente carecem dos recursos para acompanhar o ritmo acelerado do desenvolvimento do LLM. 

Por isso, os autores do artigo defendem que organizações de financiamento científico, universidades, ongs, instalações de pesquisa governamentais e até  as Nações Unidas e gigantes da tecnologia façam investimentos em projetos sem fins lucrativos. Isso ajudará a desenvolver tecnologias avançadas de IA de código aberto transparentes e democraticamente controladas.

Abraçar os benefícios da IA generativa

São muitos os benefícios da IA conversacional, por isso aumentam seus atrativos, à medida que aumenta a carga de trabalho e a competição na academia. Os chatbots oferecem oportunidades para concluir tarefas rapidamente, desde estudantes de doutorado se esforçando para finalizar sua dissertação até pesquisadores que precisam de uma revisão rápida da literatura ou revisores sob pressão de tempo para enviar sua análise.

ia generativa
© – Shutterstock

Se os chatbots de IA generativa puderem ajudar nessas tarefas, os resultados poderão ser publicados mais rapidamente, liberando os acadêmicos para se concentrarem em novos projetos. Isso poderia acelerar significativamente a inovação e potencialmente levar a avanços em muitas disciplinas.

Os autores do artigo acreditam que essa tecnologia tem um enorme potencial, desde que os atuais problemas iniciais relacionados a viés, proveniência e imprecisões sejam resolvidos. É importante examinar e promover a validade e confiabilidade dos LLMs para que os pesquisadores saibam como usar a tecnologia criteriosamente.

Ampliar o debate sobre IA generativa

Os autores do artigo defendem duas iniciativas importantes para que a comunidade de pesquisa organize um debate urgente. A primeira é a recomendação de que todo grupo de pesquisa tenha imediatamente uma reunião para discutir e experimentar o ChatGPT. Os educadores devem conversar sobre seu uso e ética com os alunos. 

“Durante esta fase inicial, na ausência de quaisquer regras externas, é importante que os líderes de grupo e professores responsáveis determinem como usá-lo com honestidade, integridade e transparência, e cheguem a acordo sobre algumas regras de envolvimento”, defendem. Todos os colaboradores da pesquisa devem ser lembrados de que serão responsabilizados por seu trabalho, seja ele gerado com o ChatGPT ou não. “Todo autor deve ser responsável por verificar cuidadosamente os fatos de seu texto, resultados, dados, código e referências”.

A segunda iniciativa é a criação de um fórum internacional imediato e contínuo sobre o desenvolvimento e uso responsável de LLMs para pesquisa. Os pesquisadores sugerem a formação de uma cúpula incluindo cientistas de diferentes disciplinas, empresas de tecnologia, grandes financiadores de pesquisas, academias de ciências, editores, ONGs e especialistas jurídicos e de privacidade.




Os assuntos mais relevantes diretamente no seu e-mail

Inscreva-se na nossa newsletter