Ironia: alucinações em artigos da NeurIPS, principal conferência de AI
A GPTZero descobriu citações geradas por AI em artigos apresentados na prestigiosa conferência NeurIPS. Isso levanta questões sobre o impacto da AI na integrida

Na era da inteligência artificial generativa, nem mesmo as conferências científicas mais prestigiosas estão imunes a problemas. Uma pesquisa conduzida pela startup GPTZero identificou casos de "alucinações" — citações fictícias geradas por AI — em trabalhos científicos apresentados na NeurIPS, uma das principais conferências na área de inteligência artificial. A ironia da situação é evidente: a conferência dedicada aos avanços de ponta em AI tornou-se ela própria vítima de seus efeitos colaterais.
A GPTZero, empresa especializada na detecção de textos gerados por inteligência artificial, realizou uma análise do conjunto de artigos aceitos na NeurIPS. Os resultados foram alarmantes: em diversos trabalhos, foram encontradas referências a fontes inexistentes, aparentemente criadas por grandes modelos de linguagem (LLM). Isso coloca em dúvida não apenas a qualidade de artigos individuais, mas todo o sistema de revisão científica.
O problema das alucinações em LLM é bem conhecido. Modelos treinados em enormes volumes de dados às vezes "inventam" fatos ou citações para preencher lacunas em seus conhecimentos ou tornar o texto mais convincente. No contexto de trabalhos científicos, isso pode levar a consequências graves, minando a confiança nas pesquisas e dificultando a verificação dos resultados.
A descoberta de citações geradas por AI em artigos da NeurIPS levanta várias questões importantes. Em primeiro lugar, isso evidencia a necessidade de uma verificação mais rigorosa dos trabalhos científicos quanto ao uso de inteligência artificial. Os revisores devem ser mais atentos aos detalhes e conferir as fontes citadas. Em segundo lugar, isso destaca a importância do desenvolvimento de ferramentas para detecção de textos gerados por AI e sua implementação no processo de publicação científica.
Além disso, esse incidente nos faz refletir sobre o futuro das pesquisas científicas na era da AI. Por um lado, a inteligência artificial pode se tornar uma ferramenta poderosa para cientistas, ajudando-os a analisar dados, gerar hipóteses e escrever artigos. Por outro lado, é necessário considerar os riscos associados ao uso da AI e adotar medidas para prevenir abusos.
Em última análise, a descoberta de alucinações em artigos da NeurIPS é um sinal de alerta. Isso nos lembra de que a inteligência artificial é apenas uma ferramenta, e seu uso requer responsabilidade e pensamento crítico. A comunidade científica deve desenvolver regras e procedimentos claros para trabalhar com AI, a fim de garantir a qualidade e a confiabilidade das pesquisas científicas.