Entendendo as ‘Alucinações’ de IA Generativa
As ‘alucinações’ de IA generativa ocorrem quando um sistema de inteligência artificial não sabe a resposta para uma pergunta e, em vez de admitir a incerteza, inventa uma resposta incorreta. Esse fenômeno pode ser particularmente problemático em áreas críticas como saúde e direito, onde a precisão da informação é crucial.
O Estudo da Universidade de Oxford
Pesquisadores da Universidade de Oxford desenvolveram um novo método para ajudar os usuários a identificar quando a IA generativa pode estar ‘alucinando’. O estudo produziu um modelo estatístico capaz de detectar perguntas que provavelmente resultarão em respostas incorretas. Este avanço é significativo, pois os modelos generativos de IA podem, às vezes, apresentar informações falsas como se fossem fatos.
Como Detectar e Evitar Alucinações de IA
O novo método descrito pelos pesquisadores de Oxford pode distinguir entre quando um modelo está certo ou apenas inventando algo. Segundo o Dr. Sebastian Farquhar, autor do estudo, os LLMs (modelos de linguagem de grande escala) são capazes de expressar a mesma informação de várias formas, o que pode dificultar a identificação de sua confiança na resposta. Com a nova abordagem, é possível superar essa limitação.
Desafios e Próximos Passos
No entanto, ainda há desafios a serem enfrentados. A incerteza semântica ajuda com problemas específicos de confiabilidade, mas não é uma solução completa. Erros consistentes em LLMs não são detectados por este método, e as falhas mais perigosas ocorrem quando um sistema comete um erro de forma confiante e sistemática. Portanto, ainda há muito trabalho a ser feito para melhorar a confiabilidade dos modelos de IA.