Pesquisadores usam agentes de IA em debate para reduzir erros em respostas

0
11


Pesquisadores chineses apresentaram um novo método para tornar respostas de modelos de linguagem mais confiáveis ao estimular debates estruturados entre agentes de IA.

Pesquisadores chineses apresentaram um novo método para tornar respostas de modelos de linguagem mais confiáveis ao estimular debates estruturados entre agentes de IA. A proposta busca enfrentar um dos principais desafios desses sistemas: a tendência de produzir respostas que parecem corretas, mas contêm erros factuais, contradições internas ou falhas lógicas — um problema que limita o uso da inteligência artificial em contextos educacionais e profissionais. As informações são do TechXplore.

Os chamados modelos de linguagem de grande escala (LLMs) já são amplamente usados para gerar textos, buscar informações e até programar aplicações. Apesar dos avanços recentes, eles ainda podem “alucinar” fatos ou apresentar raciocínios inconsistentes. Foi nesse cenário que pesquisadores da South China Agricultural University e da Shanghai University of Finance and Economics desenvolveram um novo framework para aprimorar o raciocínio matemático e a confiabilidade das respostas.

Debates entre agentes de IA para reduzir erros

O estudo, publicado no Journal of King Saud University Computer and Information Sciences, propõe um modelo em que múltiplos agentes de IA debatem entre si antes de chegar a uma resposta final. Em vez de depender de um único modelo, a abordagem cria um ambiente de discussão em que diferentes agentes apresentam soluções, questionam argumentos e apontam possíveis falhas.

Apesar dos avanços recentes, os LLMs ainda podem “alucinar” fatos ou apresentar raciocínios inconsistentes (Imagem: Summit Art Creations / Shutterstock)

Segundo os autores, métodos anteriores já haviam melhorado o desempenho dos LLMs com técnicas de prompting ou refinament

Fonte: Olhardigital





Fonte: TV Alagoas

LEAVE A REPLY

Please enter your comment!
Please enter your name here