
O Manus, revelado pelo desenvolvedor chinês homônimo, afirma ter superado os modelos OpenAI em todos os três níveis de dificuldade no teste de benchmark GAIA (teste de desempenho de sistemas), que avalia assistentes gerais de IA em sua capacidade de resolver problemas do mundo real, de acordo com a revista Forbes.
Formato diferente
