Por outro lado, os cientistas descobriram que o GPT-3 falha em resolver tarefas simples para os seres humanos
O GPT-3, modelo de linguagem de IA (inteligência artificial) da OpenAI, tem desempenho semelhante ao de universitários quando confrontado com problemas de raciocínio que geralmente aparecem em testes de inteligência e exames padronizados, como o SAT (uma espécie de Enem dos EUA).
Para quem tem pressa:
- Em problemas de raciocínio típicos de testes de inteligência, o GPT-3, da OpenAI, e universitários têm desempenhos parecidos;
- No entanto, a IA da OpenAI falha em resolver tarefas simples para os seres humanos;
- Os pesquisadores querem investigar se esses modelos de IA estão realmente começando a pensar como os seres humanos.
É o que revelou uma pesquisa realizada por psicólogos da UCLA (Universidade da Califórnia), em Los Angeles (EUA). Os cientistas também descobriram que o GPT-3 falha em resolver tarefas simples para os seres humanos – por exemplo: como utilizar ferramentas para resolver uma tarefa física.
Experimento com GPT-3

Um experimento conduzido pelos pesquisadores envolveu pedir ao GPT-3 e a estudantes voluntários da UCLA que resolvessem analogias baseadas em histórias curtas. Eles tinham que identificar uma história diferente que transmitisse o mesmo significado.
Os estudantes tiveram um desempenho melhor do que o GPT-3 nessas tarefas. Mas a versão mais recente da tecnologia – o GPT-4 – superou o desempenho do GPT-3.
No entanto, a equipe de pesquisa da UCLA ressalta que o GPT-3 tem suas limitações e não consegue resolver problemas que exigem compreensão do espaço físico.
Além disso, a forma como o GPT-3 realiza seu raciocínio ainda é desconhecida, pois o acesso às suas operações internas é restrito pela OpenAI.
Próximos passos

Os pesquisadores agora estão interessados em descobrir se esses modelos de IA estão realmente começando a pensar como os seres humanos ou se estão realizando algo completamente diferente que apenas imita o pensamento humano.
Para isso, eles precisariam determinar os processos cognitivos subjacentes ao GPT-3, o que exigiria acesso ao software e aos dados utilizados para treiná-lo.
Esta seria a próxima etapa para decidir o que a inteligência artificial deve se tornar.
Os pesquisadores estão ansiosos para obter mais informações sobre o funcionamento interno dos modelos GPT, a fim de aprimorar sua compreensão e avaliar suas habilidades em relação a outras inteligências artificiais desenvolvidas comercialmente.
O estudo dos pesquisadores da UCLA foi publicado na revista Nature Human Behaviour.
Com informações de Universidade da Califórnia
Compartilhe:
- Clique para compartilhar no Facebook(abre em nova janela) Facebook
- Clique para compartilhar no LinkedIn(abre em nova janela) LinkedIn
- Clique para compartilhar no WhatsApp(abre em nova janela) WhatsApp
- Clique para compartilhar no Telegram(abre em nova janela) Telegram
- Clique para compartilhar no Tumblr(abre em nova janela) Tumblr
- Clique para compartilhar no Mastodon(abre em nova janela) Mastodon
- Clique para compartilhar no Reddit(abre em nova janela) Reddit
- Clique para compartilhar no X(abre em nova janela) 18+
- Mais
Relacionado
Descubra mais sobre Manaustime
Assine para receber nossas notícias mais recentes por e-mail.