O ChatGPT passa em teste que mede “inteligência” em humanos

Compartilhe

O ChatGPT-4 é a primeira IA a passar no teste de Turing, conseguindo enganar os humanos em 54% dos casos.

A inteligência artificial (IA) passou no Teste de Turing, segundo pesquisadores da Universidade da Califórnia em San Diego.

Ao ser criado, na década de 1950, o pioneiro da computação Alan Turing detalhou que o teste estabelece que uma IA deve ser considerada verdadeiramente inteligente se as pessoas não conseguirem distinguir se estão conversando com um humano ou uma máquina.

Por isso, até hoje, ter um modelo de IA que passa o teste é considerado um grande objetivo. Os pesquisadores afirmam que o ChatGPT-4 se tornou a primeira IA a passar por esse famoso teste.

No estudo pré-publicado, os cientistas argumentam que o ChatGPT-4 é capaz de enganar os humanos mais da metade das vezes. Por outro lado, eles também pontuam que isso pode falar mais sobre o teste em si do que a IA moderna.

Turing criou o teste para avaliar a inteligência computacional. Ele propôs que, se um computador não pudesse ser diferenciado de um humano em conversas por texto sobre diversos tópicos, ele deveria ser considerado tão inteligente quanto um humano. 

Na pesquisa, 500 participantes que conversaram com quatro agentes diferentes: três IAs e um humano. Os modelos de inteligência artificial eram o ChatGPT-4, ChatGPT-3.5 e um programa de chat da década de 1960 chamado ELIZA.

Os participantes entraram num chat e foram informados que precisavam convencer a outra pessoa de que eram humanos ou descobrir com quem estavam falando. Depois, após uma conversa de cinco minutos, eram questionados sobre quem estava do outro lado da tela, uma pessoa ou IA, por que pensavam isso e o nível de confiança nessa resposta.

O estudo, que ainda precisa ser revisado por pares, aponta que o ELIZA enganou os participantes apenas 22% das vezes, enquanto o ChatGPT-3.5 passou despercebido em 50% das conversas. Já o ChatGPT-4 foi ainda melhor, alcançando 54%.

Ao Live Science, Nell Watson, pesquisadora de IA no Instituto de Engenheiros Elétricos e Eletrônicos (IEEE), disse: “Máquinas podem confabular, juntando justificativas plausíveis para coisas, como os humanos fazem”.

“Todos esses elementos significam que as falhas e peculiaridades humanas estão sendo expressas em sistemas de IA, o que os torna mais parecidos com humanos do que abordagens anteriores que tinham pouco mais do que uma lista de respostas prontas”, destacou.

No artigo, também há argumentos que criticam o teste de Turing por ser muito simplista em sua abordagem, afirmando que “fatores estilísticos e sócio-emocionais desempenham um papel maior na aprovação do teste de Turing do que noções tradicionais de inteligência”. 

“A inteligência bruta tem suas limitações. O que realmente importa é ser suficientemente inteligente para entender uma situação, as habilidades dos outros e ter empatia para conectar esses elementos”, diz o texto.

Você pode gostar...

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Skip to content