Um estudo recente realizado por pesquisadores da Universidade de Reading, na Inglaterra, trouxe à tona uma questão intrigante para o universo educacional: os professores conseguem identificar respostas geradas por inteligência artificial (IA) em provas? Para responder a essa pergunta, os cientistas utilizaram o modelo avançado de linguagem GPT-4, que alimenta o ChatGPT, em um teste prático.
Os pesquisadores criaram identidades fictícias de alunos e submeteram uma prova online com respostas geradas pelo ChatGPT. Sem informar os professores sobre a origem das respostas, o experimento visava avaliar a capacidade dos docentes em distinguir o trabalho humano do produzido por IA.
Dos 33 itens avaliados, apenas uma resposta foi corretamente identificada como sendo gerada por IA pelos professores. Além disso, as notas atribuídas aos “alunos” fictícios foram superiores à média das notas dos alunos reais. Este resultado foi publicado na Plos na semana passada, destacando que o ChatGPT conseguiu passar pelo “Teste de Turing” da prova, ou seja, não foi detectado por avaliadores experientes.
Os pesquisadores enfatizaram a importância de investigar a habilidade dos professores em detectar respostas geradas por IA, alertando que ferramentas como o ChatGPT já estão impactando os sistemas de ensino e avaliação. Eles ressaltaram que isso não significa um retorno às provas manuscritas, mas sim uma necessidade de adaptação do setor educacional diante das novas tecnologias.
Em uma provocação final, os cientistas mencionaram que o artigo descrevendo o experimento foi escrito por humanos. No entanto, se tivesse sido escrito por uma IA, será que alguém notaria a diferença?