Pesquisadores de Cambridge demonstram que inteligência artificial comete "erros humanos" ao tentar resolver desafio geométrico de Platão
Por Redação OlhoGlobal
Um estudo pioneiro conduzido por pesquisadores da Universidade de Cambridge revelou uma limitação surpreendente do ChatGPT: a incapacidade de resolver adequadamente o problema da "duplicação do quadrado", um desafio matemático formulado por Platão há mais de 2.400 anos.
Os resultados, publicados no International Journal of Mathematics Education in Science and Technology, oferecem insights importantes sobre o funcionamento e as limitações dos modelos de linguagem de grande escala (LLMs).
O Experimento: Platão Encontra a IA Moderna
O problema da quadratura, também conhecido como "duplicar o quadrado", é um dos clássicos desafios geométricos da Grécia Antiga. Descrito por Platão por volta de 385 a.C. no diálogo "Mênon", o problema consiste em construir um quadrado com área exatamente duas vezes maior que um quadrado dado, utilizando apenas régua e compasso.
Os pesquisadores de Cambridge submeteram este desafio ao ChatGPT com o objetivo específico de compreender como a inteligência artificial abordaria um problema matemático clássico: utilizaria seu conhecimento prévio para reproduzir a solução socrática conhecida, ou desenvolveria uma abordagem original?
Resultados Inesperados: IA "Improvisa" Como um Estudante
Contrariamente às expectativas, o ChatGPT não simplesmente reproduziu a solução clássica armazenada em sua base de dados. Em vez disso, demonstrou um comportamento que os pesquisadores descreveram como "distintamente humano" em sua natureza improvisada.
A IA optou por uma abordagem algébrica moderna - um método matemático que não existia na época de Platão. Mais revelador ainda, cometeu erros no processo, comportando-se mais como um estudante tentando resolver o problema pela primeira vez do que como um sistema que simplesmente recupera informações pré-existentes.
Implicações para a Compreensão dos LLMs
Limitações dos Modelos de Linguagem
O estudo revela aspectos fundamentais sobre como funcionam os modelos de linguagem de grande escala. Embora o ChatGPT tenha demonstrado conhecimento profundo da obra de Platão e dos conceitos matemáticos envolvidos, não conseguiu aplicar esse conhecimento de forma eficaz para resolver o problema específico.
Esta observação desafia a percepção comum de que os LLMs são meramente "bancos de dados sofisticados" que recuperam informações. Em vez disso, sugere que estes sistemas podem exibir comportamentos emergentes mais complexos, incluindo a capacidade de "improviso" - ainda que nem sempre bem-sucedido.
Zona de Desenvolvimento Proximal em IA
Os pesquisadores aplicaram o conceito educacional de "zona de desenvolvimento proximal" ao comportamento do ChatGPT. Este conceito, desenvolvido pelo psicólogo Lev Vygotsky, descreve a diferença entre o que um aprendiz consegue fazer sozinho e o que pode realizar com orientação.
No caso da IA, os pesquisadores observaram uma lacuna similar entre o conhecimento factual demonstrado pelo ChatGPT e sua capacidade de aplicar esse conhecimento de forma eficaz em resolução de problemas complexos.
Oportunidades Educacionais
Transformando Limitações em Ferramenta Pedagógica
Paradoxalmente, as limitações reveladas pelo estudo podem representar uma oportunidade educacional. Os pesquisadores sugerem que trabalhar com o ChatGPT em sua "zona de desenvolvimento proximal" pode beneficiar estudantes de várias formas:
1. Desenvolvimento do Pensamento Crítico: Ao questionar e testar as respostas da IA, os estudantes desenvolvem habilidades de avaliação crítica.
2. Raciocínio Baseado em Evidências: A necessidade de verificar e corrigir os erros da IA fortalece as competências analíticas dos estudantes.
3. Compreensão dos Limites Tecnológicos: Estudantes aprendem a identificar quando e como as ferramentas de IA podem falhar.
Contexto Tecnológico Mais Amplo
Desafios na Confiabilidade da IA
Este estudo faz parte de um corpo crescente de pesquisa que examina a confiabilidade e as limitações dos sistemas de inteligência artificial generativa. Outros estudos recentes identificaram problemas similares em diferentes domínios:
- Alucinações Matemáticas: Tendência dos LLMs de gerar soluções que parecem corretas mas contêm erros fundamentais.
- Inconsistência Lógica: Dificuldade em manter coerência lógica em problemas multi-etapas.
- Viés de Formato: Preferência por certos tipos de abordagens baseadas nos padrões de treinamento.
Implicações para o Desenvolvimento Futuro
Os resultados sugerem direções importantes para o desenvolvimento futuro de sistemas de IA:
1. Arquiteturas Híbridas: Combinação de LLMs com sistemas especializados em raciocínio matemático.
2. Treinamento Específico: Desenvolvimento de métodos de treinamento focados em resolução de problemas lógicos.
3. Verificação Automática: Implementação de sistemas de verificação que podem identificar e corrigir erros lógicos.
Conclusões e Perspectivas
O estudo da Universidade de Cambridge oferece uma janela fascinante sobre o funcionamento interno dos modelos de linguagem de grande escala. Ao revelar que o ChatGPT pode "tropeçar" em problemas matemáticos clássicos de forma surpreendentemente humana, os pesquisadores não apenas identificaram limitações importantes, mas também oportunidades educacionais significativas.
Para educadores e desenvolvedores de tecnologia, os resultados enfatizam a importância de compreender tanto as capacidades quanto as limitações das ferramentas de IA. Em vez de substituir o pensamento crítico humano, estas tecnologias podem servir como catalisadores para desenvolvê-lo.
À medida que a integração de IA na educação continua a expandir-se, estudos como este fornecem orientação crucial sobre como aproveitar essas ferramenias de forma eficaz, transformando suas imperfeições em oportunidades de aprendizagem mais profunda e significativa.
O estudo completo foi publicado no International Journal of Mathematics Education in Science and Technology e está disponível para consulta acadêmica.