Nos idos do século XIX, um cavalo chamado Hans ficou famoso por sua impressionante habilidade matemática.
Ele sabia somar, subtrair e até mesmo resolver equações simples!
Por isso, era chamado de “Clever Hans”, enquanto o dono fazia shows espantosos pelo mundo.

Mas como o Clever Hans expressava o resultado das contas? Ele batia o casco no chão N vezes, até chegar à resposta. Pra que chatGPT ou o tal do Deep Seek? O Hans era a verdadeira IA equina!
Mas aí psicólogos desconfiaram da genialidade do cavalo e investigaram mais a fundo. Descobriram que Hans não sabia nada de matemática — ele apenas interpretava sinais sutis dos humanos ao seu redor. Quando estava prestes a acertar, o público fazia microexpressões de expectativa, e ele parava de bater o casco no momento exato.
E o que isso tem a ver com overfitting? Alguém arrisca nos comentários?
Imagine que Clever Hans seja um modelo de machine learning. Ele aprendeu muito bem os padrões do conjunto de treino (as reações humanas), mas não a matemática de verdade (o conceito geral). Quando o contexto mudava, digamos sem um humano por perto — ele errava feio. Isso é o overfitting: um modelo que se ajusta tão bem aos dados de treino que perde a capacidade de generalizar.
Obs. O cavalo só não conseguia resolver equações diferenciais parciais e equações mais complexas porque o público também não sabia.
