Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Há alguns dias, publiquei sobre o fenômeno da dupla descida para alertar os economistas sobre sua importância.
Para ilustrá-lo, usei o seguinte exemplo:
1️⃣ Você quer encontrar a curva que "melhor" aproxima uma função desconhecida que gera 12 observações.
2️⃣ Eu sei que a função alvo é
Y = 2(1 - e^{-|x + \sin(x^2)|}), mas você não. Você só sabe que não há ruído no problema.
3️⃣ Você usa, como aproximador, uma rede neural de camada oculta única com ativação ReLU treinada nessas 12 observações.
4️⃣ Você verifica o que acontece com a aproximação quando aumenta o número de parâmetros na rede neural de 4 para 24.001.
🎥 O gif que meu querido coautor @MahdiKahou preparou ilustra os resultados:
Caso A. Com um pequeno número de parâmetros (digamos, 7), você se sai mal: a distância ℓ₂ entre sua aproximação treinada (linha azul) e a função alvo (não plotada, apenas os 12 pontos vermelhos desenhados a partir dela) é alta.
Caso B. Com ~1.000 parâmetros, você atinge o limite de interpolação: a rede se ajusta perfeitamente a todos os 12 pontos, mas a função é muito ondulada. A distância ℓ₂ ainda é alta.
Caso C. Com ainda mais parâmetros (por exemplo, 24.001), a aproximação se suaviza, e a distância ℓ₂ para a função alvo se torna muito menor.
⚡ Pontos-chave:
1️⃣ Este é apenas um exemplo, mas resultados semelhantes foram documentados em milhares de aplicações. Não estou reivindicando nenhuma novidade aqui.
2️⃣ O resultado não depende de ter exatamente 12 observações (com mais, a dupla descida aparece mais cedo), da ausência de ruído, ou mesmo do uso de redes neurais—você obtém isso com muitos outros aproximadores paramétricos.
3️⃣ Sim, em milhares de aplicações econômicas, você quer aproximar funções complicadas e de alta dimensão com todos os tipos de formas intrincadas, e você só conhece alguns pontos desenhados a partir delas.
👉 Por que preferir a aproximação suave? Porque, mesmo se superparametrizada, ela generaliza melhor. Se eu desenhar novas observações da função alvo (desconhecida para você)...
Top
Classificação
Favoritos