un

guest
1 / ?
back to lessons

Derivação da Equação Logística

A curva S de Hamming tem uma derivação matemática precisa. Comece com duas observações sobre a adoção de tecnologia:

1. A taxa de adoção acelera com a adoção atual (propagação de boca em boca, efeito de rede): dP/dt ∝ P

2. A taxa de adoção desacelera quando o mercado se esgota: dP/dt ∝ (1 − P)

Combinar: dP/dt = r · P · (1 − P)

Isso é a equação diferencial logística. É separável: a decomposição de frações parciais permite a integração direta.

Derivação

Separe as variáveis: dP / [P(1−P)] = r dt

Frações parciais: 1/[P(1−P)] = 1/P + 1/(1−P)

Integre ambos os lados: ln(P) − ln(1−P) = rt + C

ln[P/(1−P)] = rt + C

P/(1−P) = e^(rt+C) = e^C · e^(rt)

Lembre-se de K = e^C. Resolva para P: P = K·e^(rt) / (1 + K·e^(rt))

Equivalentemente: P(t) = 1 / (1 + e^(−r(t − t₀)))

onde t₀ = (ln K)/r é o ponto de inflexão.

Ponto de Inflexão

Em t = t₀: P = 0,5. A segunda derivada d²P/dt² = 0: a taxa de crescimento é máxima. Antes de t₀: convexo para cima (acelerando). Depois de t₀: convexo para baixo (desacelerando).

Geometria de Aplicações de Computadores: Metcalfe e Paisagem de Otimização

Ajuste da Curva Logística aos Dados

Dado dois pontos de dados em uma curva logística, você pode resolver tanto r quanto t₀.

Adoção da Internet: P(1995) = 0,01 (1% das casas de família dos EUA), P(2005) = 0,70 (70%).

Usando P(t) = 1/(1 + e^(−r(t−t₀))), defina duas equações a partir dos pontos de dados P(1995)=0,01 e P(2005)=0,70. A partir de P(2005)=0,70: calcule t₀ usando ln[P/(1−P)] = r(t−t₀). Em seguida, use ambas as equações para resolver por r. Mostre todos os cálculos algébricos. O que seu valor de r prevê para P(2010)?

Valor da Rede como Contagem Geométrica

Hamming observou que as aplicações impulsionaram a adoção da computação mais do que o hardware ou o software. As aplicações dependentes da rede seguem um modelo específico de crescimento: seu valor aumenta mais rápido do que seu custo.

Lei de Metcalfe

O valor de uma rede com n usuários é proporcional ao número de conexões possíveis entre os usuários:

V(n) = k · n(n−1)/2 ≈ k · n²/2 (para grandes n)

onde k é o valor de uma conexão. O custo de uma rede: C(n) ∝ n (aproximadamente linear no número de usuários).

A razão valor-custo: V/C ∝ n²/n = n. À medida que n cresce, a razão cresce linearmente. Uma rede com 10 vezes mais usuários fornece aproximadamente 100 vezes mais valor apenas 10 vezes mais caro.

Imagem Geométrica

Com n nós, o número de arestas em um grafo completo K_n é C(n,2) = n(n−1)/2. Isso é uma fórmula combinatorial: escolher 2 nós de n. Para n=10: C(10,2)=45. Para n=100: C(100,2)=4950. Para n=1000: C(1000,2)=499.500.

A curva S e a Lei de Metcalfe interagem: durante a Fase 2 de rápida adoção, n cresce rapidamente, e V(n) cresce como n². A inflexão de valor ocorre antes da inflexão de adoção - o valor acelera à frente da adoção, puxando mais adoção em um loop de retroalimentação positiva.

Valor da Rede em Níveis Diferentes de Adoção

Adoção do e-mail: em 1985 (n=100.000 usuários), k = US$ 0,01 por conexão-ano. Em 1995 (n=30.000.000 usuários).

Calcule V(1985) = k · n(n−1)/2 e V(1995) = k · n(n−1)/2 usando os valores fornecidos. Qual é a razão V(1995)/V(1985)? Em seguida, calcule a razão de crescimento de usuários n(1995)/n(1985). O que a razão do crescimento de valor ao crescimento de usuários diz sobre por que o e-mail se tornou indispensável tão repentinamente na década de 1990?

Otimização como Geometria

A história do fita de Boeing de Hamming descreve um fracasso de otimização com significado geométrico preciso. A otimização de uma função f(x) em uma paisagem requer:

1. Uma função bem-definida f: o objetivo (arrasto, custo, tempo no mercado)

2. Uma paisagem fixa: f avaliada no mesmo estado cada vez

3. Um gradiente: a direção da melhoria mais acentuada

Quando a paisagem muda entre medições, o gradiente que você estima pode apontar para uma direção que não existe mais quando você der o próximo passo. Você está computando gradiente(f₁) mas dando passos em paisagem f₂.

Descida por Gradientes

Descida padrão por gradientes: xₙ₁ = xₙ - α ∇f(xₙ)

onde α = tamaço do passo (taxa de aprendizado), ∇f = vetor de gradiente (derivadas parciais).

O fracasso do Boeing: no tempo t, equipe mede f(xₙ). No tempo t+1, equipe muda x para xₙ + Δx. Mas o banco de dados compartilhado também mudou: f agora é f' ≠ f. A mudança observada: f'(xₙ + Δx) - f(xₙ). Isso NÃO é o gradiente de f - inclui um termo do deslocamento da paisagem.

O Gradiente Fantasma

Mudança medida = [f'(x+Δx) - f(x)] = [f(x+Δx) - f(x)] + [f'(x+Δx) - f(x+Δx)]

= gradiente verdadeiro × Δx + deslocamento da paisagem

Se o deslocamento da paisagem dominar: a equipe se move em direção de um méximo em f' que é um mémino em f. Eles otimizam a coisa errada - possivelmente tornando seu design pior enquanto as medições mostram melhoria.

Quantificando o Erro do Gradiente Fantasma

Um time otimiza a tração f(θ, s) onde θ = ângulo das asas, s = envergadura. Verdadeiro gradiente: ∂f/∂θ = -0,5 (a tração diminui com θ), ∂f/∂s = +0,3 (a tração aumenta com s).

Outro time reduz simultaneamente o peso da fuselagem, o que muda a função de tração: f' = f - 0,8. (Uma fuselagem mais leve reduz a tração em 0,8 unidades em todas as configurações.)

O primeiro time mede: f'(θ+Δθ, s) - f(θ, s) = [f(θ+Δθ, s) - 0,8] - f(θ, s) = -0,5·Δθ - 0,8.

Se o primeiro time definir Δθ = 1 (mudar o ângulo das asas em 1 unidade), qual é a mudança medida? Para que eles atribuem? Qual é a contribuição real da mudança de ângulo de suas asas em comparação à contribuição fantasma da mudança do fuselagem? Mostre o cálculo e interprete: a gradiente fantasma pode fazer o time parar de otimizar θ prematuramente?