un

guest
1 / ?
back to lessons

Faktoriyelerin Logaritma Ölçeği

Stirling'in yaklaşımı, bir ürüyü bir toplamaya dönüştürür, bu da büyük-n matematiğini işlevsel kılan temel hamledir:

ln(n!) ≈ n·ln(n) − n + 0.5·ln(2πn)

Bu formül, x için integrali approximatet eden k=1..n için Σ ln(k) toplamının uygulanması ve hata sınırını belirlemek için trapezoid kuralının uygulanmasıdır.

Neden Geometrik Olarak Önemli

n-boyutlu sphere hacim formülü, Γ(n/2 + 1) içerir, bu da tam sayı n için (n/2)! veya yarı tam sayıların ürünlerine eşitdir. Stirling, büyük n için bunları doğrudan hesaplamadan tahmin etmeyi sağlar.

Stirling'in yaklaşımı, taban-10 notasyonunda log(n!) = n·log(n) − n·log(e), büyüklik tahminleri için yararlıdır.

n = 10 için: ln(10!) ≈ 10·2.303 − 10 + 0.5·ln(62.83) ≈ 23.03 − 10 + 2.08 = 15.10 (doğru: 15.104).

n = 100 için: ln(100!) ≈ 100·4.605 − 100 + 0.5·ln(628.3) ≈ 460.5 − 100 + 3.24 = 363.7 (doğru: 363.74).

Stirling'in n=20 Hesaplanması

Direkt bir hesap: ln(20) ≈ 2.996. ln(2π·20) = ln(125.66) ≈ 4.833.

Stirling'in log formülünü kullanarak ln(20!) hesaplayın. Ardından, cevapınızı e^(size) kullanarak 20! tahmin edin. Gerçek değer 20! = 2,432,902,008,176,640,000 ≈ 2.433 × 10^18. Tüm üç terimi gösterin.

Hacim Formülü

n-boyutlu yarıçaplı bir sphere'un hacmi:

V_n(r) = C_n · r^n where C_n = π^(n/2) / Γ(n/2 + 1)

Küçük n için C_n değerleri, Γ(1/2) = √π ve azaltma formülünü kullanarak bir düzen takip eder:

- n=1: C_1 = π^(1/2)/Γ(3/2) = √π/(√π/2) = 2

- n=2: C_2 = π^1/Γ(2) = π/1 = π

- n=3: C_3 = π^(3/2)/Γ(5/2) = π^(3/2)/(3√π/4) = 4π/3

- n=4: C_4 = π²/Γ(3) = π²/2

- n=5: C_5 = π^(5/2)/Γ(7/2) = π^(5/2)/(15√π/8) = 8π²/15

Dikkat: C_n, n=5'te (≈ 5.264) bir noktada zirveye ulaşır ve sonra azalır. Büyük n değerleri için C_n 0'a yaklaşır.

Birim Küreyi Alanı Boyutu

Maksimum n=5'te

C_5 = 8π²/15. Bu değeri π² ≈ 9.870 ile basitleştirelim:

C_5 = 8·9.870/15 = 78.96/15 ≈ 5.264

Maksimum olup olmadığını doğrulamak için: C_6 = π³/6 ≈ 31.006/6 ≈ 5.168. Bu nedenle C_6 < C_5 — zirve n=5'te gerçekleşti.

C_4'ü π²/2 ≈ 4.935 doğrulayın. Ardından C_5/C_4 ve C_6/C_5 hesaplayın. Bu oranlar, n=4 ve n=6 arasında bir zirve olup olmadığını doğruluyor mu? İşleminizi gösterin.

Köşe Bölgesinin Oranı

Köşe Paradoxu: Bir n boyutlu birim küp [−1,1]^n'nin dışındaki iç içe yuvarlak alanının oranı nedir?

Köşe oranı = 1 - C_n / 2^n

Köşe Paradoxu

| n | C_n | 2^n | Sphere fraction | Corner fraction | |---|---|---|---|---| | 2 | 3.14 | 4 | 78.5% | 21.5% | | 3 | 4.19 | 8 | 52.4% | 47.6% | | 4 | 4.93 | 16 | 30.8% | 69.2% | | 5 | 5.26 | 32 | 16.4% | 83.6% | | 6 | 5.17 | 64 | 8.1% | 91.9% | | 10 | 2.55 | 1024 | 0.25% | 99.75% |

n=8 için C_8 = π⁴/24 ≈ 4.059'u hesaplayın. Ardından köşe oranını hesaplayın. Eğer 8 boyutlu birimi küpten 1000 uniform random örnekleme yaparsanız, iç içe yuvarlak içinde düşen örneklerin sayısı nedir?

Optimizasyonun Sonuçları

Köşe paradoksu, yüksek boyutlu alanlarda optimizasyon için doğrudan sonuçlar sahiptir:

Rastgele arama başarısız olur. n boyutlu parametre alanı içinde rastgele bir nokta neredeyse kesinlikle bir köşeye - uzak parametre değerlerine sahip, kökenle uzak bir noktaya - düşer. İyi çözümlerin orta parametre değerleri etrafında yoğunlaşmışsa, rastgele arama onları neredeyse asla bulamaz.

Gradyan asansı başarılı olur. Yerel gradiyeni takip ederek, sistemli bir şekilde geometriyi yönetirsen değilse rastgele olarak örnekler. Boyutların laneti rastgele yöntemlere zarar verir; yapılandırılmış yöntemler adapte olur.

Mesafe konsantre olur. Yüksek boyutlarda, rastgele noktlar arasındaki tüm ikili mesafeler aynı değere konsantre olur: hepsi yaklaşık olarak √(2n/3) değerine dönüşür ve [0,1]^n içinde uniform olarak dağıtılırlar. En yakın komşu yöntemleri bozulur çünkü 'en yakın' ve 'en uzak' birbirinden ayırt edilemez hale gelir.

Hamming'in önerisi: geometriyi anla önce sezgiye güven. Yüksek boyutlu alanlarda, geometri sezgiye karşıtçıdır ve matematik tek güvenilir rehberdir.

Bir sinir ağı 10.000 ağırlık parametresine sahip. Her ağırlık [−1, 1] aralığında uniform olarak başlatılır. köşe paradoksu, aslında bu başlatma noktalarının hiçbirinin 10.000 boyutlu birim küreyinde olduğunu söyler. Yine de, rastgele başlatma ile başarılı bir şekilde sinir ağları eğitilir. Bu, 'iyi başlatma' ve 'birim küre' arasındaki analojiyi nasıl kıran ve loss zemini geometrisi hakkında ne söylemektedir?