Hölders ulikhet

I matematisk analyse er Hölders ulikhet , oppkalt etter Otto Hölder , en grunnleggende ulikhet mellom integraler og et uunnværlig verktøy for studiet av L p -rom .

La ( S ,  Σ ,  μ ) være et målerom og la 1 ≤ p , q  ≤ ∞ med 1/ p  + 1/ q  = 1. Så har vi for hver målbare reelle eller kompleksverdifunksjon f og g på   S . til

Tallene p og q uttrykt ovenfor sies å være Hölder-konjugater av hverandre. Spesialtilfellet p  = q  = 2 reduserer til den velkjente Cauchy–Schwarz-ulikheten .

Hölders ulikhet holder selv om || fg  || 1 er uendelig, og er for høyre side av ulikheten uendelig i så fall. Spesielt hvis f er i L p ( μ ) og g er i L q ( μ ), så er fg i L 1 ( μ ).

For 1 < p , q < ∞, f  ∈ L p ( μ ) og g  ∈ L q ( μ ), vil Hölders ulikhet bli en likhet hvis og bare hvis | f  | p og | g  | q er lineært avhengig av L 1 ( μ ), som betyr at det er to reelle tall α ,  β  ≥ 0, noen av dem er forskjellige fra 0, slik at α  | f  | p = β  | g  | q μ - nesten overalt .

Hölders ulikhet brukes til å bevise Minkowskis ulikhet , som er en generalisering av trekantens ulikhet på rommet L p ( μ ), og også for å fastslå at L q ( μ ) er dobbeltrommet til  L p ( μ ) for 1 ≤  p  < ∞.

Hölders ulikhet ble først oppdaget av Rogers (1888) , og uavhengig oppdaget av Hölder (1889) .

Se også

Referanser