I matematisk analyse er Hölders ulikhet , oppkalt etter Otto Hölder , en grunnleggende ulikhet mellom integraler og et uunnværlig verktøy for studiet av L p -rom .
La ( S , Σ , μ ) være et målerom og la 1 ≤ p , q ≤ ∞ med 1/ p + 1/ q = 1. Så har vi for hver målbare reelle eller kompleksverdifunksjon f og g på S . til
Tallene p og q uttrykt ovenfor sies å være Hölder-konjugater av hverandre. Spesialtilfellet p = q = 2 reduserer til den velkjente Cauchy–Schwarz-ulikheten .
Hölders ulikhet holder selv om || fg || 1 er uendelig, og er for høyre side av ulikheten uendelig i så fall. Spesielt hvis f er i L p ( μ ) og g er i L q ( μ ), så er fg i L 1 ( μ ).
For 1 < p , q < ∞, f ∈ L p ( μ ) og g ∈ L q ( μ ), vil Hölders ulikhet bli en likhet hvis og bare hvis | f | p og | g | q er lineært avhengig av L 1 ( μ ), som betyr at det er to reelle tall α , β ≥ 0, noen av dem er forskjellige fra 0, slik at α | f | p = β | g | q μ - nesten overalt .
Hölders ulikhet brukes til å bevise Minkowskis ulikhet , som er en generalisering av trekantens ulikhet på rommet L p ( μ ), og også for å fastslå at L q ( μ ) er dobbeltrommet til L p ( μ ) for 1 ≤ p < ∞.
Hölders ulikhet ble først oppdaget av Rogers (1888) , og uavhengig oppdaget av Hölder (1889) .