La disuguaglianza di Jensen (dal nome del matematico danese Johan Jensen) è una disuguaglianza che lega il valore di una funzione convessa al valore della medesima funzione calcolata nel valor medio del suo argomento. Essa è stata enunciata e dimostrata da Jensen nel 1906[1]. La disuguaglianza di Jensen può essere introdotta in diversi contesti e con diversi gradi di generalità, i più rilevanti dei quali sono presentati nel seguito.
La forma più elementare della disuguaglianza di Jensen può essere enunciata come media pesata di un numero finito di numeri reali. Essa può essere ampiamente generalizzata nel contesto della teoria della misura, e trova la sua forma più naturale e potente nel formalismo della teoria della probabilità. Nel seguito si forniscono prima gli enunciati della disuguaglianza (partendo dai più semplici fino ad arrivare a quelli più generali), e quindi le dimostrazioni degli stessi.
Ricordiamo che se
è una funzione convessa, allora
è concava, e pertanto delle disuguaglianze analoghe a quelle riportate sotto possono essere ottenute per funzioni concave, a patto di invertire il verso delle disuguaglianze stesse.
Sia
un intero positivo. Per una funzione convessa a valori reali
, e per dei numeri reali
nel dominio di
, e per dei pesi positivi
aventi somma unitaria, la disuguaglianza di Jensen afferma:
![{\displaystyle \varphi \left(\sum _{i=1}^{n}a_{i}x_{i}\right)\leq \sum _{i=1}^{n}a_{i}\varphi (x_{i})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1541caf10bba55557da5c11e812752e0c5585e14)
In particolare, se i pesi
sono tutti uguali ad
:
![{\displaystyle \varphi \left({\frac {1}{n))\sum _{i=1}^{n}x_{i}\right)\leq {\frac {1}{n))\sum _{i=1}^{n}\varphi (x_{i})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f97e41cfc93c95f9d681e6275e4adb7c5ed71598)
ovverosia il valore di
calcolato nella media degli
è più piccolo della media dei valori di
sugli
.
Nelle precedenti formule, è naturale chiedersi se è possibile effettuare una sorta di passaggio al continuo. La risposta è affermativa, e la disuguaglianza di Jensen può essere generalizzata come segue.
Sia
uno spazio di misura, tale che
. Se
è una funzione integrabile da
a valori reali, e
è una funzione convessa sull'immagine di
, allora:[2]
![{\displaystyle \varphi \left(\int _{\Omega }g\,d\mu \right)\leq \int _{\Omega }\varphi \circ g\,d\mu .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6a7c99ef92937c2cecc61b254700176be7db13c6)
Lo stesso risultato può più naturalmente essere enunciato nel contesto della teoria della probabilità. Sia
uno spazio di probabilità,
una variabile aleatoria a valori reali che possieda valore atteso, e
una funzione convessa tale che anche
possieda valore atteso. Allora:
![{\displaystyle \varphi \left(\mathbb {E} \{X\}\right)\leq \mathbb {E} \{\varphi (X)\}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a9e2a18df08a203b709fbcaf409d73fbeb6c765e)
In questa notazione probabilistica, la misura
va appunto intesa come una probabilità
, l'integrale rispetto a
come un valore atteso
, e la funzione
come una variabile aleatoria
.
Più in generale, sia
uno spazio vettoriale topologico, ed
una variabile aleatoria integrabile a valori in
. In questo contesto generale, integrabile significa che per ogni elemento
nel duale di
accade
, e che esiste un elemento
in
tale che
. Allora, per ogni funzione convessa misurabile
su
, e per ogni sub-σ-algebra
di
:
![{\displaystyle \varphi \left(\mathbb {E} \{X|{\mathfrak {G))\}\right)\leq \mathbb {E} \{\varphi (X)|{\mathfrak {G))\}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/793641ebab948147cb5892ecb03e4b8909cbd055)
Qui
indica l'attesa condizionata rispetto alla σ-algebra
. Questo enunciato più generale si riduce al precedente qualora il generico spazio topologico vettoriale
sia rimpiazzato dall'asse reale, e
dalla σ-algebra banale
.
La funzione
è concava, utilizzando in questo caso la disuguaglianza di Jensen essa si riduce alla disuguaglianza della media aritmetica e della media geometrica.
![{\displaystyle ((x_{1}+x_{2}+\cdots +x_{n)) \over {n))\geq {\sqrt[{n}]{x_{1}\cdot x_{2}\cdots x_{n))))](https://wikimedia.org/api/rest_v1/media/math/render/svg/dedfd457b6729e963191ea9292dca76014f8a451)
Infatti:
![{\displaystyle {\mbox{log))\left({\sqrt[{n}]{x_{1}\cdots x_{n))}\right)={\frac {1}{n))\left({\mbox{log))\ x_{1}+\cdots +{\mbox{log))\ x_{n}\right)\leq {\mbox{log))\left({\frac {1}{n))\left(x_{1}+\cdots +x_{n}\right)\right)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bf91c0e6365f60e29087912b37061d4468cc7a2d)
dove l'ultima disuguaglianza discende dalla disuguaglianza di Jensen.
La disuguaglianza di Jensen consente di dimostrare con facilità molte disuguaglianze elementari. Ad esempio, per ogni coppia di numeri reali positivi
tali che
è valida la disuguaglianza
![{\displaystyle \left(x+{1 \over x}\right)^{2}+\left(y+{1 \over y}\right)^{2}\geq {25 \over 2))](https://wikimedia.org/api/rest_v1/media/math/render/svg/0f489ca9eba5ffd34b0b94c5073e729871eaaf73)
Per dimostrarlo, osserviamo che la funzione
![{\displaystyle g(z)=\left(z+{1 \over z}\right)^{2))](https://wikimedia.org/api/rest_v1/media/math/render/svg/2692f7b077322d667f843650684483ffa2b14a92)
è convessa per
positivo, in quanto la sua seconda derivata è sempre positiva per tali valori di
. Dalla disuguaglianza di Jensen segue
![{\displaystyle ((g(x)+g(y)} \over 2}\geq g\left(((x+y} \over 2}\right)=g\left({1 \over 2}\right)={25 \over 4))](https://wikimedia.org/api/rest_v1/media/math/render/svg/695e43054a61062229c24b58d7023cb55f8779d3)
ossia appunto
![{\displaystyle {g(x)+g(y)}\geq {25 \over 2))](https://wikimedia.org/api/rest_v1/media/math/render/svg/9babd7cc02047895eedb982aa258424e787ca858)
- ^ Jensen, J. Sur les fonctions convexes et les inégalités entre les valeurs moyennes.
- ^ W. Rudin, Pag. 61.
- Nicola Fusco, Paolo Marcellini, Carlo Sbordone, Lezioni di Analisi Matematica Due, Paragrafi 39 e 83, Zanichelli, 2020, ISBN 9788808520203.
- Walter Rudin, Real and Complex Analysis, Mladinska Knjiga, McGraw-Hill, 1970, ISBN 0-07-054234-1.