Funções Convexas em \(\mathbb{R}\)
1. Definição e Caracterizações
Definição 1.1
Seja \(I\) um intervalo e \(f: I \to \mathbb{R}\). Dizemos que \(f\) é convexa se para todo \(a, b \in I\) e \(0 \leq t \leq 1\) tem-se
\[ f(tb + (1 - t)a) \leq tf(b) + (1 - t)f(a). \]
Observe que se \(a < b\), então \(a < tb + (1 - t)a < b\). Além disso, para cada \(x \in (a, b)\) podemos escrever \(x = tb + (1 - t)a\) onde \(t = \frac{x - a}{b - a}\).
Assim, podemos reescrever a definição de forma mais geométrica.
Teorema 1.2
Seja \(I\) um intervalo e \(f: I \to \mathbb{R}\). \(f\) é convexa se, e somente se, para todo \(a, b \in I\) com \(a < x < b\), vale:
\[ f(x) \leq \frac{x - a}{b - a} f(b) + \frac{b - x}{b - a} f(a). \tag{1} \]
Exemplo 1.1.3: \(f(x) = x^2\) é convexa
Verifiquemos pela definição: para \(a, b \in \mathbb{R}\) e \(t \in [0,1]\),
\[
f(tb + (1-t)a) = (tb + (1-t)a)^2 = t^2 b^2 + 2t(1-t)ab + (1-t)^2 a^2
\]
Enquanto:
\[
t f(b) + (1-t) f(a) = t b^2 + (1-t) a^2
\]
Subtraindo:
\[
t f(b) + (1-t) f(a) - f(tb + (1-t)a) = t(1-t)(b - a)^2 \geq 0
\]
Logo, \(f(tb + (1-t)a) \leq t f(b) + (1-t) f(a)\), como queríamos. ✅
Alternativamente, \(f''(x) = 2 > 0\), logo convexa pelo Corolário 2.8.
Proposição 1.3
Se \(f\) é convexa sobre o intervalo \(I\) e \(a < b < c \in I\), então:
\[ f(x) \geq \frac{x - a}{b - a} f(b) + \frac{b - x}{b - a} f(a), \quad \text{para } b < x < c \]
\[ f(x) \geq \frac{c - x}{c - b} f(b) + \frac{x - b}{c - b} f(c), \quad \text{para } a < x < b. \]
Se \(b < x < c\), usando (1), temos:
\[ f(b) \leq \frac{b - a}{x - a} f(x) + \frac{x - b}{x - a} f(a) \iff f(x) \geq \frac{x - a}{b - a} f(b) + \frac{b - x}{b - a} f(a). \]
A outra desigualdade segue de forma análoga.
Teorema 1.4 (Desigualdade de Jensen — Caso Finito)
Se \(f: I \to \mathbb{R}\) é convexa, \(x_1, x_2, \dots, x_n \in I\) e \(\lambda_1, \dots, \lambda_n \geq 0\) com \(\sum_{i=1}^n \lambda_i = 1\), então:
\[
f\left( \sum_{i=1}^n \lambda_i x_i \right) \leq \sum_{i=1}^n \lambda_i f(x_i)
\]
Observe que a Definição 1.1 é o caso \(n=2\).
Corolário 1.5
Se \(f\) é convexa sobre um intervalo aberto \(I\), então \(f\) é contínua sobre \(I\).
Atenção: A hipótese de \(I\) ser aberto é crucial! Por exemplo, a função
\[ f(x) = \begin{cases} 1 & \text{se } x = 0 \\ 0 & \text{se } x \in (0, 1] \end{cases} \]
é convexa em \([0,1]\), mas não é contínua em \(x=0\).
Seja \(b \in I\). Existem \(a, c \in I\) tais que \(a < b < c\).
Das desigualdades anteriores, para \(b < x < c\):
\[ \frac{x - a}{b - a} f(b) + \frac{b - x}{b - a} f(a) \leq f(x) \leq \frac{x - b}{c - b} f(c) + \frac{c - x}{c - b} f(b). \]
Aplicando o limite quando \(x \to b^+\):
\[ \lim_{x \to b^+} \left[ \frac{x - a}{b - a} f(b) + \frac{b - x}{b - a} f(a) \right] = f(b) \leq \lim_{x \to b^+} f(x) \leq \lim_{x \to b^+} \left[ \frac{x - b}{c - b} f(c) + \frac{c - x}{c - b} f(b) \right] = f(b). \]
Logo, \(\lim_{x \to b^+} f(x) = f(b)\).
Analogamente, para \(a < x < b\):
\[ \frac{x - b}{c - b} f(c) + \frac{c - x}{c - b} f(b) \leq f(x) \leq \frac{x - a}{b - a} f(b) + \frac{b - x}{b - a} f(a), \]
e tomando \(x \to b^-\), obtemos \(\lim_{x \to b^-} f(x) = f(b)\).
Portanto, \(f\) é contínua em \(b\).
2. Propriedades Fundamentais
Proposição 2.1
Se \(f\) é convexa sobre \(I\), então para \(a < x < b\) com \(a, b \in I\):
\[ \frac{f(x) - f(a)}{x - a} \leq \frac{f(b) - f(a)}{b - a} \leq \frac{f(b) - f(x)}{b - x}. \tag{2} \]
Subtraindo \(f(a)\) da desigualdade (1):
\[ \frac{f(x) - f(a)}{x - a} \leq \frac{f(b) - f(a)}{b - a}. \tag{3} \]
Subtraindo \(f(b)\) de (1):
\[ \frac{f(b) - f(a)}{b - a} \leq \frac{f(b) - f(x)}{b - x}. \tag{4} \]
Combinando (3) e (4), obtemos o resultado.
Proposição 2.2 (Operações que Preservam Convexidade)
Sejam \(f, g: I \to \mathbb{R}\) funções convexas.
- Se \(\alpha, \beta \geq 0\), então \(\alpha f + \beta g\) é convexa.
- Se \(h(x) = ax + b\), então \(f \circ h\) é convexa no domínio apropriado.
- \(F(x) = \max\{f(x), g(x)\}\) é convexa.
(1) Seja \(t \in [0,1]\), \(x,y \in I\). Então:
\[
(\alpha f + \beta g)(tx + (1-t)y) = \alpha f(tx + (1-t)y) + \beta g(tx + (1-t)y)
\]
\[
\leq \alpha [t f(x) + (1-t) f(y)] + \beta [t g(x) + (1-t) g(y)] = t (\alpha f + \beta g)(x) + (1-t) (\alpha f + \beta g)(y)
\]
(2) Exercício (use substituição).
(3) Seja \(F(x) = \max\{f(x), g(x)\}\). Então:
\[
F(tx + (1-t)y) = \max\{f(tx + (1-t)y), g(tx + (1-t)y)\}
\]
\[
\leq \max\{t f(x) + (1-t) f(y), t g(x) + (1-t) g(y)\}
\]
\[
\leq t \max\{f(x), g(x)\} + (1-t) \max\{f(y), g(y)\} = t F(x) + (1-t) F(y)
\]
pois o máximo de combinações convexas é menor ou igual à combinação convexa dos máximos.
Teorema 2.3
Seja \(f\) convexa sobre um intervalo aberto \(I\). Então, as derivadas laterais \(f'_+(c)\) e \(f'_-(c)\) existem para todo \(c \in I\). Além disso, se \(a < c < b\), vale:
\[ f'_+(a) \leq f'_-(c) \leq f'_+(c) \leq f'_-(b). \]
Seja \(c \in I\). Para \(t < c < u\) em \(I\), por (2):
\[ \frac{f(c) - f(t)}{c - t} \leq \frac{f(u) - f(c)}{u - c}. \tag{5} \]
Logo:
\[ \sup_{tc} \left[ \frac{f(u) - f(c)}{u - c} \right]. \tag{6} \]
Ambos os lados são finitos.
A função \(u \mapsto \frac{f(u) - f(c)}{u - c}\) é não decrescente em \(I \cap (c, \infty)\), logo:
\[ f'_+(c) = \lim_{u \to c^+} \frac{f(u) - f(c)}{u - c} = \inf_{u>c} \frac{f(u) - f(c)}{u - c} \quad \text{(existe!).} \]
Analogamente, \(t \mapsto \frac{f(c) - f(t)}{c - t}\) é não decrescente em \(I \cap (-\infty, c)\), logo:
\[ f'_-(c) = \lim_{t \to c^-} \frac{f(c) - f(t)}{c - t} = \sup_{t
Finalmente, se \(a < c < b\), tome \(t \in (a, c)\):
\[ f'_+(a) \leq \frac{f(t) - f(a)}{t - a} \leq \frac{f(c) - f(t)}{c - t} \leq f'_-(c). \]
Tome \(u \in (c, b)\):
\[ f'_+(c) \leq \frac{f(u) - f(c)}{u - c} \leq \frac{f(b) - f(u)}{b - u} \leq f'_-(b). \]
Juntando tudo, o teorema está provado.
Corolário 2.4
Se \(f\) é convexa e diferenciável em um intervalo aberto \(I\), então \(f'\) é não decrescente em \(I\).
Corolário 2.5
Seja \(f\) convexa no aberto \(I\). Existe um conjunto \(S \subset I\) enumerável tal que \(f'(x)\) não existe exatamente quando \(x \in S\).
Seja \(S = \{x \in I \mid f'(x) \text{ não existe}\}\).
Para cada \(x \in S\), temos \(f'_-(x) < f'_+(x)\), logo existe um racional \(q(x)\) tal que:
\[ f'_-(x) < q(x) < f'_+(x). \]
Se \(x, y \in S\) e \(x < y\), pelo Teorema 2.3: \(f'_+(x) \leq f'_-(y)\), logo \(q(x) < q(y)\).
Assim, a função \(x \mapsto q(x)\) é injetora de \(S\) em \(\mathbb{Q}\). Como \(\mathbb{Q}\) é enumerável, \(S\) também é.
Corolário 2.6
Seja \(f\) convexa no intervalo aberto \(I\) e \(c \in I\). Para todo \(m\) tal que \(f'_-(c) \leq m \leq f'_+(c)\), vale:
\[ f(x) \geq f(c) + m(x - c), \quad \forall x \in I. \]
Se \(x > c\), então \(f(x) - f(c) \geq (x - c) f'_+(c) \geq m(x - c)\).
Se \(x < c\), então \(f(c) - f(x) \leq (c - x) f'_-(c) \leq m(c - x)\). Multiplicando por \(-1\): \(f(x) - f(c) \geq m(x - c)\).
Se \(x = c\), a igualdade vale trivialmente.
Corolário 2.7
Todo ponto crítico de uma função convexa \(f: I \to \mathbb{R}\) é um mínimo global.
Se \(f'(a) = 0\), pelo Corolário 2.6:
\[ f(x) \geq f(a) + 0 \cdot (x - a) = f(a), \quad \forall x \in I. \]
Logo, \(a\) é ponto de mínimo absoluto.
Proposição 2.8
Se \(f: I \to \mathbb{R}\) é derivável e satisfaz
\[ f(x) \geq f(a) + f'(a)(x - a), \quad \forall a, x \in I, \]
então \(f\) é convexa.
Sejam \(a < c < b\) em \(I\). Defina a reta suporte:
\[ \alpha(x) = f(c) + f'(c)(x - c), \]
e o semiplano:
\[ H = \{(x, y) \in \mathbb{R}^2 \mid y \geq \alpha(x)\}. \]
Por hipótese, \((a, f(a)) \in H\) e \((b, f(b)) \in H\). Como \(H\) é convexo, o segmento que os une está contido em \(H\).
Em particular, o ponto \((c, \lambda)\) nesse segmento — onde \(\lambda = \frac{b - c}{b - a} f(a) + \frac{c - a}{b - a} f(b)\) — satisfaz \(\lambda \geq \alpha(c) = f(c)\).
Logo:
\[ f(c) \leq \frac{b - c}{b - a} f(a) + \frac{c - a}{b - a} f(b), \]
o que prova a convexidade.
Corolário 2.9
Se \(f: I \to \mathbb{R}\) é duas vezes derivável, então \(f\) é convexa se, e somente se, \(f''(x) \geq 0\) para todo \(x \in I\).
Imediato: \(f'' \geq 0 \iff f' \text{ não decrescente} \iff f \text{ convexa}\).
3. Aplicações e Exemplos Práticos
Aplicação 3.1: Otimização Convexa — Por que é tão importante?
Em problemas de minimização, se a função objetivo é convexa, qualquer mínimo local é global. Isso torna a otimização convexa muito mais fácil e confiável do que a não-convexa, onde podemos ficar presos em mínimos locais ruins.
Algoritmos como o gradiente descendente têm garantias de convergência global neste caso. É por isso que modelos de machine learning buscam usar funções de perda convexas (como MSE, cross-entropy) sempre que possível!
Conclusão prática: Se você sabe que sua função é convexa, relaxe — qualquer descida de gradiente vai te levar ao melhor mínimo possível. 🚀
Aplicação 3.2: Prova da Desigualdade AM-GM via Jensen
A função \(f(x) = -\log x\) é convexa em \((0, \infty)\) (pois \(f''(x) = \frac{1}{x^2} > 0\)).
Sejam \(x_1, \dots, x_n > 0\). Pela desigualdade de Jensen (Teorema 1.4) com \(\lambda_i = \frac{1}{n}\):
\[
-\log\left( \frac{x_1 + \dots + x_n}{n} \right) \leq \frac{1}{n} \sum_{i=1}^n (-\log x_i) = -\log \left( \sqrt[n]{x_1 \cdots x_n} \right)
\]
Multiplicando por \(-1\) (e lembrando que \(\log\) é crescente):
\[
\log\left( \frac{x_1 + \dots + x_n}{n} \right) \geq \log \left( \sqrt[n]{x_1 \cdots x_n} \right)
\]
\[
\Rightarrow \frac{x_1 + \dots + x_n}{n} \geq \sqrt[n]{x_1 \cdots x_n}
\]
Pronto! A famosa desigualdade entre a média aritmética e a geométrica, provada em 3 linhas usando convexidade. 😍
Exemplo 3.3: \(f(x) = e^x\), \(g(x) = |x|\), \(h(x) = -\log x\)
- \(f(x) = e^x\): \(f''(x) = e^x > 0\) → convexa em \(\mathbb{R}\).
- \(g(x) = |x|\): não é diferenciável em 0, mas satisfaz a definição → convexa em \(\mathbb{R}\).
- \(h(x) = -\log x\): \(h''(x) = \frac{1}{x^2} > 0\) → convexa em \((0, \infty)\).
Essas funções aparecem constantemente em otimização, probabilidade e estatística.
4. Perspectivas e Generalizações
Perspectiva 4.1: Convexidade em \(\mathbb{R}^n\)
O conceito de função convexa generaliza naturalmente para \(\mathbb{R}^n\): substitui-se o segmento de reta \(tb + (1-t)a\) pela combinação convexa \(\mathbf{x}_t = t\mathbf{y} + (1-t)\mathbf{x}\).
Muitos resultados (continuidade em abertos, existência de subgradientes, desigualdade de Jensen) têm análogos poderosos.
A otimização convexa em múltiplas variáveis é um pilar da ciência de dados, engenharia e economia moderna. Conceitos como conjuntos convexos, cones, dualidade de Lagrange e algoritmos de ponto interior são extensões naturais do que você estudou aqui.
💡 Este texto em \(\mathbb{R}\) é uma boa base!
Perspectiva 4.2: Funções Côncavas
Uma função \(f: I \to \mathbb{R}\) é côncava se \(-f\) é convexa. Equivalentemente, troca-se \(\leq\) por \(\geq\) na definição:
\[ f(tb + (1-t)a) \geq t f(b) + (1-t) f(a) \]
Funções côncavas são fundamentais em economia (utilidade, produção) e teoria dos jogos. Muitas propriedades são “espelhadas”: máximos globais, derivada não-crescente, etc.