Conteúdo

Cálculo Diferencial e Integral II

Continuidade, integração e diferenciação de sucessões e séries de funções

Considerámos atrás, ao estudar o critério de Heine de continuidade, simultaneamente dois conceitos importantes de “limite” em Análise Matemática: o de limite de uma sucessão e o de continuidade de uma função num ponto. Voltamos agora a considerar limites de sucessões e continuidade só que desta vez consideramos uma sucessão de funções contínuas com um domínio comum, o seu limite ponto a ponto e a questão de saber se, quando este limite existir, se podemos garantir a continuidade da função limite.

Exemplo. Para cada $k\in\mathbb{N}$ considere-se a função $f_k:[0,1]\to\mathbb{R}$ definida por $f_k(x)=x^k$. Cada uma destas funções é contínua no intervalo $[0,1]$ mas \[\lim_{k\to+\infty}f_k(x)=\begin{cases}0, & \text{se $0\leq x\lt 1$,}\\ 1, & \text{se $x=1$.}\end{cases}\] O limite da sucessão de funções existe para cada $x\in [0,1]$ mas o limite não é uma função contínua em $[0,1]$. Fim de exemplo.

O simples exemplo anterior mostra que não podemos, em geral, concluir da continuidade de uma função limite de uma sucessão de funções à custa da continuidade dos termos da sucessão e da existência de limite ponto a ponto. Um fenómeno análogo também é observável se ingenuamente quisermos permutar integrais e limites de sucessões de funções.

Exemplo. Para cada $k\in\mathbb{N}$ define-se $g_k:[0,1]\to\mathbb{R}$ via $g_k(x)=k^2 x^k (1-x)$.

Para cada $k$, a função $g_k$ é contínua e integrável em $[0,1]$. Temos \[\int_0^1 g_k(x)\, dx=k^2 \int_0^1 x^k-x^{k+1}\, dx = k^2\left(\frac{1}{k+1}- \frac{1}{k+2}\right)=\frac{k^2}{(k+1)(k+2)}\to 1 \] quando $k\to \infty$.

Como $g_k(0)=g_k(1)=0$ para todo o $k$ e, para $0\lt x\lt 1$, temos $\log x\lt 0$, podemos afirmar que \[\lim_{k\to+\infty}g_k(x)=\lim_{k\to+\infty}k^2e^{k\log x}(1-x)= 0.\]

Assim \[\lim_{k\to + \infty}\int_0^1 g_k(x)\, dx =1 \neq 0 =\int_0^1 \lim_{k\to+\infty} g_k(x)\, dx.\]

Para compreender porque é que isto acontece, convém começar por observar que cada $k$ temos $g_k\geq 0$, o máximo de cada $g_k$ ocorre em $1-\frac{1}{k}$ e o máximo vale $k\left(1-\frac{1}{k}\right)^k\to + \infty$. Como que as contribuições para a área entre o gráfico da função e o eixo dos $x$s concentram-se cada vez mais perto de $1$...

Gráficos das funções g_k
Gráficos das funções $g_k$ para $k=1,\dots,5$.

Fim de exemplo.

Convergência uniforme

Interessa-nos isolar propriedades das sucessões de funções que forneçam condições suficientes para eliminar as possibilidades que acabámos de exemplificar.

Definição (Convergência uniforme). Seja $\emptyset\neq S\subset\mathbb{R}^n$ e considere-se para cada $k\in\mathbb{N}$ uma função $f_k:S\to\mathbb{R}^m$. Diz-se que a sucessão $(f_k)_{k\in\mathbb{N}}$ converge uniformemente para uma função $f:S\to\mathbb{R}^m$ se, dado um qualquer $\epsilon\gt 0$, existe $j\in\mathbb{N}$ tal que para $k\gt j$ temos $\|f_k(\boldsymbol{x})-f(\boldsymbol{x})\|\lt \epsilon$ para todo o $\boldsymbol{x}\in S$.

O facto de $j$ poder ser determinado independentemente de $x$ é o que diferencia a situação da definição anterior da simples convergência pontual.

Teorema (Continuidade do limite das sucessões uniformemente convergentes de funções contínuas). Nas condições da definição anterior, em particular sendo a convergência uniforme, suponha-se que cada $f_k$ é contínua. Então $f$ é uma função contínua.

Demonstração. Sejam $\epsilon\gt 0$ e $\boldsymbol{x}_0\in S$. Queremos verificar a definição de continuidade de $f$ em $\boldsymbol{x}_0$. Isto corresponderá a garantir a existência de $\delta\gt 0$ tal que para $\boldsymbol{x}\in S$ com $\|\boldsymbol{x}-\boldsymbol{x}_0\|\lt \delta$ temos necessariamente $\|f(\boldsymbol{x})-f(\boldsymbol{x}_0)\|\lt \epsilon$.

Usamos a convergência uniforme para escolher $j$ tal que para cada $k\gt j$ temos $\|f(\boldsymbol{x})-f_k(\boldsymbol{x})\|\lt \epsilon/3$. Fixemos um tal $k$. Usando agora a continuidade de $f_k$ em $\boldsymbol{x}_0$, existe $\delta\gt 0$ tal que $\|\boldsymbol{x}-\boldsymbol{x}_0\|\lt \delta$ garante $\|f_k(\boldsymbol{x})-f_k(\boldsymbol{x}_0)\|\lt \epsilon/3$. Então, usando a desigualdade triangular, \begin{split}\|f(\boldsymbol{x})-f(\boldsymbol{x}_0)\|\leq \|f(\boldsymbol{x})-f_k(\boldsymbol{x})\|+ \|f_k(\boldsymbol{x})-f_k(\boldsymbol{x}_0)\| + \|f_k(\boldsymbol{x}_0)-f(\boldsymbol{x}_0)\| \\ \lt \frac{\epsilon}{3}+\frac{\epsilon}{3}+\frac{\epsilon}{3}=\epsilon.\end{split} Fim de demonstração.

Proposição. Seja $I\subset\mathbb{R}^n$ um intervalo limitado e, para cada $k\in\mathbb{N}$ seja $f_k:I\to\mathbb{R}$ uma função integrável. Se a sucessão $(f_k)$ convergir uniformemente para uma função $f$ integrável em $I$ então \[\int_I f= \lim_{k\to\infty}\int_I f_k.\]

[Note que se cada $f_k$ for contínua em $I$ podemos dispensar na hipótese a integrabilidade de $f$ pois o teorema anterior garante $f$ contínua em $I$ logo integrável.]

Ideia da demonstração. Seja $\epsilon\gt 0$ dado. Escolha-se $j$ como na definição de continuidade uniforme. Para $k\gt j$ \[\left|\int_I f- \int_I f_k\right|\leq \int_I |f-f_k|\lt \epsilon \operatorname{vol}(I).\] Fim da ideia de demonstração.

Um resultado que lida com o problema análogo relativo a diferenciação pode ser obtido usando os resultados anteriores e o teorema fundamental do cálculo.

Proposição. Sejam $I\subset\mathbb{R}^n$ um intervalo aberto, $1\leq i\leq n$, $\boldsymbol{x}_0\in I$ e, para cada $k\in\mathbb{N}$, $f_k:I\to\mathbb{R}^m$ é uma função de classe $C^1(I)$. Se a sucessão $\left(\frac{\partial f_k}{\partial x_i}\right)_k$ convergir uniformemente em $I$ e a sucessão $\left( f_k (\boldsymbol{x})\right)_k$ convergir para todos os $\boldsymbol{x}$ tais que $x_i=x_{0i}$ para uma função de classe $C^1$, então $f_k$ converge em $I$ para uma função $f\in C^1(I)$ com derivada parcial \[\frac{\partial f}{\partial x_i}=\lim_{k\to\infty}\frac{\partial f_k}{\partial x_i}.\]

Demonstração. Como no caso geral pode exprimir-se $I$ como uma união de intervalos abertos limitados, pode supor-se, sem perda de generalidade, que $I$ é limitado. Seja $\boldsymbol{x}_0=\left(x_{0j}\right)_{j=1,\dots,n}$. Temos, via regra de Barrow, \[f_k(\boldsymbol{x})=\int_{x_{0i}}^{x_i}\frac{\partial f_k}{\partial x_i}(x_1,\dots,x_{i-1},t,x_{i+1},\dots,x_n)\, dt+f_k(x_1,\dots,x_{i-1},x_{0i},x_{i+1},\dots,x_n).\] A convergência uniforme da derivada parcial garante que converge para uma função $g:I\to\mathbb{R}^m$ contínua em $I$ e portanto integrável em $I$ em ordem a $x_i$. Definindo então \begin{split}f(\boldsymbol{x})=\int_{x_{0i}}^{x_i} g(x_1,\dots,x_{i-1},t,x_{i+1},\dots,x_n)\, dt \\ + \lim_{k\to\infty}f_k(x_1,\dots,x_{i-1},x_{0i},x_{i+1},\dots,x_n),\end{split} a aplicação do teorema fundamental do cálculo garante que $\frac{\partial f}{\partial x_i}(\boldsymbol{x})=g(\boldsymbol{x})$. Fim de demonstração.

Séries de funções

A maior parte das aplicações que temos em vista para os resultados anteriores envolvem séries de funções. Relembra-se que o estudo de uma série corresponde ao estudo da respectiva sucessão de somas parciais. Portanto é natural dizermos que uma série de funções converge uniformemente para a sua soma num dado conjunto se a respectiva sucessão de somas parciais convergir uniformemente nesse conjunto. Mais concretamente

Definição (Convergência uniforme de uma série de funções). Para $k\in\mathbb{N}$ e $A\subset\mathbb{R}^n$ considerem-se funções $f_k:A\to\mathbb{R}$ e a série $\sum_{k=0}^{+\infty} f_k(x)$ com $x\in A$. Diz-se que a série converge converge uniformemente em $A$ se a sucessão de somas parciais $(s_k)_k$ definida por $s_k(x)=\sum_{j=0}^k f_j(x)$ for uniformemente convergente em $A$.

Começamos por estabelecer uma condição suficiente para convergência uniforme de uma série de funções que se vai revelar relativamente simples mas frequentemente útil.

Teorema (Critério de Weierstrass de convergência uniforme de séries de funções). Considere-se uma série de funções com valores em $\mathbb{R}^m$ da forma $\sum_k f_k(x)$, com $k\in\mathbb{N}$ e $x\in A\subset\mathbb{R}^n$. Se existir uma sucessão numérica $(a_k)_k$ tal que \[\|f_k(x)\|\leq a_k\] para todo o $x\in A$ e $\sum a_k$ é uma série convergente, então $\sum_k f_k$ é absoluta e uniformemente convergente em $A$.

Ideia da demonstração. Para $j\lt k$ \begin{split}\|s_k(\boldsymbol{x})-s_j(\boldsymbol{x})\|=\|f_{j+1}(\boldsymbol{x}) +\dots+f_{k}(\boldsymbol{x})\|\leq a_{j+1}+\dots+a_k \leq \sum_{l=j+1}^{+\infty} a_l \to 0 \\ \text{ quando } j\to +\infty.\end{split} Fim da ideia da demonstração.

Dois tipos particularmente importantes de séries de funções são as séries de potências e as séries trigonométricas.

Séries de Potências

Relembramos que as séries de potências têm a forma (ou podem colocar-se na forma, usando uma mudança de variável correspondendo a uma translacção) $\sum a_k x^k$ em que $(a_k)_{k\in\mathbb{N}}$ é uma sucessão de números reais e $x\in\mathbb{R}$. Estudar uma série de potências envolve saber para que valores de $x$ a série é convergente, se a convergência é ou não absoluta, e estudar as propriedades da função de $x$ que nos dá a soma da série.

Convém ter presente os seguintes resultados sobre séries numéricas:

Proposição (Condição necessária de convergência). Se uma série $\sum a_k$ é convergente então $\lim_{k\to\infty}a_k=0$.

Proposição (Convergência absoluta). Seja $\sum a_k$ uma série tal que a série dos módulos $\sum |a_k|$ é convergente (diz-se que a série é absolutamente convergente). Então $\sum a_k$ é convergente.

Proposição (Critério da raiz). Seja $\sum a_k$ uma série numérica. Se $\limsup \sqrt[k]{|a_k|}\lt 1$ então a série é absolutamente convergente. Se $\limsup \sqrt[k]{|a_k|}\gt 1$ então a série é divergente.

Proposição (Critério de Leibniz). Seja $\sum (-1)^k a_k$ uma série numérica, em que $(a_k)$ é uma sucessão decrescente de números positivos com limite $0$. Então $\sum (-1)^k a_k$ é convergente.

Ideia da demonstração
Diagrama sugerindo as convenções na demonstração do critério de Leibniz.

Começamos por provar que se $(s_k)_{k\in \mathbb{N}_1}$ é uma sucessão verificando:

  1. $(s_{2k})$ é decrescente,
  2. $(s_{2k+1})$ é crescente,
  3. $\lim_{k\to + \infty} s_{k+1} - s_{k} =0$,
  4. $s_2\geq s_{2k+1}$ para todo o $k$,
  5. $s_1\leq s_{2k}$ para todo o $k$,

então $(s_k)$ é convergente.

Com efeito 1. e 4. por um lado e 2. e 5. por outro garantem que as subsucessões $(s_{2k})$ e $(s_{2k+1})$ são convergentes. Sejam $m=\lim_{k\to + \infty}s_{2k+1}$ e $M=\lim_{k\to + \infty}s_{2k}$. A condição 3. garante que $m=M$. Segue da definição de limite que este valor também é o limite de $(s_k)$.

Para provar o critério de Leibniz vamos considerar como $(s_k)$ a sucessão de somas parciais da série, isto é, para cada $k\in\mathbb{N}_1$, tomamos $s_k=\sum_{j=1}^k (-1)^k a_k$.

Temos $s_{2(k+1)}-s_{2k}=a_{2k+2}-a_{2k+1}\leq 0$ pelo que verificámos a condição 1.

Temos $s_{2(k+1)+1}-s_{2k+1}=-a_{2k+3}+a_{2k+2}\geq 0$ pelo que verificámos a condição 2.

$\lim_{k\to + \infty} s_{2k+1} - s_{2k} = \lim_{k\to + \infty} (-1)^{k+1}a_{k+1} - (-1)^{k}a_{k}=0$ pelo que verificámos 3.

$s_{2k+1}= -a_{2k+1}+ s_{2k}\leq s_{2k} \leq s_2$ pelo que verificámos 4.

$s_{2k+2}= a_{2k+2}+s_{2k+1}\geq s_{2k+1} \geq s_1$ pelo que verificámos 5.

Fim da ideia da demonstração.

O resultado fundamental sobre convergência de séries de potências é uma consequência da condição necessária de convergência, convergência absoluta e critério da raiz.

Proposição (Raio de convergência de séries de potências). Seja $\sum a_k x^k$ uma série de potências. Defina-se $R=1 / \limsup_{k\to\infty} \sqrt[k]{\left|a_k\right|}\in [0,+\infty]$. Então a série de potências $\sum a_k x^k$ converge absolutamente para $x\in {]-R,R[}$ e diverge para $|x|\gt R$.

Ideia da demonstração. $\limsup_{k\to\infty} \sqrt[k]{\left| a_k x^k \right|}=|x| \limsup_{k\to\infty} \sqrt[k]{\left| a_k\right|}$.

Notas
  • $R$ é conhecido como raio de convergência da série de potências.
  • No fórmula do raio de covergência segue-se a convenção, natural e correcta neste contexto, de que $1/0=+\infty$, $1/{+\infty}=0$.

O resultado não faz quaisquer afirmações para o caso em que $|x| = R$. Que tal é inultrapassável em geral, requerendo análise casuística, pode ser observado considerando as séries de potências $\sum x^k$, $\sum \frac{x^k}{k}$ e $\sum \frac{x^k}{k^2}$, séries em que o raio de convergência é $1$ mas em que o comportamento para $|x|=1$ é distinto entre os três casos. Necessitará do critério de Leibniz para provar convergência de $\sum \frac{x^k}{k}$ se $x=-1$.

Proposição (Convergência uniforme de série de potências). Seja $\sum a_k x^k$ uma série de potências com raio de convergência $R\gt 0$. Então a série é uniformemente convergente em qualquer intervalo da forma $[-r,r]$ em que $0\lt r\lt R$.

Ideia da demonstração. Para $x\in [-r, r]$ seja $0\lt r \lt r_\ast \lt R$. podemos estimar \[|a_k x^k|\leq |a_k| r^k = |a_k| r_\ast^k (r/r_\ast)^k .\] Do resultado sobre o raio do convergência decorre que $|a_k| r_\ast^k$ é majorado e portanto o termo geral da série é majorável por $M (r/r_\ast)^k$ para uma certa constante $M\gt 0$. Isto permite usar o critério de Weierstrass para garantir que a série é uniformemente convergente em $[-r_\ast, r_\ast]$. Fim da ideia de demonstração.

Proposição. Seja $\sum a_k x^k$ uma série de potências com raio de convergência $R\gt 0$. Então também têm raio de convergência $R$ as séries $\sum \frac{a_k}{k+1} x^{k+1}$ e $\sum k a_k x^{k-1}$.

Ideia da demonstração. Use a fórmula do raio de convergência notando que $\lim_{k\to + \infty}k^{1/k} = \lim_{k\to + \infty}(1/k)^{1/k}=1$. Fim da ideia de demonstração.

Os resultados anteriores garantem-nos que as séries de potências que obtemos por diferenciação e primitivação termo a termo têm o mesmo raio de convergência e portanto todas elas são uniformemente covergentes em subintervalos compactos de $]-R,R[$. Em particular isto garante-nos que a diferenciação de séries de potências pode ser feita termo a termo no interior do intervalo de convergência algo que, em geral, não é válido para séries de funções mesmo que uniformemente convergentes.

Corolário (Integração e diferenciação de séries de potências). Seja $f(x)=\sum_{k=0}^{+\infty}a_k x^k$ uma série de potências com raio de convergência $R\gt 0$. Então \begin{align*}\int_0^x f(t)\, dt & =\sum_{k=0}^{+\infty}\frac{a_k}{k+1} x^{k+1} \\ f'(x) &= \sum_{k=1}^{+\infty}k a_k x^{k-1} \end{align*} para todo o $x\in {]-R,R[}$.

Exemplos. Vamos obter séries de potências que representam algumas funções começando com a conhecida fórmula da soma de uma série geométrica e usando mudanças de variável e os resultados anteriores para justificar outras a partir desta. Temos \begin{equation}\frac{1}{1-x} = \sum_{k=0}^{+\infty} x^k=1+x+x^2+\dots + x^k +\dots, \text{ para $|x|\lt 1$.}\end{equation} Susbstituindo $x$ por $-x$ obtemos \begin{equation}\frac{1}{1+x} = \sum_{k=0}^{+\infty} (-1)^k x^k=1-x+x^2-\dots +(-1)^k x^k +\dots, \text{ para $|x|\lt 1$}. \label{serie:2}\end{equation} Integrando em ($\ref{serie:2}$) entre $0$ e $x$ obtemos \begin{equation}\log(1+x)= \sum_{k=0}^{+\infty} \frac{(-1)^k}{k+1} x^{k+1}=x-\frac{x^2}{2}+\frac{x^3}{3}-\dots +\frac{(-1)^k}{k+1} x^{k+1} +\dots, \text{ para $|x|\lt 1$}. \label{serie:2a}\end{equation} Substituindo $x$ por $x^2$ em ($\ref{serie:2}$) obtém-se \begin{equation}\frac{1}{1+x^2} = \sum_{k=0}^{+\infty} (-1)^k x^{2k}=1-x^2+x^4-\dots +(-1)^k x^{2k} +\dots, \text{ para $|x|\lt 1$}. \label{serie:3}\end{equation} Integrando em ($\ref{serie:3}$) entre $0$ e $x$ obtemos \begin{equation}\begin{aligned}\arctg x &= \int_0^x \frac{1}{1+t^2}\, dt = \sum_{k=0}^{+\infty} \frac{(-1)^k}{2k+1} x^{2k+1}\\ & =x-\frac{x^3}{3}+\frac{x^5}{5}-\dots +(-1)^k \frac{x^{2k+1} }{2k+1}+\dots, \text{ para $|x|\lt 1$}. \end{aligned} \label{serie:4}\end{equation} Diferenciando ambos os lados de ($\ref{serie:2}$) obtém-se \begin{equation}\begin{aligned}-\frac{1}{(1+x)^2} & = \sum_{k=1}^{+\infty} (-1)^k k x^{k-1}\\ & =-1+2x-3x^3-\dots +(-1)^k kx^{k-1} +\dots, \text{ para $|x|\lt 1$}.\end{aligned} \label{serie:5}\end{equation}

Um resultado de permutação de limite com integral mas não envolvendo convergência uniforme

Integrais de sucessões monótonas de funções em escada

O resultado seguinte á apresentado aqui com dois objectivos: mostrar que, sob hipóteses adicionais adequadas, podemos dispensar a convergência uniforme para obter resultados deste tipo e para preparar o terreno a uma generalização do conceito de integral.

Definição (Função em escada). Uma função $s:\mathbb{R}^n\to\mathbb{R}$ diz-se uma função em escada se tiver valor $0$ no complementar de um intervalo limitado e fechado e se existir uma partição desse intervalo tal que $s$ é constante em dada um dos subintervalos abertos disjuntos dois a dois definidos (da maneira usual na definição de integral) pela partição.

Proposição. Seja $(s_k)$ uma sucessão decrescente de funções em escada definidas em $\mathbb{R}^n$, não negativas e convergindo para $0$, excepto possivelmente num conjunto de medida nula. Então $\lim_{k\to\infty}\int_I s_k =0$.

Demonstração. Dado a sucessão ser decrescente e não negativa excepto possivelmente num conjunto de medida nula, bastará mostrar que dado um qualquer $\epsilon\gt 0$ existe $j$ tal que $\int_I s_j\lt \epsilon$.

Seja $E$ o conjunto onde $(s_k)$ não converge para $0$. $E$ tem medida $n$-dimensional nula.

Para cada $k\in\mathbb{N}$, seja $D_k$ a união das fronteiras dos subintervalos abertos definidos pela partição onde $s_k$ é constante. Trata-se de uma união finita de fronteiras de intervalos e portanto $D_k$ tem medida nula.  Mas então $D=\cup_k D_k$ é uma união numerável de conjuntos de medida nula pelo que $D$ também tem medida nula.

Seja $I$ um intervalo limitado no complementar do qual todos os $s_k$ são nulos e que podemos supor ter volume positivo. Seja $L\gt 0$ um majorante de $s_0$ (e portanto também dos restantes $s_k$) no complementar de $E\cup D\cup \partial I$. Como $E\cup D\cup \partial I$ tem medida nula, existe uma família contável de intervalos abertos $\{I_\alpha\}$ tal que $\cup I_\alpha \supset E\cup D\cup \partial I$ e $\sum_\alpha \operatorname{vol}(I_\alpha)\lt \frac{\epsilon}{2L}$.

Para cada $\boldsymbol{x}\in \overline{I}\setminus (E\cup D\cup \partial I)$ existe $k(\boldsymbol{x})\in\mathbb{N}$ tal que $s_{k(\boldsymbol{x})}\lt \frac{\epsilon}{2}$ e um intervalo aberto $J_{\boldsymbol{x}}\ni \boldsymbol{x}$ onde $s_{k}$ é constante (igual a $s_{k(\boldsymbol{x})}\lt \frac{\epsilon}{2\operatorname{vol}(I)}$).

A família de intervalos abertos constituída pelos $I_\alpha$s e $J_{\boldsymbol{x}}$s constitui uma cobertura aberta de $\overline{I}$ que, pelo teorema de Heine-Borel, possui uma subcobertura finita. Tal permite considerar $j$ como sendo o maior dos $k(\boldsymbol{x})$ associados aos $J_{\boldsymbol{x}}$ nesta subcobertura. Com efeito \[\int s_j \lt L \frac{\epsilon}{2L} + \frac{\epsilon}{2\operatorname{vol}(I)} \operatorname{vol}(I)=\epsilon.\]

Fim de demonstração.


Última edição desta versão: João Palhoto Matos, 31/08/2019 09:37:45.