Riassunto di Analisi II — Appunti TiTilda

Indice

Questa pagina è la seconda versione, per la prima versione, visitare questa pagina.

Capitolo Uno: Equazioni differenziali

1.1 Equazioni differenziali ordinarie (EDO)

Risolvere un’equazione differenziale vuol dire trovare una funzione y(t)y(t) che soddisfa un’equazione del tipo y(t)=f(t,y(t))y'(t) = f(t, y(t)) (un equazione del genere è detta in forma normale).

Si dice integrale generale l’insieme di tutte le soluzioni di una EDO.

Una EDO si dice del primo ordine se contiene al massimo occorrnze della derivata prima della funzione incognita.

Per trovare il dominio di una EDO, si scrive f(t,s)f(t, s) e si trovano le condizioni di esistenza sul piano t-s.

1.2 Soluzioni costanti

Una soluzione costante è una soluzione della forma y(t)=kty(t) = k \quad \forall t. Per trovare le soluzioni costanti, so sostituisce nella EDO y(t)y(t) con kk e y(t)y'(t) con 00 (infatti la derivata di una costante è nulla) e si risolve per kk l’equazione ottenuta.

1.3 EDO a variabili separabili

Una EDO del primo ordine si dice a variabili separabili se è della forma y(t)=h(t)g(y(t))y'(t) = h(t) \cdot g(y(t)) con h:J1RRh : J_1 \sube \mathbb{R} \to \mathbb{R} e g:J2RRg : J_2 \sube \mathbb{R} \to \mathbb{R} continue.

Si dice a variabili separabili perchè è possibile portare da un lato tutte le occorrenze di y(t)y(t) e y(t)y'(t) lasciando dall’altro tutte le occorrenze di tt.

Le soluzioni costanti di una EDO a variabili separabili sono y(t)=cy(t) = c dove cc sono le soluzioni di g(c)=0g(c) = 0.

Per risolvere una EDO a variabili separabili, è necessario seguire una procedura predefinita:

  1. Da y(t)=h(t)g(y(t))y'(t) = h(t) \cdot g(y(t)) trovo che f(t,y(t))=h(t)g(y(t))f(t, y(t)) = h(t) \cdot g(y(t)) quindi f(t,s)=h(t)g(s)f(t, s) = h(t) \cdot g(s).
  2. Trovo le soluzioni costanti y(t)=sy(t) = s imponendo g(s)=0g(s) = 0.
  3. Divido l’equazione originale da entrambi i lati per g(y(t))g(y(t)) e integro da entrambi i lati da t0t_0 a tt, ottenendo t0ty(t)g(y(t))dt=t0th(t)dt \int_{t_0}^t \frac{y'(t)}{g(y(t))} dt = \int_{t_0}^t h(t) dt Il lato destro viene risolto normalmente, il lato sinistro diventa t0ty(t)g(y(t))dt=y(t0)y(t)1g(y)dy \int_{t_0}^t \frac{y'(t)}{g(y(t))} dt = \int_{y(t_0)}^{y(t)} \frac{1}{g(y)} dy e si risolve per t(t)t(t), inglobando tutte le costanti in CC (o altre lettere se la CC è già stata utilizzata).

1.4 Problema di Cauchy per una EDO del primo ordine

Data una EDO del primo ordine y(t)=f(t,y(t))y'(t) = f(t, y(t)), sia (t0,y0)(t_0, y_0) un punto appartenente al dominio di ff. Il problema di Cauchy consiste nel determinare una soluzione dell’equazione che passi per quel punto.

{y(t)=f(t,y(t))y(t0)=y0 \begin{cases} y'(t) = f(t, y(t)) \\ y(t_0) = y_0 \end{cases}

Per una EDO del primo ordine, viene imposta quindi una sola condizione aggiuntiva.

Per risolvere un problema di Cauchy di tale genere, si seguono i seguenti passaggi:

  1. Trovo l’integrale generale.
  2. Impongo la condizione aggiuntiva per trovare la CC.
  3. Sostituisco la CC nella soluzione originale.

Se il dominio di ff è diviso in più parti, è sufficiente considerare solo la regione in cui si trova il punto (t0,y0)(t_0, y_0).

1.5 EDO del primo ordine lineari

Una EDO del primo ordine lineare in forma normale è una EDO della forma y(t)=a(t)y(t)+b(t)y'(t) = a(t) \cdot y(t) + b(t) con a,b:JRRa,b : J \sub \mathbb{R} \to R continue su JJ.

Teorema di esistenza e unicità globale per il problema di Cauchy

Siano JRJ \sub \mathbb{R}, a,b:JRa,b : J \to \mathbb{R} continue su JJ. Per ogni t0Jt_0 \in J e y0Ry_0 \in \mathbb{R} il problema di Cauchy ha un’unica soluzione definita tJ\forall t \in J.

Da questo ne derivano 3 cose molto importanti:

  1. Dato un qualunque (t0,y0)J×R(t_0, y_0) \in J \times \mathbb{R}, c’è una soluzione della EDO che passa per tale punto; i grafici delle soluzioni riempiono tutto J×RJ \times \mathbb{R}.
  2. La soluzione è unica: i grafici non si intersecano.
  3. Tutte le soluziono sono definite tJ\forall t \in J.

Per risolvere una EDO del primo ordine lineare della forma y(t)=a(t)y(t)+b(t)y'(t) = a(t) \cdot y(t) + b(t), considero A(t)A(t) primitiva di a(t)a(t), successivamente, moltiplico da entrambi i lati per eA(t)e^{-A(t)} e porto a sinistra tutti i termini che contengono y:

y(t)eA(t)=a(t)eA(t)y(t)+b(t)eA(t)y(t)eA(t)a(t)eA(t)y(t)=b(t)eA(t) y'(t) \cdot e^{-A(t)} = a(t) \cdot e^{-A(t)} \cdot y(t) + b(t) \cdot e^{-A(t)} \\ y'(t) \cdot e^{-A(t)} - a(t) \cdot e^{-A(t)} \cdot y(t) = b(t) \cdot e^{-A(t)} \\

Ora riconosco che (y(t)eA(t))=y(t)eA(t)y(t)eA(t)a(t)(y(t) \cdot e^{-A(t)})' = y'(t) \cdot e^{-A(t)} - y(t) \cdot e^{-A(t)} \cdot a(t) dunque posso sostituire la parte a sinistra dell’uguale con (y(t)eA(t))(y(t) \cdot e^{-A(t)})':

(y(t)eA(t))=b(t)eA(t) (y(t) \cdot e^{-A(t)})' = b(t) \cdot e^{-A(t)}

Per il teorema fondamentale del calcolo integrale, posso integrare da ambo i lati, poi isolo y(t)y(t):

t0t(y(x)eA(x))dx=t0tb(x)eA(x)dx[y(x)eA(x)]t0t=t0tb(x)eA(x)dxy(t)eA(t)y(t0)eA(t0)=C=t0tb(x)eA(x)dxy(t)eA(t)=t0tb(x)eA(x)dx+Cy(t)=eA(t)(t0tb(x)eA(x)dx+C) \int_{t_0}^t \left(y(x) \cdot e^{-A(x)} \right)' dx = \int_{t_0}^t b(x) \cdot e^{-A(x)} dx \\ \left[ y(x) \cdot e^{-A(x)} \right]_{t_0}^{t} = \int_{t_0}^t b(x) \cdot e^{-A(x)} dx \\ y(t) \cdot e^{-A(t)} - \underbrace{y(t_0) \cdot e^{-A(t_0)}}_{= C} = \int_{t_0}^t b(x) \cdot e^{-A(x)} dx \\ y(t) \cdot e^{-A(t)} = \int_{t_0}^t b(x) \cdot e^{-A(x)} dx + C \\ y(t) = e^{A(t)} \left( \int_{t_0}^t b(x) \cdot e^{-A(x)} dx + C \right)

E’ detta omogenea una EDO lineare con b(t)=0tb(t) = 0 \forall t.

In tal caso, l’EDO è anche a variabili separabili e si può risolvere come si preferisce.

1.6 Equazioni di Bernoulli

Un’equazione di Bernoulli è una EDO del primo ordine non lineare della forma y(t)=k(t)y(t)+h(t)y(t)αy'(t) = k(t) \cdot y(t) + h(t) \cdot y(t)^\alpha con αR\alpha \in \mathbb{R}, α0\alpha \ne 0, α1\alpha \ne 1, h,kh, k continue.

Se α\alpha è irrazionale oppure è razionale con denominatore pari, allora yαy^\alpha ha senso solo se y0y \ge 0. Per semplificare, verrà trattato solo il caso di y>0αy \gt 0 \quad \forall \alpha. Per α{0,1}\alpha \in \{0, 1\}, non vale il teorema di unicità. Se α<0\alpha \lt 0 non ha senso y=0y = 0.

Per risolvere un’equazione di Bernoulli, c’è un procedimento da seguire.

Inizio cercando le soluzioni costanti:

Procedo cercando le soluzioni non costanti dividendo da entrambi i lati per y(t)αy(t)^\alpha:

y(t)y(t)α=k(t)y(t)1α+h(t) \frac{y'(t)}{y(t)^\alpha} = k(t) \cdot y(t)^{1 - \alpha} + h(t)

Pongo z(t)=y(t)1αz(t) = y(t)^{1 - \alpha} e calcolo z(t)z'(t):

z(t)=(1α)y(t)1α1y(t)=(1α)y(t)y(t)α=(1α)(k(t)y(t)1α+h(t))=(1α)(k(t)z(t)+h(t))=(1α)k(t)a(t)z(t)+(1α)h(t)b(t)=a(t)z(t)+b(t) \begin{align*} z'(t) &= (1 - \alpha) \cdot y(t)^{1 - \alpha - 1} \cdot y'(t)\\ &= (1 - \alpha) \cdot \frac{y'(t)}{y(t)^\alpha} \\ &= (1 - \alpha) \cdot \left( k(t) \cdot y(t)^{1 - \alpha} + h(t) \right) \\ &= (1 - \alpha) \cdot \left( k(t) \cdot z(t) + h(t) \right) \\ &= \underbrace{(1 - \alpha) \cdot k(t)}_{a(t)} \cdot z(t) + \underbrace{(1 - \alpha) \cdot h(t)}_{b(t)} &= a(t) \cdot z(t) + b(t) \end{align*}

Ora che ho ottenuto un’equazione lineare, la risolvo per z(t)z(t) e poi ritorno in yy:

y(t)=z(t)11α y(t) = z(t)^\frac{1}{1 - \alpha}

1.7 EDO del secondo ordine lineari

Una EDO del secondo ordine lineare è un’equazione della forma a(t)y(t)+b(t)y(t)+c(t)y(t)=f(t)a(t) \cdot y''(t) + b(t) \cdot y'(t) + c(t) \cdot y(t) = f(t) con a,b,c,f:JRRa, b, c, f : J \sube \mathbb{R} \to \mathbb{R} e a0a \ne 0.

1.8 Problema di Cauchy per una EDO del secondo ordine lineare

Il problema di Cauchy per una EDO del secondo ordine è analogo al problema di Cauchy per una EDO del primo ordine, ma vengono imposte, al posto che una, due condizioni aggiuntive che vanno a vincolare sia la yy che la yy'. In particolare, un problema di Cauchy per una EDO lineare del secondo ordine è un sistema della forma

{a(t)y(t)+b(t)y(t)+c(t)y(t)=f(t)y(t0)=y0y(t0)=v0 \begin{cases} a(t) \cdot y''(t) + b(t) \cdot y'(t) + c(t) \cdot y(t) = f(t) \\ y(t_0) = y_0 \\ y'(t_0) = v_0 \end{cases}

Teorema di esistenza e unicità globale per il problema di Cauchy

Data la EDO a(t)y(t)+b(t)y(t)+c(t)y(t)=f(t)a(t) \cdot y''(t) + b(t) \cdot y'(t) + c(t) \cdot y(t) = f(t) con a,b,c,f,:JRRa, b, c, f, : J \sube \mathbb{R} \to \mathbb{R} continue e a0a \ne 0 in JJ e assegnati t0Jt_0 \in J e y0,v0Ry_0, v_0 \in \mathbb{R} allora il problema di Cauchy definito come sopra ha un’unica soluzione y(t)y(t) definita tJ\forall t \in J.

Per il principio di sovrapposizione, se y1y_1 e y2y_2 sono soluzione della stessa EDO, y1y2y_1 - y_2 è soluzione della EDO omogenea associata e tutte le soluzioni di quest ultima formano uno spazio vettoriale

Teorema di struttura dell’integrale generale di EDO del secondo ordine lineari omogenee

Siano a,b,c:JRRa,b,c : J \sube \mathbb{R} \to \mathbb{R} continue in JJ con a0a \ne 0.

L’integrale generale dell’equazione omogenea a(t)y(t)+b(t)y(t)+c(t)y(t)=0a(t) \cdot y''(t) + b(t) \cdot y'(t) + c(t) \cdot y(t) = 0 è uno spazio vettoriale di dimensione 2, cioè le soluzioni sono della forma y0(t)=C1yo1(t)+C2yo2(t)y_0(t) = C_1 \cdot y_{o1}(t) + C_2 \cdot y_{o2}(t) con C1,C2RC_1, C_2 \in \mathbb{R} dove yo1y_{o1} e yo2y_{o2} sono due soluzioni linearmente indipendenti.

Dimostrazione

Sia VV lo spazio vettoriale delle funzioni di classe C2\mathcal{C}^2 su JJ.

L’integrale generale dell’omogenea è il seguente sottoinsieme di VV:

W={yV:ay+by+cy=0}=kerL W = \left\{ y \in V : ay'' + by' + cy = 0 \right\} = \ker L

dove LL è l’operatore definito come Ly=ay+by+cyLy = ay'' + by' + cy.

In quanto kernel di un’applicazione lineare, WW è sottospazio vettoriale.

Per dimostrare che WW ha dimensione 2, devo

  1. Esibire due soluzioni linearmente indipendenti
  2. Dimostrare che ogni altra soluzione si scrive come combinazione lineare delle due soluzioni trovate al punto precedente.

Cerco due soluzioni linearmente indipendenti.

Sia t0Jt_0 \in J, per il teorema di esistenza e unicità globale, posso scegliere due punti linearmente indipendenti e cercare, per ciascun punto, una soluzione che passa per tale punto.

Scelgo i punti (1,0)(1, 0) e (0,1)(0, 1)

{ayo1+byo1+cyo1=0yo1(t0)=1yo1(t0)=0{ayo2+byo2+cyo2=0yo2(t0)=0yo2(t0)=1 \begin{cases} ay''_{o1} + by'_{o1} + cy_{o1} = 0 \\ y_{o1}(t_0) = 1 \\ y'_{o1}(t_0) = 0 \end{cases} \qquad \begin{cases} ay''_{o2} + by'_{o2} + cy_{o2} = 0 \\ y_{o2}(t_0) = 0 \\ y_{o2}(t_0) = 1 \end{cases}

Per verificare che le due soluzioni sono linearmente indipendenti, suppongo, per assurdo, che non lo siano, quindi che yo1(t)=kyo2(t)tJy_{o1}(t) = k \cdot y_{o2}(t) \quad \forall t \in J.

Per t=t0t = t_0 si ha che yo1=kyo2    1=k0y_{o1} = k \cdot y_{o2} \iff 1 = k \cdot 0 che è impossibile, pertanto le due soluzioni sono linearmente indipendenti.

Ora dimostro che qualunque soluzione è combinazione lineare delle due precedenti.

Sia yoy_o una soluzione qualunque dell’equazione omogenea:

yo(t)=C1yo1(t)+C2yo2(t)    {yo(t0)=C1yo1(t0)+C2yo2(t0)=C11+C20=C1yo(t0)=C1yo1(t0)+C2yo2(t0)=C10+C21=C2 y_o(t) = C_1 \cdot y_{o1}(t) + C_2 \cdot y_{o2}(t) \implies \begin{cases} y_o(t_0) = C_1 \cdot y_{o1}(t_0) + C_2 \cdot y_{o2}(t_0) = C_1 \cdot 1 + C_2 \cdot 0 = C_1\\ y'_o(t_0) = C_1 \cdot y'_{o1}(t_0) + C_2 \cdot y'_{o2}(t_0) = C_1 \cdot 0 + C_2 \cdot 1 = C_2 \end{cases}

Definisco ora una funzione z(t)=C1yo1(t)+C2yo2(t)=yo(t)z(t) = C_1 \cdot y_{o1}(t) + C_2 \cdot y_{o2}(t) = y_o(t). z(t)z(t) risolve lo stesso problema di Cauchy di yo(t)y_o(t) e quindi per il teorema di esistenza e unicità globale del problema di Cauchy, sono la stessa cosa.

1.9 Struttura dell’integrale generale di EDO del secondo ordine lineari non omogenee

Siano a,b,c:JRRa,b,c : J \sube \mathbb{R} \to \mathbb{R} continue in JJ con a0a \ne 0.

L’integrale generale dell’equazione completa a(t)y(t)+b(t)y(t)+c(t)y(t)=f(t)a(t)y''(t) + b(t)y'(t) + c(t)y(t) = f(t) è y(t)=yo(t)+yp(t)=C1yo1(t)+C2yo2(t)+yp(t)y(t) = y_o(t) + y_p(t) = C_1 \cdot y_{o1}(t) + C_2 \cdot y_{o2}(t) + y_p(t) con yoy_o soluzione dell’omogenea associata, yo1,yo2y_{o1}, y_{o2} soluzioni particolari linearmente indipendenti dell’omogenea associata e ypy_p soluzione particolare dell’equazione completa.

In pratica, l’integrale generale di una EDO del secondo ordine lineare non omogenea è uno spazio affine di dimensione due che consiste dello span delle soluzioni dell’omogenea associata, translata di ypy_p.

1.10 Risoluzione di EDO omogenee a coefficienti costanti

Per risolvere una edo omogenea a coefficienti costanti, scrivo il polinomio caratteristico p(λ)=aλ2+bλ+cp(\lambda) = a \lambda^2 + b \lambda + c e risolvo l’equazione caratteristica p(λ)=0p(\lambda) = 0 con Δ=b24ac\Delta = b^2 - 4ac.

A seconda del segno di Δ\Delta, l’integrale generale assume forme diverse:

Δ\Delta Integrale Generale
Δ>0\Delta \gt 0 y(t)=C1eλ1t+C2eλ2ty(t) = C_1 e^{\lambda_1 t} + C_2 e^{\lambda_2 t}
Δ=0\Delta = 0 y(t)=C1eλt+C2teλty(t) = C_1 e^{\lambda t} + C_2 t e^{\lambda t}
Δ<0\Delta \lt 0 y(t)=eλt(C1cos(λt)+C2sin(λt))y(t) = e^{\Re \lambda t}(C_1 \cos(\Im \lambda t) + C_2 \sin(\Im \lambda t))

La soluzione particolare la si può trovare con il metodo di somiglianza.

1.11 Sistemi differenziali lineari

Un sistema differenziale lineare è un’equazione della forma y(t)=Ay(t)+b(t)\underline y'(t) = A \underline y(t) + \underline b(t) con y,y,b(RR)n\underline y', \underline y, \underline b \in (\mathbb{R} \to \mathbb{R})^n, AMR(n)A \in \mathcal{M}_\mathbb{R}(n).

Tale equazione può essere espansa:

(y1yn)=A(y1yn)+(b1bn) \begin{pmatrix} y'_1 \\ \vdots \\ y'_n \end{pmatrix} = A \cdot \begin{pmatrix} y_1 \\ \vdots \\ y_n \end{pmatrix} + \begin{pmatrix} b_1 \\ \vdots \\ b_n \end{pmatrix}

Il problema di Cauchy per un sistema differenziale lineare consiste nell’imporre una condizione per ogni yiy_i:

{y(t)=Ay(t)+b(t)y(t0)=y0 \begin{cases} \underline y'(t) = A \underline y(t) + \underline b(t) \\ \underline y(t_0) = \underline y_0 \end{cases}

Teorema di esistenza e unicità globale per il problema di Cauchy

Sia AMR(n)A \in \mathcal{M}_\mathbb{R}(n) e bi:jRRb_i : j \sube \mathbb{R} \to \mathbb{R} continue. Dati t0Jt_0 \in J e y0R\underline y_0 \in \mathbb{R}, il problema di Cauchy enunciato come sopra, ha un’unica soluzione y(t)\underline y(t) definita t\forall t.

Questo teorema ha 2 conseguenze importanti:

  1. Se le funzioni bib_i sono definite e continue in tutto R\mathbb{R} allora le soluzione yi(t)y_i(t) sono definite in tutto R\mathbb{R}.
  2. Se il sistema è omogeneo (bi=0b_i = 0) allora {y(t)=Ay(t)y(t0)=0 \begin{cases} \underline y'(t) = A \cdot \underline y(t) \\ \underline y(t_0) = \underline 0 \end{cases} ha una sola soluzione.

Dato un sistema differenziale lineare n×nn \times n omogeneo, chiamiamo sistema fondamentale di soluzioni una famiglia di nn soluzioni linearmente indipendenti yo1(t),,yon(t)\underline y_{o1}(t), \dots, \underline y_{on}(t) che costituiscono una base dello spazio vettoriale delle soluzioni del sistema.

1.12 Determinante wronskiano

Supponiamo di conoscere nn soluzioni yo1(t),,yon(t)\underline y_{o1}(t), \dots, \underline y_{on}(t) di un sistema differenziale lineare n×nn \times n omogeneo: il sistema fondamentale esiste se e solo se esiste un t0t_0 (tipicamente 0) tale che det(yo1(t)yon(t))0\det(\underline y_{o1}(t) | \dots | \underline y_{on}(t)) \ne 0.

Si chiama matrice wronskiana la matrice ottenuta affiancando un sistema fondamentale:

W=yo1(t),,yon(t) W = \underline y_{o1}(t), \dots, \underline y_{on}(t)

Con questa notazione, l’integrale generale del sistema omogeneo diventa yo(t)=W(t)C\underline y_o(t) = W(t) \cdot \underline C con CR\underline C \in \mathbb{R} e la soluzione del problema di Cauchy si ottiene scegliendo C=W(t0)1yo\underline C = W(t_0)^{-1} \cdot \underline y_o quindi y(t)=W(t)[W(t0)]1yo\underline y(t) = W(t) \cdot [W(t_0)]^{-1} \cdot \underline y_o.

1.13 Risoluzione esplicita di sistemi con AA diagonalizzabile reale

Se AMR(2)A \in \mathcal{M}_\mathbb{R}(2) è diagonalizzabile reale (AA è diagonalizzabile reale     \iff esistono nn autovettori di AA che formano una base di Rn\mathbb{R}^n     \iff tutti gli autovalori sono regolari; se AA è simmetrica o ha nn autovalori reali distinti, allora è diagonalizzabile reale), detta SS la matrice ottenuta affiancando una base di Rn\mathbb{R}^n, vale che

S=(v1vn)S1AS=ΛΛ=diag(λ1,,λs)A=SΛS1 S = (\underline v_1 | \dots | \underline v_n) \qquad S^{-1} \cdot A \cdot S = \Lambda \qquad \Lambda = \text{diag}(\lambda_1, \dots, \lambda_s) \qquad A = S \cdot \Lambda \cdot S^{-1}

Una matrice wronskiana relativa al sistema omogeneo è W(t)=(eλ1tv1eλntvn)W(t) = (e^{\lambda_1 t} \underline v_1| \dots | e^{\lambda_n t} \underline v_n).

Eqivalentemente, l’integrale generale è y0(t)=C1eλ1tv1++Cneλntvn\underline y_0(t) = C_1 e^{\lambda_1 t} \underline v_1 + \dots + C_n e^{\lambda_n t} \underline v_n con C1,,CnRC_1, \dots, C_n \in \mathbb{R}.

1.14 Esponenziale di una matrice

Sia AMR(n)A \in \mathcal{M}_\mathbb{R}(n), la matrice esponenziale eAe^A è definita dalla serie

eA=k=0+Akk!=I+A+12A2+13A3+ e^A = \sum_{k = 0}^{+ \infty} \frac{A^k}{k!} = I + A + \frac{1}{2} A^2 + \frac{1}{3} A^3 + \dots

e risulta convergente A\forall A.

Se AA è diagonalizzabile reale, allora è più semplice calcolare la matrice esponenziale:

eA=Sdiag(eλ1,,eλn)S1 e^A = S \cdot \text{diag}(e^{\lambda_1} , \dots, e^{\lambda_n}) \cdot S^{-1}

ove SS è è la matrice ottenuta affiancando gli autovettori di AA è i vari λi\lambda_i sono gli autovalori.

Se AA è diagonalizzabile reale allora eAte^{At} è una matrice wronskiana relativa al sistema omogeneo y=Ay\underline y' = A \underline y e l’integrale generale di tale sistema si scrive come yo=eAtC\underline y_o = e^{At} \cdot \underline C con CR\underline C \in \mathbb{R}.

La matrice esponenziale è comoda per risolvere il problema di Cauchy: dato che (eAt0)1=eAt0(e^{At_0})^{-1} = e^{-At_0}, la soluzione del problema di Cauchy è y(t)=eA(tt0)y0\underline y(t) = e^{A(t - t_0)}\underline y_0.

1.15 Risoluzione esplicita di sistemi con AMR(2)A \in \mathcal{M}_\mathbb{R}(2 ) con autovalori complessi coniugati

Sia AMR(2)A \in \mathcal{M}_{\mathbb{R}}(2) con autovalori λ\lambda e λ\overline \lambda complessi coniugati, λ=0\Im \lambda = 0 e vC2\underline v \in \mathbb{C}^2 autovalore associato a λ\lambda. Un sistema fondamentale di soluzioni di un sistema omogeneo è dato da

yo1(t)=(eλtv)yo2(t)=(eλtv) y_{o1}(t) = \Re (e^{\lambda t} \underline v) \qquad y_{o2}(t) = \Im(e^{\lambda t} \underline v)

Equivalentemente, l’integrale generale è yo(t)=C1(eλtv)+C2(eλtv)y_o(t) = C_1 \Re(e^{\lambda t} \underline v) + C_2 \Im(e^{\lambda t} \underline v).

1.16 Sistemi non omogenei

Struttura dell’integrale generale dei sistemi non omogenei:

Siano AMR(n)A \in \mathcal{M}_\mathbb{R}(n) e bi:JRRb_i : J \sube \mathbb{R} \to \mathbb{R} continue. L’integrale generale del sistema differenziale lineare completo y(t)=Ay(t)+b(t)\underline y'(t) = A \underline y(t) + \underline b(t) è y(t)=yo(t)+yp(t)\underline y(t) = \underline y_o(t) + \underline y_p(t) dove yo(t)\underline y_o(t) è la soluzione del sistema omogeneo associato e yp(t)\underline y_p(t) è una soluzione particolare.

Sia y=Ay\underline y' = A \underline y e AMR(2)A \in \mathcal{M}_\mathbb{R}(2). Se il sistema ha soluzioni periodiche allora AA non è diagonalizzabile reale.

Per risolvere un sistema completo y(t)=Ay(t)+b(t)\underline y'(t) = A \cdot \underline y(t) + \underline b(t), prima di tutto si risolve il sistema omogeneo associato trovando la matrice wronskiana (tornerà utile nei passaggi successivi):

W(t)=(yo1(t)yon(t))yo(t)=W(t)CCR W(t) = (\underline y_{o1}(t) | \dots | \underline y_{on}(t)) \\ \underline y_o(t) = W(t) \cdot \underline C \qquad \underline C \in \mathbb{R}

Poi si procede calcolando l’integale generale utilizzando la seguente formula:

y(t)=W(t)([W(τ)1]b(τ)dτ+C)=W(t)[W(τ)1]b(τ)dτyp(t)+W(t)Cyo(t)CR \underline y(t) = W(t) \cdot \left( \int \left[ W(\tau)^{-1} \right] \cdot \underline b(\tau) d \tau + \underline C \right) = \underbrace{W(t) \cdot \int \left[ W(\tau)^{-1} \right] \cdot \underline{b}(\tau) d\tau}_{\underline y_p(t)} + \underbrace{W(t) \cdot \underline C}_{\underline y_o(t)} \qquad \underline C \in \mathbb{R}

In questa formula, per integrale di un vettore, si intende vettore di integrali, componente per componente.

Ricordando le proprietà dell’esponenziazione di matrici, nel caso specifico in cui AA è diagonalizzabile, è possibile scegliere come matrice wronskiana W(t)=eAtW(t) = e^{At}, semplificando la formula e rendendola formalmente identica alla formula per le EDO del primo ordine lineari:

y(t)=eAt(eAτb(τ)dτ+C)CR \underline y(t) = e^{At} \left( \int e^{-A\tau} \cdot \underline b(\tau) d \tau + \underline C \right) \qquad \underline C \in \mathbb{R}

Si semplifica anche la risoluzione del problema di Cauchy:

y(t)=eA(tt0)t0teAτb(τ)dτ+eA(tt0)y(t0) \underline y(t) = e^{A(t - t_0)} \cdot \int_{t_0}^t e^{-A \tau} \cdot \underline b(\tau) d \tau + e^{A(t - t_0)} \underline y(t_0)

Capitolo Due: Serie di funzioni

Siano fn:JRRf_n : J \sube \mathbb{R} \to \mathbb{R} con n=0,1,n=0, 1, \dots, allora la serie di funzioni di termine generale fnf_n è la successione delle somme parziali

S0(x)=f0(x)S1(x)=f0(x)+f1(x)Sk(x)=n=0kfn(x) \begin{align*} S_0(x) = & f_0(x) \\ S_1(x) = & f_0(x) + f_1(x) \\ \vdots & \\ S_k(x) = & \sum_{n = 0}^k f_n(x) \end{align*}

Fissato un xJ\overline x \in J, si ottiene una serie numerica.

Diciamo che una serie converge puntualmente o semplicemente nel punto xJ\overline x \in J se la serie numerica di termine generale fn(x)f_n(\overline x) è convergente, ovvero esiste finito il seguente limite:

limk+Sk(x)=limkn=0kfn(x) \lim_{k \to +\infty} S_k(\overline x) = \lim_{k \to \infty} \sum_{n = 0}^{k} f_n(\overline x)

Notare che, per una stessa funzione, questo limite potrebbe convergere per alcuno x\overline x e divergere o essere indeterminato per altri x\overline x.

E’ detto insieme di convergenza puntuale il sottoinsieme EJE \sube J di punti nei quali la serie converge (quindi dove il limite esiste finito).

La funzione somma della serie è una funzione f:ERf : E \to \mathbb{R} definita come

f(x)=n=0+fn(x)=limk+Sk(x) f(x) = \sum_{n = 0}^{+ \infty} f_n(x) = \lim_{k \to + \infty} S_k(x)

La serie di termine generale fn(x)f_n(x) con xJx \in J converge assolutamente in xJ\overline x \in J se la serie numerica di termine generale fn(x)|f_n(\overline x)| è convergente.

Per la convergenza assoluta, se fn(x)|f_n(\overline x)| converge, allora anche fn(x)-|f_n(\overline x)| converge. Per il teorema del confronto (noto anche come t. dei carabinieri, t. degli sbirri, t. del sandwich e t. di compressione), dato che fn(x)fn(x)fn(x)- |f_n(\overline x)| \le f_n(\overline x) \le |f_n(\overline x)| allora anche fn(x)f_n(\overline x) converge. Ne segue che la convergenza assoluta implica la convergenza semplice ma non vale l’opposto.

Diciamo che la serie di termine generale fn(x)f_n(x) con xJx \in J converge totalmente nell’intervallo non vuoto IJI \sube J (detto insieme di convergenza totale) se esiste una successione numerica an0a_n \ge 0 tale che fn(x)an xI,n=0,1,2,|f_n(x)| \le a_n \ \forall x \in I, \forall n = 0, 1, 2, \dots e che n=0+an<+\sum_{n=0}^{+\infty} a_n \lt + \infty (cioè ana_n convergente).

La convergenza totale in IJI \sube J implica la convergenza assoluta e puntuale xI\forall x \in I e la convergenza totale in ogni sottoinsieme non vuoto di II.

2.1 Teorema di continuità della somma

Siano fnf_n funzioni definite almeno in un intervallo IRI \sube R. Se le funzioni sono continue in II e la serie generale converge totalmente in II allora la funzione somma è continua in II.

2.2 Teorema di integrabilità termine a termine

Nelle stesse ipotesi del teorema precedente, per un qualunque intervallo [c,d]I[c, d] \sub I chiuso e limitato, si ha che la funzione somma ff è integrabile e vale che

cdf(x)dx=cd(n=0+fn(x))dx=n=0+cdfn(x)dx \int_c^d f(x) dx = \int_c^d \left( \sum_{n=0}^{+\infty} f_n(x) \right) dx = \sum_{n=0}^{+\infty} \int_c^d f_n(x) dx

Se le fnf_n sono derivabili in II, fn\sum f_n converge totalmente in II e fn\sum f'_n converge totalmente in II allora è possibile derivare termine a termine:

f=(n=0+fn)=n=0+fn f' = \left( \sum_{n=0}^{+\infty} f_n \right)' = \sum_{n=0}^{+\infty} f'_n

2.3 Serie di potenze

Una serie di potenze è una serie numerica della forma

n=0+an(xx0)n \sum_{n=0}^{+\infty} a_n(x - x_0)^n

dove anRa_n \in \mathbb{R} vengono detti coefficienti della serie e x0Rx_0 \in \mathbb{R} è il centro della serie.

Nella seguente sezione, si considera (x0x0)0=1(x_0 - x_0)^0 = 1.

Per x=x0x = x_0 si ha che

n=0+an(x0x0)n=a01+a10+a20+=a0 \sum_{n=0}^{+\infty} a_n(x_0 - x_0)^n = a_0 \cdot 1 + a_1 \cdot 0 + a_2 \cdot 0 + \dots = a_0

Ne segue che tutte le serie di potenze convergono nel loro centro.

L’insieme di convergenza di una serie di potenze è sempre un intervallo centrato in x0x_0 (eventualmente solo x0x_0 o tutto R\mathbb{R}).

Il raggio di tale intervallo è detto raggio di convergenza.

Teorema del calcolo del raggio di convergenza

Data la serie di potenze

n=0+an(xx0)n \sum_{n=0}^{+\infty} a_n(x - x_0)^n

esiste almeno uno dei seguenti due limiti (che può essere eventualmente nullo o infinito), allora il raggio di convergenza è esattamente pari al risultato di tale limite:

R=limn+anan+1R=limn+1ann R = \lim_{n \to +\infty} \left| \frac{a_n}{a_{n+1}} \right| \qquad R = \lim_{n \to +\infty} \frac{1}{\sqrt[n]{|a_n|}}

Il primo di questi limiti viene detto criterio del rapporto mentre il secondo viene detto criterio della radice.

Se entrambi i limiti esistono finiti, il risultato allora corrisponde.

E’ possibile osservare che data una serie a termini positivi an\sum a_n e l=1Rl = \frac{1}{R} allora se l<1l \lt 1 si ha convergenza e se l>1l \gt 1 no.

La convergenza di an\sum a_n e quella di an(xx0)n\sum a_n(x - x_0)^n non sono correlate in alcun modo.

Dimostrazione

La serie di potenze an(xx0)n\sum a_n(x - x_0)^n converge assolutamente in x\overline x se la serie numerica anxx0n=bn\sum |a_n| |\overline x - x_0|^n = \sum b_n converge.

Questa è una serie numerica a termini positivi per cui posso scegliere se applicare il criterio del rapporto o quello della radice.

Se il criterio del rapporto è applicabile, la serie converge se

limn+bn+1bn<1    limn+an+1anxx0n+1xx0n<1    limn+an+1anxx0<1    xx0limn+an+1an<1    xx0<1limn+an+1an=limn+anan+1=R \begin{align*} \lim_{n \to +\infty} \frac{b_{n+1}}{b_n} \lt 1 \iff & \lim_{n \to +\infty} \frac{|a_{n+1}|}{|a_n|} \frac{|\overline x - x_0|^{n+1}}{|\overline x - x_0|^n} \lt 1 \\ \iff & \lim_{n \to +\infty} \frac{|a_{n+1}|}{|a_n|} |\overline x - x_0| \lt 1 \\ \iff & |\overline x - x_0| \lim_{n \to +\infty} \frac{|a_{n+1}|}{|a_n|} \lt 1 \\ \iff & |\overline x - x_0| \lt \frac{1}{\lim_{n \to +\infty} \frac{|a_{n+1}|}{|a_n|}} = \lim_{n \to +\infty} \frac{|a_n|}{|a_{n+1}|} = R \end{align*}

Se il criterio della radice è applicabile, la serie converge se

limn+bnn<1    limn+(anxx0n)1n<1    limn+(an1nxx0)<1    xx0limn+an1n<1    xx0<1limn+an1n=limn+1an1n=limn+1ann \begin{align*} \lim_{n \to +\infty} \sqrt[n]{b_n} \lt 1 \iff & \lim_{n \to +\infty} \left( |a_n| |\overline x - x_0|^n \right)^{\frac{1}{n}} \lt 1 \\ \iff & \lim_{n \to +\infty} \left( |a_n|^{\frac{1}{n}} |\overline x - x_0| \right) \lt 1 \\ \iff & |\overline x - x_0| \lim_{n \to +\infty} |a_n|^{\frac{1}{n}} \lt 1 \\ \iff & |\overline x - x_0| \lt \frac{1}{\lim_{n \to +\infty} |a_n|^{\frac{1}{n}}} = \lim_{n \to +\infty} \frac{1}{|a_n|^{\frac{1}{n}}} = \lim_{n \to +\infty} \frac{1}{\sqrt[n]{|a_n|}} \end{align*}

Se 0<R<+0 \lt R \lt + \infty la serie converge totalmente in ogni intervallo chiuso [c,d](x0R,x0+R)[c, d] \sube (x_0 - R, x_0 + R) (in questo caso, la convergenza è totale in [c,d](x0R,x0+R)[c, d] \sub (x_0 - R, x_0 + R) ma non necessariamente totale anche in tutto (x0R,x0+R)(x_0 - R, x_0 + R)).

Se R=+R = +\infty (cioè la \sum converge assolutamente xR\forall x \in \mathbb{R}) allora la convergenza è totale per tutti gli intervalli limitati (in questo caso la convergenza è totale su tutti i limitati ma non necessariamente sull’intero R\mathbb{R}).

In pratica, per calcolare il raggio di convergenza di una serie definita come an(xx0)n\sum a_n(x - x_0)^n, considero la serie an\sum a_n e ne calcolo il limite con il criterio del rapporto o della radice (come in analisi I) è il reciproco di tale limite è il raggio di convergenza.

Teorema di integrabilità termine a termine

Data una serie an(xx0)n\sum a_n(x - x_0)^n con raggio di convergenza 0<R+0 \lt R \le + \infty, per ogni x(x0R,x0+R)x \in (x_0 - R, x_0 + R) finito, vale la formula di integrazione termine a termine:

x0xn=0+an(tx0)ndt=n=0+anx0x(tx0)ndt=n=0+ann+1(xx0)n+1 \int_{x_0}^x \sum_{n=0}^{+\infty} a_n(t - x_0)^n dt = \sum_{n=0}^{+\infty} a_n \int_{x_0}^x (t - x_0)^n dt = \sum_{n=0}^{+\infty} \frac{a_n}{n+1} (x - x_0)^{n+1}

La serie di potenze integrata mantiene lo stesso raggio di convergenza infatti sia bn=ann+1b_n = \frac{a_n}{n+1}, allora

limn+bnbn+1=limn+ann+1n+2an+1=limn+[n+2n+1anan+1]=limn+anan+1=R \lim_{n \to +\infty} \left| \frac{b_n}{b_{n+1}} \right| = \lim_{n \to +\infty} \left| \frac{a_n}{n+1} \frac{n + 2}{a_{n+1}} \right| = \lim_{n \to +\infty} \left[ \frac{n + 2}{n + 1} \left| \frac{a_n}{a_{n+1}} \right| \right] = \lim_{n \to +\infty} \left| \frac{a_n}{a_{n + 1}} \right| = R

Teorema di derivabilità termine a termine

Nelle stesse ipotesi del teorema precedente, vale la formula di derivabilità termine a termine:

[n=0+an(xx0)n]=n=1+nan(xx0)n1 \left[ \sum_{n=0}^{+\infty} a_n(x - x_0)^n \right]' = \sum_{n=1}^{+\infty} na_n(x - x_0)^{n - 1}

Anche in questo caso la serie derivata ha raggio di convergenza RR.

Questa formula può essere iterata per ottenere serie derivate di ogni ordine, tutte con raggio di convergenza RR.

Non è detto che una serie di potenze converga negli estremi dell’intervallo di convergenza.

Integrando una serie, se in un estremo convergeva, allora la serie integrata rimarrà convergente in tale estremo mentre se non era convergeva potrebbe diventare convergente.

Derivando una serie si ottiene il comportamento opposto: se la serie potrebbe perdere la convergenza negli estremi ma se in un estremo era già divergente, allora rimarrà divergente.

Ne segue che il comportamento negli estremi va studiato a parte.

2.4 Criterio di Leibniz

Come in Analisi I, per le serie di potenze reali, vale il criterio di Leibniz: per an\sum a_n, an=(1)nbna_n = (-1)^nb_n con bn>0b_n \gt 0, arrestando la somma al termine ana_n, si commette un errore minore a an+1|a_{n+1}|.

Capitolo Quattro: Serie di Taylor

Una funzione è detta analitica reale se nell’intervallo non vuoto (a,b)(a, b) è somma di una serie di potenze in (a,b)(a, b), quindi se

x0(a,b),anR:f=n=0+an(xx0)nx(a,b) \exists x_0 \in (a, b), \exists a_n \in \mathbb{R} : f = \sum_{n=0}^{+\infty} a_n(x - x_0)^n \quad \forall x \in (a, b)

Se ff è analitica in (a,b)(a, b) allora ff è derivabile ad ogni ordine.

I coefficienti ana_n sono

f(x0)=n=0+an(x0x0)=a0f(x)=n=1+nan(xx0)n1    f(x0)=a1f(x)=n=2+n2an(xx0)n2    f(x0)=2a2an=f(n)(x0)n! f(x_0) = \sum_{n=0}^{+\infty} a_n(x_0 - x_0) = a_0 \\ f'(x) = \sum_{n=1}^{+\infty} n a_n(x - x_0)^{n-1} \implies f'(x_0) = a_1 \\ f''(x) = \sum_{n=2}^{+\infty} n^2 a_n (x - x_0)^{n-2} \implies f''(x_0) = 2a_2 \\ \vdots \\ a_n = \frac{f^{(n)}(x_0)}{n!}

4.1 Funzioni analitiche reali

Sia ff una funzione di una variabile reale, analitica su di un intervallo non vuoto (a,b)(a, b). Allora ff è derivabile ad ogni ordine in (a,b)(a, b) e x0(a,b)\forall x_0 \in (a, b) è sviluppabile in una serie di Taylor:

f(x)=n=0+f(n)(x0)n!(xx0)nx(a,b) f(x) = \sum_{n=0}^{+\infty} \frac{f^{(n)}(x_0)}{n!}(x - x_0)^n \qquad x \in (a, b)

4.2 Serie di potenze complesse

Una serie di potenze complesse è una serie numerica della forma

n=0+an(zz0)=a0+a1(zz0)++an(zz0)nan,z,z0C \sum_{n=0}^{+\infty} a_n(z - z_0) = a_0 + a_1(z - z_0) + \dots + a_n(z - z_0)^n \qquad a_n, z, z_0 \in \mathbb{C}

Restano valide le formule per il calcolo del raggio di convergenza.

Se R=0R = 0 allora la serie converge solo in z0z_0, se R=+R = +\infty la serie converge zC\forall z \in \mathbb{C} mentre se 0<R<+0 \lt R \lt +\infty allora la serie converge assolutamente z0:zz0<R\forall z_0 : |z - z_0| \lt R ma non si può dire niente per la frontiera (la serie potrebbe convergere o meno z0:zz0=R\forall z_0 : |z - z_0| = R).

L’esponenziale complesso si calcola come

ez=n=0znn! e^z = \sum_{n=0}^{\infty} \frac{z^n}{n!}

ed è definito zC\forall z \in \mathbb{C} dato che R=+R = +\infty.

4.3 Serie di Fourier

Con le serie di Fourier, si possono scomporre funzioni non necessariamente analitiche in una serie infinita di funzioni trigonometriche della forma

f(x)=a0+n=1+[ancos(nx)+bnsin(nx)] f(x) = a_0 + \sum_{n=1}^{+\infty} \left[ a_n \cos (nx) + b_n \sin (nx) \right]

dove gli ana_n e i bnb_n sono detti coefficienti di Fourier.

Per comprendere i successivi argomenti, è necessario avere famigliarità con le proprietà delle funzioni periodiche:

Vengono dette armoniche nn-esime le funzioni cosnx\cos nx e sinnx\sin nx che sono periodiche di periodo 2πn\frac{2\pi}{n}.

Tutte le armoniche nn-esime sono periodiche di periodo 2π2 \pi.

Per il calcolo dei coefficienti di Fourier, è necessario tenere a mente le formule di ortogonalità:

ππcos(nx)cos(kx)dx={0nkπn=k02πn=k=0ππsin(nx)sin(kx)dx={0nkπn=k02πn=k=0ππsin(nx)cos(nx)=0n,kR \int_{-\pi}^{\pi} \cos(nx) \cos(kx) dx = \begin{cases} 0 & n \ne k \\ \pi & n = k \ne 0 \\ 2\pi & n = k = 0 \\ \end{cases} \\ \int_{-\pi}^{\pi} \sin(nx) \sin(kx) dx = \begin{cases} 0 & n \ne k \\ \pi & n = k \ne 0 \\ 2\pi & n= k = 0 \\ \end{cases} \\ \int_{-\pi}^{\pi} \sin(nx) \cos(nx) = 0 \quad \forall n,k \in \mathbb{R}

Un polinomio trigonometrico di ordine mNm \in \mathbb{N} è una combinazione lineare di armoniche nn-esime con n=1,2,,mn = 1, 2, \dots, m della forma

a0+n=1m[ancos(nx)+bnsin(nx)] a_0 + \sum_{n=1}^{m} \left[ a_n \cos(nx) + b_n \sin(nx) \right]

dove a0,an,bna_0, a_n, b_n vengono detti coefficienti del polinomio trigonometrico.

Ogni polinomio trigonometrico è 2π2\pi-periodico, così come qualsiasi somma, differenza o prodotto tra essi.

Una serie trigonometrica è una serie della forma

a0+n=1+[ancos(nx)+bnsin(nx)] a_0 + \sum_{n=1}^{+\infty} \left[ a_n \cos(nx) + b_n \sin(nx) \right]

La somma di una serie trigonometrica è 2π2\pi-periodica.

Una serie trigonometrica converge totalmente solo quando an+bn|a_n| + |b_n| converge, infatti fn(x)=ancos(nx)+bnsin(nx)an+bnxR|f_n(x)| = |a_n \cos(nx) + b_n \sin(nx)| \le |a_n| + |b_n| \quad \forall x \in \mathbb{R}.

Se

n=1+[an+bn]<+ \sum_{n=1}^{+\infty} \left[ |a_n| + |b_n| \right] \lt + \infty

allora la serie trigonometrica converge totalmente in R\mathbb{R}. In particolare la funzione somma è continua in tutto R\mathbb{R} e vale la formula di integrazione termine a termine in ogni sottoinsieme limitato (non serve richiedere la chiusura dell’insieme dato che, essendo la funzione continua, allora non esploderà in nessun punto).

Inoltre, nella stessa circostanza di quanto appena scritto, la funzione somma è derivabile in tutto R\mathbb{R} e vale la formula di derivazione termine a termine.

4.4 Costruzione della serie di Fourier di una funzione periodica

Per calcolare i coefficienti di Fourier per esprimere una funzione periodica come serie di Fourier, ci si basa sul teorema che segue, di cui è fornita anche la dimostrazione.

Il teorema si limita alle funzioni 2π2\pi-periodiche; dopo la dimostrazione verranno fornite formule più generali che vanno bene per qualsiasi periodo.

Teorema del calcolo dei coefficienti di Fourier

Sia f:RRf : \mathbb{R} \to \mathbb{R} 2π2\pi-periodica, e somma di una serie trigonometrica:

f(x)=a0+n=1+[ancos(nx)+bnsin(nx)] f(x) = a_0 + \sum_{n=1}^{+\infty} \left[ a_n \cos(nx) + b_n \sin(nx) \right]

Supponiamo inoltre di poter integrare termine a termine, allora

a0=12ππ+πf(x)dxan=1ππ+πf(x)cos(nx)dxn1bn=1ππ+πf(x)sin(nx)dxn1 \begin{align*} a_0 = \frac{1}{2 \pi} \int_{-\pi}^{+\pi} f(x) dx \qquad & a_n = \frac{1}{\pi} \int_{-\pi}^{+\pi} f(x) \cos(nx) dx \quad n \ge 1 \\ & b_n = \frac{1}{\pi} \int_{-\pi}^{+\pi} f(x) \sin(nx) dx \quad n \ge 1 \end{align*}

Queste formule valgono anche in caso di convergenza non totale purchè si possa integrare termine a termine.

Dimostrazione

Per calcolare a0a_0 integro f(x)f(x) in (π,π)(-\pi, \pi) sfruttando l’integrabilità termine a termine e le formule di ortogonalità:

π+πf(x)dx=π+π[a0+n=1+[ancos(nx)+bnsin(nx)]]dx=π+πa0dx+n=1+[π+πancos(nx)dx]+n=1+[π+πbnsin(nx)dx]=π+πa0dx+n=1+[anπ+πcos(nx)dx=0]+n=1+[bnπ+πsin(nx)dx=0]=2πa0    a0=12ππ+πf(x)dx \begin{align*} \int_{-\pi}^{+\pi} f(x) dx &= \int_{-\pi}^{+\pi} \left[ a_0 + \sum_{n=1}^{+\infty} \left[ a_n \cos(nx) + b_n \sin(nx) \right] \right] dx \\ &= \int_{-\pi}^{+\pi} a_0 dx + \sum_{n=1}^{+\infty} \left[ \int_{-\pi}^{+\pi} a_n \cos(nx) dx \right] + \sum_{n=1}^{+\infty} \left[ \int_{-\pi}^{+\pi} b_n \sin(nx) dx \right] \\ &= \int_{-\pi}^{+\pi} a_0 dx + \sum_{n=1}^{+\infty} \left[ a_n \underbrace{\int_{-\pi}^{+\pi} \cos(nx) dx}_{=0} \right] + \sum_{n=1}^{+\infty} \left[ b_n \underbrace{\int_{-\pi}^{+\pi} \sin(nx) dx}_{=0} \right] \\ &= 2\pi a_0 \implies a_0 = \frac{1}{2\pi} \int_{-\pi}^{+\pi} f(x) dx \end{align*}

Per determinare ana_n, moltiplico f(x)f(x) per cos(nx)\cos(nx), integro su (π,π)(-\pi, \pi) utilizzando ancora una volta l’integrabilità termine a termine e le formule di ortogonalità:

π+πf(x)cos(nx)dx=π+π[a0+k=1+[akcos(kx)+bksin(kx)]]cos(nx)dx=π+πa0cos(nx)dx+k=1+[π+πakcos(kx)cos(nx)dx]+k=1+[π+πbksin(kx)cos(nx)dx]=a0π+πcos(nx)dx=0+k=1+[akπ+πcos(kx)cos(nx)dxSi annulla se nk]+k=1+[bkπ+πsin(kx)cos(nx)dx=0]=anπ+πcos(nx)2dx=πan    an=1ππ+πf(x)cos(nx)dx \begin{align*} \int_{-\pi}^{+\pi} f(x) \cos(nx) dx &= \int_{-\pi}^{+\pi} \left[ a_0 + \sum_{k=1}^{+\infty} \left[ a_k \cos(kx) + b_k \sin(kx) \right] \right]\cos(nx) dx \\ &= \int_{-\pi}^{+\pi} a_0 \cos(nx) dx + \sum_{k=1}^{+\infty} \left[ \int_{-\pi}^{+\pi} a_k \cos(kx) \cos(nx) dx \right] + \sum_{k=1}^{+\infty} \left[ \int_{-\pi}^{+\pi} b_k \sin(kx) \cos(nx) dx \right] \\ &= a_0 \underbrace{\int_{-\pi}^{+\pi} \cos(nx) dx}_{=0} + \sum_{k=1}^{+\infty} \left[ a_k \underbrace{\int_{-\pi}^{+\pi} \cos(kx) \cos(nx) dx}_{\text{Si annulla se $n \ne k$}} \right] + \sum_{k=1}^{+\infty} \left[ b_k \underbrace{\int_{-\pi}^{+\pi} \sin(kx) \cos(nx) dx}_{=0} \right] \\ &= a_n \int_{-\pi}^{+\pi} \cos(nx)^2 dx = \pi a_n \implies a_n = \frac{1}{\pi}\int_{-\pi}^{+\pi} f(x) \cos(nx) dx \end{align*}

Per calcolare i bnb_n il procedimento è analogo:

π+πf(x)sin(nx)dx=π+π[a0+k=1+[akcos(kx)+bksin(kx)]]sin(nx)dx=π+πa0sin(nx)dx+k=1+[π+πakcos(kx)sin(nx)dx]+k=1+[π+πbksin(kx)sin(nx)dx]=a0π+πsin(nx)dx=0+k=1+[akπ+πcos(kx)cos(nx)dx=0]+k=1+[bkπ+πsin(kx)sin(nx)dxSi annulla se nk]=bnπ+πsin(nx)2dx=πbn    bn=1ππ+πf(x)sin(nx)dx \begin{align*} \int_{-\pi}^{+\pi} f(x) \sin(nx) dx &= \int_{-\pi}^{+\pi} \left[ a_0 + \sum_{k=1}^{+\infty} \left[ a_k \cos(kx) + b_k \sin(kx) \right] \right] \sin(nx) dx \\ &= \int_{-\pi}^{+\pi}a_0 \sin(nx) dx + \sum_{k=1}^{+\infty} \left[ \int_{-\pi}^{+\pi} a_k \cos(kx) \sin(nx) dx \right] + \sum_{k=1}^{+\infty} \left[ \int_{-\pi}^{+\pi} b_k \sin(kx) \sin(nx) dx \right] \\ &= a_0 \underbrace{\int_{-\pi}^{+\pi} \sin(nx) dx}_{=0} + \sum_{k=1}^{+\infty} \left[ a_k \underbrace{\int_{-\pi}^{+\pi} \cos(kx) \cos(nx) dx}_{=0} \right] + \sum_{k=1}^{+\infty} \left[ b_k \underbrace{\int_{-\pi}^{+\pi} \sin(kx) \sin(nx) dx}_{\text{Si annulla se $n \ne k$}} \right] \\ &= b_n \int_{-\pi}^{+\pi} \sin(nx)^2 dx = \pi b_n \implies b_n = \frac{1}{\pi} \int_{-\pi}^{+\pi} f(x) \sin(nx) dx \end{align*}

Come volevasi dimostrare.

Le formule generali che valgono qualsiasi sia il periodo TT sono

a0=1TT2+T2an=2TT2T2f(x)cos(n2πTx)dxbn=2TT2T2f(x)sin(n2πTx)dx \begin{align*} a_0 = \frac{1}{T} \int_{-\frac{T}{2}}^{+\frac{T}{2}} \qquad & a_n = \frac{2}{T} \int_{-\frac{T}{2}}^{\frac{T}{2}} f(x) \cos \left( n \frac{2 \pi}{T} x \right) dx \\ & b_n = \frac{2}{T} \int_{-\frac{T}{2}}^{\frac{T}{2}} f(x) \sin \left( n \frac{2 \pi}{T} x \right) dx \end{align*}

Chiamiamo polinomio di Fourier di ordine mm il polinomio trigonometrico

Fm(x)=a0+n=1m[ancos(nx)+bnsin(nx)] F_m(x) = a_0 + \sum_{n=1}^m \left[ a_n \cos(nx) + b_n \sin(nx) \right]

Chiamiamo serie di Fourier la serie trigonometrica

limmFm(x)=a0+n=1+[ancos(nx)+bnsin(nx)] \lim_{m \to \infty} F_m(x) = a_0 + \sum_{n=1}^{+\infty} \left[ a_n \cos(nx) + b_n \sin(nx) \right]

E’ possibile semplificare il calcolo dei coefficienti di Fourier andando a sfruttare alcune proprietà della funzione sotto analisi:

Per studiare la convergenza della serie di Fourier, è necessario introdurre alcuni concetti.

Una funtione f:[π,+π]Rf : [-\pi, +\pi] \to \mathbb{R} è regolare a tratti nell’intervallo [π,+π][-\pi, +\pi] se esiste un numero finito di punti π<x1<x2<<xn<+π-\pi \lt x_1 \lt x_2 \lt \dots \lt x_n \lt +\pi tali per cui ff è derivabile in in ogni intervallino (xi,xi+1)(x_i, x_{i+1}) ed esistono finiti i limiti

limxxi+f(x)i=1,2,,n1limxxif(x)i=2,3,,n \lim_{x \to x_i^+} f(x) \quad \forall i = 1, 2, \dots, n-1 \qquad \lim_{x \to x_i^-} f(x) \quad \forall i = 2, 3, \dots, n

Ovviamente, se ff è periodica e regolare a tratti su un dato intervallo allora è regolare a tratti ed è integrabile in qualunque intervallo limitato.

Sia f:RRf : \mathbb{R} \to \mathbb{R} 2π2\pi-periodica e regolare a tratti in [π,+π][-\pi, +\pi] allora la serie di Fourier di ff converge puntualmente xR\forall x \in \mathbb{R} e inoltre

limmFm(x)=12(limSx+f(S)+limSxf(S)) \lim_{m \to \infty} F_m(x) = \frac{1}{2} \left( \lim_{S \to x^+} f(S) + \lim_{S \to x^-} f(S) \right)

cioè nei punti di discontinuità-salto, il polinomio di Fourier converge alla metà tra i due punti del salto.

Se ff è continua, allora limmFm(x)=f(x)\lim_{m \to \infty} F_m(x) = f(x) che si può anche scrivere come limmFm(x)f(x)=0\lim_{m \to \infty} \left| F_m(x) - f(x) \right| = 0.

Ne segue che se f:RRf : \mathbb{R} \to \mathbb{R} è anche 2π2\pi-periodica, regolare a tratti in [π,+π][-\pi, +\pi] e continua in tutto R\mathbb{R} allora si ha che la serie di Fourier di ff converge totalmente a ff.

Sia f:RRf : \mathbb{R} \to \mathbb{R}, 2π2\pi-periodica e regolare a tratti in [π,+π][-\pi, +\pi] allora vale la convergenza in media quadratica:

limm+π+π(Fm(x)f(x))2dx=0 \lim_{m \to +\infty} \int_{-\pi}^{+\pi} \left( F_m(x) - f(x) \right)^2 dx = 0

Ciò implica che

limm+π+πFm(x)2dx=π+πf(x)2dx \lim_{m \to +\infty} \int_{-\pi}^{+\pi} F_m(x)^2 dx = \int_{-\pi}^{+\pi} f(x)^2 dx

Tale formula in realtà vale per qualsiasi intervallo [c,d][c, d] se la ff è periodica, in quanto se [c,d][π,+π][c, d] \sube [-\pi, +\pi] allora è ovvio, altrimenti si ragiona per periodicità.

Si può dunque calcolare

π+πFm(x)2dx=π+π(a0+n=1m(ancos(nx)+bnsin(nx)))2dx=2πa02+πn=1m(an2+bn2) \int_{-\pi}^{+\pi} F_m(x)^2 dx = \int_{-\pi}^{+\pi} \left( a_0 + \sum_{n=1}^{m} (a_n \cos(nx) + b_n \sin(nx)) \right)^2 dx = 2\pi a_0^2 + \pi \sum_{n=1}^{m} (a_n^2 + b_n^2)

Facendo tendere mm all’infinito, si arriva all’identità di Bessel-Parsival:

1ππ+πf(x)2dx=2a02+n=1+(an2+bn2) \frac{1}{\pi} \int_{-\pi}^{+\pi} f(x)^2 dx = 2 a_0^2 + \sum_{n=1}^{+\infty} (a_n^2 + b_n^2)

Cenni alla forma esponenziale

Conoscendo le formule di Eulero,

cosx=eix+eix2sinx=eixeix2i \cos x = \frac{e^{ix} + e^{-ix}}{2} \qquad \sin x = \frac{e^{ix} - e^{-ix}}{2i}

possiamo dire che

cosnx=einx+einx2sinx=einxeinx2i \cos nx = \frac{e^{inx} + e^{-inx}}{2} \qquad \sin x = \frac{e^{inx} - e^{-inx}}{2i}

Dunque si può riscrivere la serie trigonometrica

a0+n=1+[ancosnx+bnsinnx]=a0+n=1+[aneinx+einx2+bneinxeinx2i]=a0+n=1+einx(an2+bn2i)+n=1+einx(an2bn2i)=a0+n=1+einx(anibn2)+n=1+einx(an+ibn2)=a0=c0+n=1+einxanibn2=cn+k=1eikxak+ibk2=ck=c0+n=1+cneinx+k=1ckeikx=n=+Cneinx    cn=12ππ+πf(x)einxdx \begin{align*} a_0 + \sum_{n=1}^{+\infty} \left[ a_n \cos nx + b_n \sin nx \right] &= a_0 + \sum_{n=1}^{+\infty} \left[ a_n \frac{e^{inx} + e^{-inx}}{2} + b_n \frac{e^{inx} - e^{-inx}}{2i} \right] \\ &= a_0 + \sum_{n=1}^{+\infty} e^{inx} \left( \frac{a_n}{2} + \frac{b_n}{2i} \right)+ \sum_{n=1}^{+\infty} e^{-inx} \left( \frac{a_n}{2} - \frac{b_n}{2i} \right) \\ &= a_0 + \sum_{n=1}^{+\infty} e^{inx} \left( \frac{a_n - ib_n}{2} \right) + \sum_{n=1}^{+\infty} e^{-inx} \left( \frac{a_n + ib_n}{2} \right) \\ &= \underbrace{a_0}_{=c_0} + \sum_{n=1}^{+\infty} e^{inx} \underbrace{\frac{a_n - ib_n}{2}}_{=c_n} + \sum_{k = -\infty}^{-1} e^{ikx} \underbrace{\frac{a_{-k} + ib_{-k}}{2}}_{=c_k} \\ &= c_0 + \sum_{n=1}^{+\infty} c_n e^{inx} + \sum_{k=-\infty}^{-1} c_k e^{ikx} \\ &= \sum_{n = -\infty}^{+\infty} C_n e^{inx} \implies c_n = \frac{1}{2\pi} \int_{-\pi}^{+\pi} f(x) e^{-inx}dx \end{align*}

Capitolo Cinque: Cenni di topologia in R\mathbb{R}

Si dice intorno sferico o palla di raggio rr e centro in x0R\underline x_0 \in \mathbb{R} il seguente insieme:

Br(x0)={xRn:xx0<r} B_r(\underline x_0) = \left\{ \underline x \in \mathbb{R}^n : \|\underline x - \underline x_0\| \lt r \right\}

E’ importante notare che un apalla è un insieme aperto per definizione.

Si dice complementare dell’insieme EE l’insieme EC=RnEE^C = \mathbb{R}^n - E.

Dati un insieme ERnE \sub \mathbb{R}^n e un punto x0Rn\underline x_0 \in \mathbb{R}^n allora

Un insieme ERnE \sub \mathbb{R}^n si dice aperto se xE\forall \underline x \in E si ha che x\underline x è punto interno. Lo stesso insieme è chiuso se ECE^C è aperto.

Un insieme EE si dice limitato se esiste un rr tale per cui tutto l’insieme è contenuto in una palla di raggio rr; è illimitato altrimenti.

Un insieme chiuso e limitato è detto compatto.

5.1 Curve

Una curva in R3\mathbb{R}^3 può essere descritta attraverso la sua parametrizzazione o attraverso il suo sostegno.

La parametrizzazione di una curva consiste essenzialmente in 3 funzioni continue, dipendenti da un solo parametro:

r:IRR3r(t)=(r1(t)r2(t)r3(t)) \underline r : I \sube \mathbb{R} \to \mathbb{R}^3 \\ \underline r(t) = \begin{pmatrix} r_1(t) \\ r_2(t) \\ r_3(t) \end{pmatrix}

Il sostegno della curva consiste nell’insieme di tutti i valori che la curva può assumere:

γ={(x1,x2,x3)R3:(x1,x2,x3)=(r1(t),t2(t),r3(t)) per qualche tI} \gamma = \left\{ (x_1, x_2, x_3) \in \mathbb{R}^3 : (x_1, x_2, x_3) = (r_1(t), t_2(t), r_3(t)) \text{ per qualche $t \in I$}\right\}

Il sostegno di una curva è univocamente determinato dalla parametrizzazione ma esistono infinite parametrizzazioni associate allo stesso sostegno.

Nel caso in cui r3(t)=0tr_3(t) = 0 \quad \forall t, la curva viene detta curva piana.

E’ possibile ottenere, per una funzione ff generica una parametrizzazione

r(t)=(tf(t)) \underline r(t) = \begin{pmatrix} t \\ f(t) \end{pmatrix}

Due parametrizzazione r(t):IRn\underline r(t) : I \to \mathbb{R}^n e v(s):JRn\underline v(s) : J \to \mathbb{R}^n si dicono equivalenti se esiste una mappa φ:JI\varphi : J \to I continua e biunivoca tale che

v(s)=r(φ(s))=rφ(s) \underline v(s) = \underline r(\varphi(s)) = \underline r \cdot \varphi(s)

In pratica, due parametrizzazioni sono equivalenti se hanno lo stesso sostegno, percorso lo stesso numero di volte.

Dato che φ\varphi è biunivoca, allora è monotona: se è decrescente allora il senso di percorrenza dei due sostegni si inverte.

Una curva può essere considerata come la classe di equivalenza associata che contiene tutte le parametrizzazioni equivalenti.

Una curva si dice regolare se ammette una parametrizzazione (r1(t),,rn(t))(r_1(t), \dots, r_n(t)) con tIt \in I tale per cui tutte le ri(t)C1(I)r_i(t) \in \mathcal{C}^1(I) e (r1(t),,rn(t))0(r_1'(t), \dots, r_n'(t)) \ne \underline 0 per ogni tt. Se una curva è regolare allora r(t)0\|\underline r'(t)\| \ne 0.

Una curva di dice semplice se è iniettiva, ovvero se il suo sostegno non si interseca con se stesso: se t1,t2:t1t2,r(t1)=r(t2)\exists t_1, t_2 : t_1 \ne t_2, \underline r(t_1) = \underline r(t_2) allora la curva non è semplice.

Se r:IR3\underline r : I \to \mathbb{R}^3, si definisce versore tangente il versore

T(t)=r(t)r(t) \underline T(t) = \frac{\underline r'(t)}{\|\underline r'(t)\|}

Il versore tangente ha direzione della retta tangente alla curva nel punto r(t)\underline r(t), norma unitaria e verso concorde al verso di percorrenza della curva.

Data una funzione fC1f \in \mathcal{C}^1 qualsiasi, una curva costruita come

r(t)=(tf(t)) \underline r(t) = \begin{pmatrix} t \\ f(t) \end{pmatrix}

è sempre regolare infatti

r(t)=(1f(t)) \underline r'(t) = \begin{pmatrix} 1 \\ f'(t) \end{pmatrix}

Siano [a,b]R[a,b] \sube \mathbb{R} limitato e r:[a,b]R\underline r : [a,b] \to \mathbb{R} la parametrizzazione di una curva regolare avente sostegno γ\gamma, allora la lunghezza di γ\gamma si calcola come

len(γ)=abr(t)dt \text{len}(\gamma) = \int_a^b \|\underline r'(t)\| dt

Siano [a,b]R[a,b] \sub \mathbb{R} limitato e r:[a,b]R3\underline r : [a,b] \to \mathbb{R}^3 parametrizzazione di una curva regolare avente sostegno γ\gamma. Se v[c,d]R3\underline v[c,d] \to \mathbb{R}^3 e v(s)=rφ(s)\underline v(s) = \underline r \cdot \varphi(s) è una parametrizzazione equivalente avente sostegno δ\delta allora len(δ)=len(γ)\text{len}(\delta) = \text{len}(\gamma). Dimostrazione a seguire.

Per definizione

len(γ)=abr(t)dtlen(δ)=cdv(s)ds \text{len}(\gamma) = \int_a^b \|\underline r'(t)\| dt \qquad \text{len}(\delta) = \int_c^d \|\underline v'(s)\| ds

Se

v(s)=(r1(φ(s))r2(φ(s))) \underline v(s) = \begin{pmatrix} r_1(\varphi(s)) \\ r_2(\varphi(s)) \end{pmatrix}

allora

v(s)=(r1(φ(s))φ(s)r2(φ(s))φ(s))=φ(s)(r1(φ(s))r2(φ(s))) \underline v'(s) = \begin{pmatrix} r_1'(\varphi(s)) \cdot \varphi'(s) \\ r_2'(\varphi(s)) \cdot \varphi'(s) \end{pmatrix} = \varphi'(s) \cdot \begin{pmatrix} r_1'(\varphi(s)) \\ r_2'(\varphi(s)) \end{pmatrix}

da cui

v(s)=φ(s)r(φ(s)) \| \underline v'(s) \| = |\varphi'(s)| \cdot \| \underline r'(\varphi(s)) \|

quindi

len(δ)=cdφ(s)r(φ(s))ds \text{len}(\delta) = \int_c^d |\varphi'(s)| \cdot \|\underline r'(\varphi(s))\| ds

Siccome φ\varphi è biunivoca, allora è monotona e si può togliere il valore assoluto: φ<0\varphi' \lt 0 p φ>0\varphi' \gt 0.

Supponiamo che φ(s)0s[c,d]\varphi'(s) \ge 0 \quad \forall s \in [c, d], allora

len(δ)=cdφ(s)r(s)ds \text{len}(\delta) = \int_c^d \varphi'(s) \|\underline r'(s)\| ds

Applico ora il seguente cambio di variabili: t=φ(s)t = \varphi(s), dt=φ(s)dsdt = \varphi'(s) ds.

Per gli estremi di integrazione si ha che φ:[c,d][a,b]\varphi : [c,d] \to [a,b], φ(c)=a\varphi(c) = a e φ(d)=b\varphi(d) = b e quindi

len(δ)=abr(t)dt=len(γ) \text{len}(\delta) = \int_a^b \|\underline r'(t)\| dt = \text{len}(\gamma)

Se invece φ(s)0\varphi'(s) \le 0 allora

len(δ)=cdφ(s)r(φ(s))ds \text{len}(\delta) = - \int_c^d \varphi'(s) \| \underline r'(\varphi(s)) \| ds

Se applico il cambiamento di variabili t=φ(s)t = \varphi(s), dt=φ(s)dsdt = \varphi'(s) ds allora, essendo φ<0\varphi' \lt 0 si ha che φ(c)=b\varphi(c) = b e φ(d)=a\varphi(d) = a per cui

len(δ)=bar(t)dt=abr(t)dt=len(γ) \text{len}(\delta) = -\int_b^a \|\underline r'(t)\| dt = \int_a^b \| \underline r'(t) \| dt = \text{len}(\gamma)

I vari integrali, in caso di curva regolare a tratti, sono da intendersi come somma degli integrali dei vari tratti.

Una curva r:IR3\underline r : I \to \mathbb{R}^3 si dice regolare a tratti se è continua su II e la curva è regolare su II tranne che su un numero finito di punti. La lunghezza di una curva regolare a tratti è la somma delle lunghezze dei vari tratti.

Siano [a,b]R[a,b] \sub \mathbb{R} limitato, r:[a,b]R\underline r : [a,b] \to \mathbb{R} curva regolare di sostegno γ\gamma, f(r(t))f(\underline r(t)) continua t[a,b]\forall t \in [a,b], l’integrale curvilineo di ff lungo γ\gamma è

γfds=abf(r(t))r(t)dt \int_\gamma f ds = \int_a^b f(\underline r(t)) \|\underline r'(t)\| dt

Capitolo Sei: Funzioni di due variabili

Una funzione di due variabili reali f:AR2Rf : A \sube \mathbb{R}^2 \to \mathbb{R} è una relazione che associa ad ogni (x,y)R(x, y) \in \mathbb{R} un unico valore reale f(x,y)Rf(x, y) \in \mathbb{R}.

E’ detto insieme di livello di ff al livello kk è

Ik={(x,y)A:f(x,y)=k} I_k = \left\{ (x, y) \in A : f(x, y) = k \right\}

che è una curva piana.

6.1 Limite multivaraibile

Siano aR2a \sube \mathbb{R}^2 aperto, x0Ax_0 \in A, f:A\{x0}Rf : A \backslash \{\underline x_0\} \to \mathbb{R}. Diciamo che ff tende al limite lRl \in \mathbb{R} per xx0\underline x \to \underline x_0 e scriviamo che limxx0f(x)=l\lim_{\underline x \to \underline x_0} f(x) = l se

ε>0 δ>0:xBδ(x0)\{x0}    f(x)l<ε \forall \varepsilon \gt 0 \ \exists \delta \gt 0 : \underline x \in B_\delta(\underline x_0) \backslash \{ \underline x_0 \} \implies |f(\underline x) - l| \lt \varepsilon

Per stabilire che un limite non esiste, devo esibire due curve che mandano la funzione in valori diversi quando si fa tendere tale funzione nel punto limite.

6.2 Calcolo del limite con coordinate polari

La procedura di seguito è valida solo per limiti che tendono a 0\underline 0. In caso di limiti che non tendono a 0\underline 0, si transla la funzione.

  1. Trovo un candidato limite: ad esempio, se la funzione è identicamente nulla sugli assi cartesiani, il candidato limite è l=0l = 0.
  2. Scrivo la funzione g(r,θ)g(r, \theta) come f(x,y)f(x, y) in coordinate polari, applicando la seguente trasformazione: {x=rcos(θ)y=rsin(θ) \begin{cases} x = r \cos(\theta) \\ y = r \sin (\theta) \end{cases}
  3. Cerco una funzione h(r)h(r) tale che
    1. g(r,θ)l<h(r)|g(r, \theta) - l| \lt h(r);
    2. limr0h(r)=0\lim_{r \to 0} h(r) = 0.
  4. Se ho trovato la funzione hh di cui al punto sopra, allora il candidato limite è il limite che cercavo, altrimenti cambio candidato e riprovo.

Se la funzione sotto esame non è quoziente di polinomi o radici, prima di iniziare la procedura, applico i limiti notevoli.

Il metodo dei limiti notevoli è utilizzabile anche per la dimostrazione della non esistenza del limite.

6.3 Continuità

Sia AR2A \sube \mathbb{R}^2 aperto, f:ARf : A \to \mathbb{R}, x0A\underline x_0 \in A. ff è continua in x0\underline x_0 se

limxx0f(x)=f(x0) \lim_{\underline x \to \underline x_0} f(x) = f(\underline x_0)

ff è continua in un insieme se è continua in tutti i punti dell’insieme.

Tutte le funzioni elementari (1-dimensionali) sono continue sul loro insieme di definizione. Quando le si compone per ottenere una funzione 2-dimensionale, l’insieme di definizione della funzione ottenuta è l’intersezione delle funzioni utilizzate per la composizione.

Da ciò segue che la continuità di funzioni 2-dimensionali va verificata solamente nel caso di funzioni definite a tratti.

6.4 Derivate parziali e gradienti

Sia AR2A \sube \mathbb{R}^2 aperto, f:ARf : A \to \mathbb{R}, (x0,y0)A(x_0, y_0) \in A. Le derivate parziali di ff in (x0,y0)(x_0, y_0) sono

fx(x0,y0)=limh0f(x0+h,y)f(x0,y0)hfy(x0,y0)=limh0f(x0,y0+h)f(x0,y0)h \frac{\partial f}{\partial x} (x_0, y_0) = \lim_{h \to 0} \frac{f(x_0 + h, y) - f(x_0, y_0)}{h} \qquad \frac{\partial f}{\partial y}(x_0, y_0) = \lim_{h \to 0} \frac{f(x_0, y_0 + h) - f(x_0, y_0)}{h}

Se entrambi i limiti esistono finiti allora ff è detta derivabile in (x0,y0)(x_0, y_0).

Se ff è derivabile, allora è possibile definire la funzione gradiente:

f(x0,y0)=(fx(x0,y0)fy(x0,y0)) \nabla f(x_0, y_0) = \begin{pmatrix} \frac{\partial f}{\partial x} (x_0, y_0) \\ \frac{\partial f}{\partial y} (x_0, y_0) \end{pmatrix}

Per calcolare le derivate parziali, derivo una variabile per volta, considerando tutte le altre come se fossero costanti.

E’ necessario usare la definizione per calcolare le derivate parziali quando la funzione sotto esame è definita per casi o quando nella definizione di tale funzione compare tαt^\alpha con α(0,1)\alpha \in (0, 1) o tα|t|^\alpha con α(0,1]\alpha \in (0, 1]. In tutti gli altri casi, ff è sempre derivabile.

6.5 Differenziabilità e piano tangente

Siano AR2A \sube \mathbb{R}^2 aperto (aperto perchè serve poter fare i limiti), f:ARf : A \to \mathbb{R}, allora diciamo che ff è differenziabile in x0A\underline x_0 \in A se ff è derivabile in x0\underline x_0 e se

f(x0+h)=f(x0)+f(x0),h+R(h) f(\underline x_0 + \underline h) = f(\underline x_0) + \lang \nabla f(\underline x_0), \underline h \rang + R(\underline h)

dove R(h)=o(h)R(\underline h) = \small o(\|\underline h\|) cioè

limh0R(h)h=0 \lim_{\underline h \to 0} \frac{R(\underline h)}{\|\underline h\|} = 0

Per semplificare la verifica della differenziabilità di una funzione, ci si basa sul teorema del differenziale totale che afferma che se fC1(A)f \in \mathcal{C}^1(A) allora ff è differenziabile in AA.

Se ff è differenziabile in un punto x0=(x0,y0)\underline x_0 = (x_0, y_0) allora il piano tangente al grafico di ff in (x0,y0,f(x0,y0))(x_0, y_0, f(x_0, y_0)) è

z=f(x0)+f(x0),xx0 z = f(x_0) + \lang \nabla f(\underline x_0), \underline x - \underline x_0 \rang

6.6 Differenziabilità     \implies continuità

Sia ARA \sube \mathbb{R} aperto, x0A\underline x_0 \in A, f:ARf : A \to \mathbb{R} differenziabile in x0\underline x_0. Allora ff è continua in x0\underline x_0.

Dimostrazione

Devo dimostrare che

limxx0f(x)=f(x0) \lim_{\underline x \to \underline x_0} f(\underline x) = f(\underline x_0)

In mainera equivalente, posso scrivere che

limxx0f(x)f(x0)=0 \lim_{\underline x \to \underline x_0} |f(\underline x) - f(\underline x_0)| = 0

Dato che ff è differenziabile, allora

f(x)f(x0)=f(x0),xx0+o(xx0) f(\underline x) - f(\underline x_0) = \lang \nabla f(\underline x_0), \underline x - \underline x_0 \rang + \small o(\|\underline x - \underline x_0 \|)

Dunque

f(x)f(x0)=f(x0),xx0f(x0),xx0+o(xx0)f(x0)xx0+o(xx0)=0 \begin{align*} |f(\underline x) - f(\underline x_0)| &= |\lang \nabla f(\underline x_0), \underline x - \underline x_0 \rang| \\ &\le |\lang \nabla f(\underline x_0), \underline x - \underline x_0 \rang| + \small o(\|\underline x - \underline x_0\|) \\ &\le \|\nabla f(\underline x_0)\| \cdot \|\underline x - \underline x_0\| + \small o(\|\underline x - \underline x_0\|) = 0 \end{align*}

Ne segue che 0f(x)f(x0)0 \le |f(\underline x) - f(\underline x_0)|, da sui segue che

limxx0f(x)f(x0)=0 \lim_{\underline x \to \underline x_0} |f(\underline x) - f(\underline x_0)| = 0

Come volevasi dimostrare.

Siano ARA \sube \mathbb{R}, x0A\underline x_0 \in A, x0=(x0,y0)\underline x_0 = (x_0, y_0), f:ARf : A \to \mathbb{R}, v=(v1,v2)\underline v = (v_1, v_2) e v=1\|\underline v\| = 1. La derivata direzionale di ff in x0\underline x_0 nella direzione v\underline v è

fv=limt0f(x0+tv1,y0+tv2)f(x0,y0)t=limt0f(x0+tv)f(x0)t \frac{\partial f}{\partial v} = \lim_{t \to 0} \frac{f(x_0 + tv_1, y_0 + tv_2) - f(x_0, y_0)}{t} = \lim_{t \to 0} \frac{f(\underline x_0 + t \underline v) - f(\underline x_0)}{t}

E’ importante notare come le derivate parziali sono due casi specifici di derivate direzionali, in particolare sono le derivate direzionali con v=(1,0)\underline v=(1, 0) e v=(0,1)\underline v = (0, 1).

Il fatto che ff sia differenziabile in x0\underline x_0 implica che esistano tutte le derivate direzionali ma non vale il viceversa.

Teorema della formula del gradiente

Siano ARA \sube \mathbb{R} aperto, x0=(x0,y0)A\underline x_0 = (x_0, y_0) \in A, f:ARf : A \to \mathbb{R} differenziabile in x0\underline x_0 allora ff ammette derivate direzionali in x0\underline x_0 lungo qualunque direzione vR\underline v \in \mathbb{R} tale che v=1\|\underline v\| = 1 e inoltre

fv=f(x0),v \frac{\partial f}{\partial \underline v} = \lang \nabla f(\underline x_0), \underline v \rang

Dimostrazione

Devo dimostrare che se ff è differenziabile in x0\underline x_0 allora vale che

limt0f(x0+tv)f(x0)t=f(x0),v \lim_{t \to 0} \frac{f(\underline x_0 + t \underline v) - f(\underline x_0)}{t} = \lang \nabla f(\underline x_0), \underline v \rang

Essendo ff differenziabile in x0\underline x_0 allora f(x0+h)f(x0)=f(x0),h+o(h)f(\underline x_0 + \underline h) - f(\underline x_0) = \lang \nabla f(\underline x_0), \underline h \rang + \small o(\|\underline h\|).

Scelgo h=tv\underline h = t \underline v con t0t \to 0, divido per tt è poi calcolo il limite per t0t \to 0:

limt0f(x0+tv)f(x0)t=limt0[f(x0),tvt+o(tv)t]=limt0[tf(x0),vt+o(tv)t]=f(x0),v \begin{align*} &\lim_{t \to 0} \frac{f(\underline x_0 + t \underline v) - f(\underline x_0)}{t} \\ =& \lim_{t \to 0} \left[ \frac{\lang \nabla f(\underline x_0), t \underline v \rang}{t} + \frac{\small o(\|t \underline v\|)}{t} \right] \\ =& \lim_{t \to 0} \left[ \frac{t \lang \nabla f(\underline x_0), \underline v \rang}{t} + \frac{\small o(\|t \underline v\|)}{t} \right] \\ =& \lang \nabla f(\underline x_0), \underline v \rang \end{align*}

Come volevasi dimostrare.

E’ importante notare che se la funzione non è definita per casi e non contiene radici o valori assoluti, se fC1(R2)f \in \mathcal{C}^1(\mathbb{R}^2), per il teorema del differenziale totale, la ff è differenziabile in R2\mathbb{R}^2 e quindi vale la formula del gradiente.

Siano r\underline r una curva piana e ff differenziabile e regolare, ristretta alla curva r\underline r. La restrizione di ff è la funzione F(t)=(fr)(t)=f(r(t))=f(r1(t),r2(t))F(t) = (f \cdot \underline r)(t) = f(\underline r(t)) = f(r_1(t), r_2(t)).

Se f è differenziabile e r\underline r è regolare allora F(t)=f(r(t)),r(t)=f(r1(t),r2(t)),(r1(t)r2(t))F'(t) = \lang \nabla f(\underline r(t)), \underline r'(t) \rang = \lang \nabla f(r_1(t), r_2(t)), \begin{pmatrix} r_1'(t) \\ r_2'(t) \end{pmatrix} \rang.

chiamando v=r(t0)r(t0)\underline v = \frac{\underline r'(t_0)}{\|\underline r'(t_0)\|} e x0=r(t0)\underline x_0 = \underline r(t_0) allora F(t0)=f(r(t0)),r(t0)r(t0)r(t0)=r(t0)fv(x0)F'(t_0) = \lang \nabla f(\underline r(t_0)), \frac{\underline r'(t_0)}{\|\underline r'(t_0)\|} \rang \cdot \|\underline r'(t_0)\| = \|\underline r'(t_0)\| \frac{\partial f}{\partial \underline v} (\underline x_0) cioè F(t0)F'(t_0) è multiplo della derivata direzionale di ff nella direzione tangente alla curva in x0\underline x_0.

La derivata direzionale di ff nella direzione tangente alla curva di livello è nulla: detto v\underline v il versore tangente alla curva di livello al livello k=f(x0)k = f(\underline x_0), nel punto x0\underline x_0 stesso, si ha che

fv(x0)=f(x0),v \frac{\partial f}{\partial \underline v} (\underline x_0) = \lang \nabla f(\underline x_0), \underline v \rang

Ne segue che il gradiente è nullo oppure ortogonale a v\underline v.

Teorema di ortogonalità del gradiente alle curve di livello

Sia AR2A \sube \mathbb{R}^2 aperto, f:ARf : A \to R differenziabile in AA e l’insieme di livello IkI_k sostegno di una curva regolare di parametrizzazione r\underline r. Allora f(r(t)),r(t)0t\lang \nabla f(\underline r(t)), \underline r'(t) \rang \le 0 \quad \forall t.

Dimostrazione

Per ipotesi, IkI_k coincide con il sostegno della curva regolare r(t)\underline r(t) cioè Ik={r(t):tJ}I_k = \{ r(t) : t \in J\}. In particolare f(r(t))=ktJf(\underline r(t)) = k \quad \forall t \in J.

Chiamo F(t)=f(r(t))=(fr)(t)F(t) = f(\underline r(t)) = (f \cdot \underline r)(t) con F:JRF : J \to \mathbb{R}.

Da un lato ho che F(t)=ktJF(t) = k \quad \forall t \in J e che F(t)=0tJF'(t) = 0 \quad \forall t \in J, dall’altro, per il teorema di derivazione della composta, F(t)=f(r(t)),r(t)tJF'(t) = \lang \nabla f(\underline r(t)), \underline r'(t) \rang \quad \forall t \in J da cui f(r(t)),r(t)=0tJ\lang \nabla f(\underline r(t)), \underline r'(t) \rang = 0 \quad \forall t \in J, come volevasi dimostrare.

Siano AR2A \sube \mathbb{R}^2 aperto, x0A\underline x_0 \in A, f:ARf : A \to \mathbb{R} differenziabile almeno in x0\underline x_0 e f(x0)0\nabla f(\underline x_0) \ne 0. Allora

  1. vR2:v=1\forall \underline v \in \mathbb{R}^2 : \|\underline v\| = 1 si ha che fv(x0)f(x0)\left|\frac{\partial f}{\partial \underline v} (\underline x_0)\right| \le \left\| \nabla f(\underline x_0) \right\| cioè f(x0)fv(x0)-\left\|\nabla f(\underline x_0) \right\| \le \frac{\partial f}{\partial \underline v}(\underline x_0)
  2. Detti vmax=f(x0)f(x0)\underline v_{\text{max}} = \frac{\nabla f(\underline x_0)}{\|\nabla f(\underline x_0)\|} e vmin=vmax\underline v_{\text{min}} = - \underline v_{\text{max}} allora si ha che fvmax(x0)=f(x0)fvmin(x0)=f(x0) \frac{\partial f}{\partial \underline v_{\text{max}}} (\underline x_0) = \|\nabla f(\underline x_0)\| \qquad \frac{\partial f}{\partial v_{\text{min}}}(\underline x_0) = - \|\nabla f(\underline x_0)\|

Capitolo Sette: Ottimizzazione libera

Sia AR2A \sube \mathbb{R}^2 aperto, f:ARf : A \to \mathbb{R} derivabile. Supponiamo che le derivate parziali di ff siano a loro volta derivabili in AA. Definiamo le derivate parziali seconde come

2fx2=x(fx)2fyx=y(fx)2fxy=x(fy)2fy2=y(fy) \frac{\partial^2 f}{\partial x^2} = \frac{\partial}{x}\left(\frac{\partial f}{\partial x}\right) \qquad \frac{\partial^2 f}{\partial y \partial x} = \frac{\partial}{\partial y} \left( \frac{\partial f}{\partial x} \right) \qquad \frac{\partial^2 f}{\partial x \partial y} = \frac{\partial}{\partial x} \left( \frac{\partial f}{\partial y} \right) \qquad \frac{\partial^2 f}{\partial y^2} = \frac{\partial}{\partial y}\left( \frac{\partial f}{\partial y} \right)

Diciamo che f è derivabile 2 volte se tutte e quattro le derivate seconde esistono; in tal caso le organizziamo nella matrice hessiana:

Hf(x0)=[2fx2=x(fx)2fyx=y(fx)2fxy=x(fy)2fy2=y(fy)]=[[(fx)]T[(fy)]T] H_f(\underline x_0) = \begin{bmatrix} \frac{\partial^2 f}{\partial x^2} = \frac{\partial}{x}\left(\frac{\partial f}{\partial x}\right) & \frac{\partial^2 f}{\partial y \partial x} = \frac{\partial}{\partial y} \left( \frac{\partial f}{\partial x} \right) \\ \frac{\partial^2 f}{\partial x \partial y} = \frac{\partial}{\partial x} \left( \frac{\partial f}{\partial y} \right) & \frac{\partial^2 f}{\partial y^2} = \frac{\partial}{\partial y}\left( \frac{\partial f}{\partial y} \right) \end{bmatrix} = \begin{bmatrix} \left[ \nabla \left( \frac{\partial f}{\partial x} \right) \right]^T \\ \left[ \nabla \left( \frac{\partial f}{\partial y} \right) \right]^T \\ \end{bmatrix}

Per il teorema di Schwarz, se AR2A \sube \mathbb{R}^2 e fC2(A)f \in \mathcal{C}^2(A) allora 2fyx=2fxy\frac{\partial^2 f}{\partial y \partial x} = \frac{\partial^2 f}{\partial x \partial y} cioè la matrice hessiana è simmetrica e questo può semplificare i calcoli.

Chiamiamo forma quadratica indotta da Hf(x0,y0)H_f(x_0, y_0) la funzione q:R2Rq : \mathbb{R}^2 \to R tale che

q(h1,h2)=(h1,h2)Hf(x0,y0)(h1h2)=2fx2h12+22fxyh1h2+2fy2h22q(h)=h,hf(x0)h=hTHf(x0)h q(h_1, h_2) = \begin{pmatrix} h_1, h_2 \end{pmatrix} H_f(x_0, y_0) \begin{pmatrix} h_1 \\ h_2 \end{pmatrix} = \frac{\partial^2 f}{\partial x^2} h_1^2 + 2 \frac{\partial^2 f}{\partial x \partial y}h_1h_2 + \frac{\partial^2 f}{\partial y^2} h_2^2\\ q(\underline h) = \lang \underline h, h_f(\underline x_0) \cdot \underline h \rang = \underline h^T \cdot H_f(\underline x_0) \cdot \underline h

Dalla forma quadratica indotta, si può ricavare la matrice A=[abcd]A = \begin{bmatrix} a & b \\ c & d \end{bmatrix} (q(h1,h2)=ah12+2bh1h2+ch22q(h_1, h_2) = a h_1^2 + 2bh_1h_2 + ch_2^2) per poi ricavarne il segno:

detA\det A aa Autovalori Segno
>0\gt 0 >0\gt 0 ++++ Definita positiva
>0\gt 0 <0\lt 0 -- Definita negativa
=0=0 >0\gt 0 +0+0 Semidefinita positiva
=0=0 <0\lt 0 0-0 Semidefinita negativa
<0\lt 0 ++- Indefinita

7.1 Serie di Taylor al secondo ordine

Sia AR2A \sube \mathbb{R}^2, fC2(A)f \in \mathcal{C}^2(A). x0A\forall \underline x_0 \in A vale che

f(x0+h)=f(x0)+f(x0),h+12h,Hf(x0)h+o(h2) f(\underline x_0 + \underline h) = f(\underline x_0) + \lang \nabla f(\underline x_0), \underline h \rang + \frac{1}{2} \lang \underline h, H_f(\underline x_0) \cdot \underline h \rang + \small o(\|\underline h\|^2)

Equivalentemente se x=x0+h\underline x = \underline x_0 + h, lo sviluppo diventa

f(x)=f(x0)+f(x0),xx0+12xx0,Hf(x0)(xx0)+o(xx0) f(\underline x) = f(\underline x_0) + \lang \nabla f(\underline x_0), \underline x -\underline x_0 \rang + \frac{1}{2} \lang \underline x - \underline x_0, H_f(\underline x_0)(\underline x - \underline x_0) \rang + \small o(\|\underline x - \underline x_0\|)

Siano AeR2A \sub e\mathbb{R}^2 un sottoinsieme qualunque e f:ARf : A \to \mathbb{R}, allora un punto (x0,y0)A(x_0, y_0) \in A si dice

Se un punto rientra nelle definizioni appena date, allora viene detto punto di estremo o estremante o estremale.

Il teorema di Fermat afferma che con AR2A \sube \mathbb{R}^2 aperto e f:ARf : A \to \mathbb{R}, se (x0,y0)(x_0, y_0) è estremo per ff allora f(x0,y0)=(00)\nabla f(x_0, y_0) = \begin{pmatrix} 0 \\ 0 \end{pmatrix} e viene detto punto critico.

Se un punto è estremale allora è critico ma non vale il viceversa.

Se un punto è critico ma non estremale, è detto sella.

Nel piano, una funzione può essere simmetrica in molteplici modi:

Descrizione Simmetria
Pari, rispetto all’origine f(x,y)=f(x,y)f(-x, -y) = f(x, y)
Dispari, rispetto all’origine f(x,y)=f(x,y)f(-x, -y) = -f(x, y)
Pari, rispetto all’asse y f(x,y)=f(x,y)f(-x, y) = f(x, y)
Dispari, rispetto all’asse y f(x,y)=f(x,y)f(-x, y) = -f(x, y)
Pari, rispetto all’asse x f(x,y)=f(x,y)f(x, -y) = f(x, y)
Dispari, rispetto all’asse x f(x,y)=f(x,y)f(x, -y) = -f(x, y)

E’ possibile sfruttare queste simmetrie per semplificare la ricerca dei punti critici riducendo di molto lo spazio di ricerca.

Per determinare (e, successivamente, classificare) i punti critici, trovo tutti i punti nei quali f(x,y)=0\nabla f(x, y) = \underline 0 e tutti i punti di non derivabilità: questi punti sono tutti candidati ad essere critici e quindi vanno studiati.

Teorema del criterio della matrice hessiana

Sia AR2A \sube \mathbb{R}^2 aperto (in modo da poter applicare il teorema di Fermat), fC2(A)f \in \mathcal{C}^2(A) (in modo che la matrice hessiana esista) e x0=(x0,y0)\underline x_0 = (x_0, y_0) punto critico di ff (cioè f(x0,y0)=0\nabla f(x_0, y_0) = 0). Denoto con qq la forma quadratica indotta dalla matrice Hf(x0)H_f(\underline x_0):

q(h1,h2)=(h1,h2)Hf(x0)(h1h2) q(h_1, h_2) = (h_1, h_2) \cdot H_f(x_0) \cdot \begin{pmatrix} h_1 \\ h_2 \end{pmatrix}

Allora

  1. Se qq è definita positiva allora x0\underline x_0 è punto di minimo
  2. Se qq è definita negativa allora x0\underline x_0 è punto di massimo
  3. Se qq è indefinita allora x0\underline x_0 è punto di sella

Dimostrazione

Essendo per ipotesi x0\underline x_0 un punto critico allora f(x0,y0)=0\nabla f(x_0, y_0) = 0 e quindi nello sviluppo di Taylor al secondo ordine non compare il gradiente:

f(x0+h)=f(x0)+12q(h)+o(h) f(\underline x_0 + \underline h) = f(\underline x_0) + \frac{1}{2} q(\underline h) + \small o(\|\underline h\|)

Se qq è definita positiva, per definizione q(h)>0h0q(\underline h) \gt 0 \quad \forall \underline h \ne \underline 0 quindi f(x0+h)>f(x0)+o(h)f(\underline x_0 + \underline h) \gt f(\underline x_0) + \small o(\|\underline h\|) quindi x0\underline x_0 è un punto di minimo locale.

Se qq è definita positiva, per definizione q(h)<0h0q(\underline h) \lt 0 \quad \forall \underline h \ne \underline 0 quindi f(x0+h)<f(x0)+o(h)f(\underline x_0 + \underline h) \lt f(\underline x_0) + \small o(\|\underline h\|) quindi x0\underline x_0 è un punto di massimo locale.

Se qq è indefinita, per definizione h1,h2:q(h1)>0,q(h2)<0\exists \underline h_1, \underline h_2 : q(\underline h_1) \gt 0, q(\underline h_2) \lt 0 quindi f(x0+h1)>f(x0)f(\underline x_0 + \underline h_1) \gt f(\underline x_0) e f(x0+h2)<0f(\underline x_0 + \underline h_2) \lt 0.

Come volevasi dimostrare.

Se qq è indefinita, questo criterio non permette di ricavare informazioni.

Esiste una versione semplificata e più applicabile del precedente teorema:

Sia f:R2Rf : \mathbb{R}^2 \to R, fC2(R2)f \in \mathcal{C}^2(\mathbb{R}^2), allora ff è convessa in R2\mathbb{R}^2 se (x,y)R2\forall (x, y) \in \mathbb{R}^2 si ha che Hf(x,y)H_f(x, y) è definita positiva o semidefinita positiva e ff è concava in R2\mathbb{R}^2 se (x,y)R2\forall (x, y) \in \mathbb{R}^2 si ha che Hf(x,y)H_f(x, y) è definita negativa o semidefinita negativa.

Se fC2(R2)f \in \mathcal{C}^2(\mathbb{R}^2) è convessa e x0\underline x_0 è punto critico allora x0\underline x_0 è punto di minimo assoluto.

Se fC2(R2)f \in \mathcal{C}^2(\mathbb{R}^2) è concava e x0\underline x_0 è punto critico allora x0\underline x_0 è punto di massimo assoluto.

Se cerco i punti estremanti di una funzione ff in un insieme AA non aperto, non è sufficiente applicare il teorema di Fermat nell’aperto perchè potrebbero esserci estremanti sul bordo (e che quindi non verificano il teorema di Fermat).

In tal caso, ci viene in soccorco il teorema di Weierstrass: sia AR2A \sube \mathbb{R}^2 chiuso e limitato e sia f:ARf : A \to \mathbb{R}. Allora ff ammette i valori di massimo e minimo assoluto, cioè esistono (xm,ym),(xM,yM)A(x_m, y_m), (x_M, y_M) \in A tali che f(xm,ym)f(x,y)f(xM,yM)f(x_m, y_m) \le f(x, y) \le f(x_M, y_M).

In pratica, questo teorema ci aiuta nel senso che ci dice che possiamo analizzare la curva che costituisce la frontiera dell’insieme sotto esame e aggiungere ai candidati i punti di massimo e di minimo di tale curva.

Bisogna però prestare attenzione al fatto che il teorema non parla dell’esistenza dei punti nei quali la funzione ammette i valori massimo e minimo, ma soltanto dei valori stessi; ne segue che una funzione potrebbe ammettere anche infiniti punti nei quali assume i valori di massimo e minimo.

Quando utilizzo il suddetto teorema, devo specificare che lo sto utilizzando.

7.2 Vincoli di uguaglianza

Lo scopo è cercare i punti di massimo e minimo di una funzione f(x,y)f(x, y) sotto un vincolo della forma F(x,y)=0F(x, y) = 0 con F(x,y)=f(x,y)kF(x, y) = f(x, y) - k, cioè ff ma vincolata all’insiem di livello kk.

x0x_0 viene detto punto di massimo relativo per ff vicolato a ZZ se δ>0:f(x0)f(x)xBδ(x0)Z\exists \delta \gt 0 : f(\underline x_0) \ge f(\underline x) \forall x \in B_\delta(\underline x_0) \cap Z.

x0x_0 viene detto punto di massimo assoluto per ff vincolato a ZZ se f(x0)xZf(\underline x_0) \forall \underline x \in Z.

Per i minimi, le definizioni sono analoghe.

Se x0x_0 è detto punto di estremo vincolato se è massimo o minimo vincolato.

Per trovare massimi e minimi di una funzione vincolata, esistono principalmente tre metodi: il metodo di sostituzione in coordinate cartesiane, il metodo di sostituzione in coordinate polari e il metodo dei moltiplicatori di Lagrange.

Il metodo di sostituzione in coordinate cartesiane consiste nel trovare, partendo dalla FF, la yy espressa in funzione della xx (o viceversa) e sostituire la variabile trovata nella ff sotto analisi in modo da trasformare il tutto in uno studio di funzione 1-dimensionale: dopo aver trovato i massimi e i minimi della ff 1-dimensionale, si sostituiscono i valori trovati al posto della variabile in funzione della quale viene descritta la vriabile precedentemente utilizzata e così sono state trovate tutte le coordinate dei punti di massimo e minimo. Ad esempio, se dalla FF ricavo che y=y(x)y = y(x), scrivo che g(x)=f(x,y)=f(x,y(x))g(x) = f(x, y) = f(x, y(x)) e studio i massimi e i minimi di gg. Supponendo che gg risulti avere un massimo in xMx_M e un minimo in xmx_m allora le coordinate di massimo e minimo di f(x,y)f(x, y) saranno (xM,y(xM))(x_M, y(x_M)) e (xm,y(xm))(x_m, y(x_m)).

Nel caso in cui l’insieme Z={(x,y):f(x,y)=0}Z = \{(x, y) : f(x, y) = 0\} sia una circonferenza, è possibile utilizzare il metodo di sostituzione in coordinate cartesiane che consiste nell’applicare la sostituzione

{x=r0cosθy=r0sinθ \begin{cases} x = r_0 \cos \theta \\ y = r_0 \sin \theta \end{cases}

ottenendo g(θ)=f(r0cosθ,r0sinθ)g(\theta) = f(r_0 \cos \theta, r_0 \sin \theta) e nel studiare la funzione così ottenuta per θ[0,2π)\theta \in [0, 2 \pi).

Il metodo dei moltiplicatori di Lagrange è l’equivalente del teorema di Fermat ma per i punti di estremo sul vincolo di uguaglianza.

Siano DR2D \sube \mathbb{R}^2 aperto, f,FC1Df,F \in \mathcal{C}^1{\mathbb{D}}. Se x0\underline x_0 è punto di estremo vincolato a ZZ per ff con Z={(x,y)D:F(x,y)=0}Z = \{(x, y) \in D : F(x, y) = 0\} e inoltre F(x,y)0\nabla F(x, y) \ne 0 (leggasi “la curva è regolare”) allora esiste un λ0R\lambda_0 \in \mathbb{R} detto moltiplicatore di Lagrange tale che λf(x0)=λ0F(x0)\lambda f(\underline x_0) = \lambda_0 \nabla F(\underline x_0).

In pratica, si deve risolvere il seguente sistema nonlineare a tre incognite (x0,y0,λ0)(x_0, y_0, \lambda_0)

{fx(x0)=λ0Fx(x0)fy(x0)=λ0Fy(x0)F(x0)=0 \begin{cases} \frac{\partial f}{\partial x} (\underline x_0) = \lambda_0 \frac{\partial F}{\partial x} (\underline x_0) \\ \frac{\partial f}{\partial y} (\underline x_0) = \lambda_0 \frac{\partial F}{\partial y} (\underline x_0) \\ F(\underline x_0) = 0 \end{cases}

e poi classificare le varie combinazioni soluzioni ottenute (ignorando le λ\lambda) per capire di che tipo di punti si tratta.

Siano AR2A \sube \mathbb{R}^2 aperto, f,FC1(A)f,F \in \mathcal{C}^1(A). Si definisce Lagrangiana la funzione di tre variabili L(x,y,λ)=f(x,y)λF(x,y)\mathscr{L}(x, y, \lambda) = f(x, y) - \lambda F(x, y) il cui gradiente posto uguale a zero risolve il sistema dei moltiplicatori di Lagrange.

Capitolo Otto: Integrali doppi

DR2D \sube \mathbb{R}^2 è detta regione y-semplice se è della forma

D={(x,y)R2:x[a,b],g1(x)yg2(x)} D = \{(x, y) \in \mathbb{R}^2 : x \in [a, b], g_1(x) \le y \le g_2(x)\}

con [a,b][a, b] limitato, g1g2g_1 \le g_2 e g1,g2g_1, g_2 continue in [a,b][a, b].

DR2D \sube \mathbb{R}^2 è detta regione x_semplice se è della forma

D={(x,y)R2:y[c,d],h1(y)xh2(y)} D = \{(x, y) \in \mathbb{R}^2 : y \in [c, d], h_1(y) \le x \le h_2(y)\}

con [c,d][c, d] limitato, h1h2h_1 \le h_2 e h1,h2h_1, h_2 continue in [c,d][c, d].

Se DR2D \sube R^2 è regione semplice e f:DRf : D \to \mathbb{R} è continua su DD allora ff è integrabile su DD.

Se DD è unione di regioni semplici, si può integrare separatamente su ciascuna regione e poi sommare i risultati.

Se DD è y-semplice allora

Df(x,y)dxdy=ab(g1(x)g2(x)f(x,y)dy)dx \int \int_D f(x, y) dxdy = \int_a^b \left( \int_{g_1(x)}^{g_2(x)} f(x, y) dy \right) dx

Se DD è x-semplice allora

Df(x,y)dxdy=cd(h1(y)h2(y)f(x,y)dx)dy {\int\int}_D f(x, y) dxdy = \int_c^d \left( \int_{h_1(y)}^{h_2(y)} f(x, y) dx \right) dy

Se f(x,y)=f1(x)f2(y)f(x, y) = f_1(x) \cdot f_2(y) e le due funzioni g1,g2g_1, g_2 o h1,h2h_1, h_2 sono costanti, il conto si può semplificare rendendolo prodotto di integrali:

Df(x,y)dxdy=ab(g1(x)g2(x)f(x,y)dy)dx=cdf2(y)dyabf1(x)dx {\int\int}_D f(x, y) dxdy = \int_a^b \left( \int_{g_1(x)}^{g_2(x)} f(x, y) dy \right) dx = \int_c^d f_2(y) dy \cdot \int_a^b f_1(x) dx

8.1 Cambio di variabili (coordinate polari)

Se applico alla ff da integrare una mappa del tipo φ(x,y)=(rcosθrsinθ)\varphi(x, y) = \begin{pmatrix} r \cos \theta \\ r \sin \theta \end{pmatrix} allora ottengo che f(φ(x,y))=f(r,θ)f(\varphi(x, y)) = f(r, \theta) e che f=f(φ(x,y))φ(x,y)f' = f'(\varphi(x, y)) \cdot \varphi'(x, y). Necessito di trovare φ\varphi', per farlo utilizzo la matrice jacobiana:

Jφ(r,θ)=[[φ1(r,θ)]T[φ2(r,θ)]T]=[φ1rφ1θφ2rφ2θ]=[cosθrsinθsinθrcosθ] J_\varphi(r, \theta) = \begin{bmatrix} \left[ \nabla \varphi_1(r, \theta) \right]^T \\ \left[ \nabla \varphi_2(r, \theta) \right]^T \\ \end{bmatrix} = \begin{bmatrix} \frac{\partial \varphi_1}{\partial r} & \frac{\partial \varphi_1}{\partial \theta} \\ \frac{\partial \varphi_2}{\partial r} & \frac{\partial \varphi_2}{\partial \theta} \\ \end{bmatrix} = \begin{bmatrix} \cos \theta & -r \sin \theta \\ \sin \theta & r \cos \theta \\ \end{bmatrix}

da cui segue che

detJφ(r,θ)=r |\det J_\varphi(r, \theta)| = r

Dunque φ(r,θ)=r\varphi'(r, \theta) = r.

Per effettuare un cambio di variabili con una mappa generica, φ\varphi deve essere di classe C1\mathcal{C}^1, biunivoca e detJφ(u,v)0\det J_\varphi(u, v) \ne 0 e limitato u,v\forall u,v.

Capitolo Nove: Integrali tripli

ER3E \sube \mathbb{R}^3 è detta regione z-semplice se è della forma

E={(x,y,z)R3:(x,y)D,h1(x,y)zh2(x,y)} E = \{ (x, y, z) \in \mathbb{R}^3 : (x, y) \in D, h_1(x, y) \le z \le h_2(x, y) \}

con DD regione semplice, h1h2h_1 \le h_2 e h1,h2h_1,h_2 continue in DD.

9.1 Integrazione per fili

Sia EE regione z-semplice, f:ERf : E \to R continua in EE, allora ff è integrabile su EE e vale la formula di integrazione per fili.

L’integrazione per fili consiste nell’integrare su di un filo (integrale singolo) e poi integrare il risultato su di un’area (integrale doppio):

Ef(x,y,z)dxdydz=D(h1(x,y)h2(x,y)f(x,y,z)dz)dxdy {\int\int\int}_E f(x, y, z) dxdydz = {\int\int}_D \left( \int_{h_1(x, y)}^{h_2(x, y)} f(x, y, z) dz \right) dxdy

Se fosse richiesto di integrare su una regione x-semplice o y-semplice allora si sotituisce la z con, rispettivamente, x e y.

9.2 Integrazione per strati.

Sia EE regione z-semplice, f:ERf : E \to R continua in EE, allora ff è integrabile su EE e vale la formula di integrazione per strati.

L’integrazione per strati consiste nell’integrare su di uno strato (integrale doppio) e poi integrare il risultato su un filo generico (integrale singolo):

Ef(x,y,z)dxdydz=ab(Df(x,y,z)dxdy)dz {\int\int\int}_E f(x, y, z) dxdydz = \int_a^b \left( {\int\int}_D f(x, y, z) dxdy \right) dz

dove i parametri aa e bb sono i limiti entro i quali è compresa zz.

Per scegliere tra integrazione per fili o per strati, è necessario capire “di che forma” è il dominio e vedere se è più facile trgliarlo a fette (integrale per strati) o in fili. Tendenzialmente, se i limiti entro i quali è compresa zz sono costanti, è preferibile l’integrazione per strati.

9.3 Cambio di variabili (coordinate sferiche)

Il ragionamento è identico a quello del cambiamento di coordinate in coordinate polari ma cambia il determinante jacobiano.

La mappa che descrive il cambiamento di coordinate è

{T1(r,φ,θ)=rsinφcosθT2(r,φ,θ)=rsinφsinθT3(r,φ,θ)=rcosφ \begin{cases} T_1(r, \varphi, \theta) = r \sin \varphi \cos \theta \\ T_2(r, \varphi, \theta) = r \sin \varphi \sin \theta \\ T_3(r, \varphi, \theta) = r \cos \varphi \end{cases}

Dunque, per calcolare il determinante jacobiano si procede come segue:

JT(r,φ,θ)=[[T1(r,φ,θ)]T[T2(r,φ,θ)]T[T3(r,φ,θ)]T]=[T1rT1φT1θT2rT2φT2θT3rT3φT3θ]=[sinφcosθrcosφcosθrsinφsinθsinφsinθrcosφsinθrsinφcosθcosφrsinφ0]detJT(r,φ,θ)=cosφdet[rcosφcosθrsinφsinθrcosφsinθrsinφcosθ]+rsinφdet[sinφcosθrsinφsinθsinφsinθrsinφcosθ]=cosφ(r2sinφcosφcos2θ+r2sinφcosφsin2θ)+rsinφ(rsin2φcos2θ+rsin2φsin2θ)=r2sinφcos2φcos2θ+r2sinφcos2φsin2θ+r2sin3φcos2θ+r2sin3φsin2θ=r2sinφcos2φ(cos2θ+sin2θ)+r2sin3φ(cos2θ+sin2θ)=r2sinφcos2φ+r2sin3φ=r2sinφ(cos2φ+sin2φ)=r2sinφ J_T(r, \varphi, \theta) = \begin{bmatrix} \left[ \nabla T_1(r, \varphi, \theta) \right]^T \\ \left[ \nabla T_2(r, \varphi, \theta) \right]^T \\ \left[ \nabla T_3(r, \varphi, \theta) \right]^T \\ \end{bmatrix} = \begin{bmatrix} \frac{\partial T_1}{\partial r} & \frac{\partial T_1}{\partial \varphi} & \frac{\partial T_1}{\partial \theta} \\ \frac{\partial T_2}{\partial r} & \frac{\partial T_2}{\partial \varphi} & \frac{\partial T_2}{\partial \theta} \\ \frac{\partial T_3}{\partial r} & \frac{\partial T_3}{\partial \varphi} & \frac{\partial T_3}{\partial \theta} \\ \end{bmatrix} = \begin{bmatrix} \sin \varphi \cos \theta & r \cos \varphi \cos \theta & -r \sin \varphi \sin \theta \\ \sin \varphi \sin \theta & r \cos \varphi \sin \theta & r \sin \varphi \cos \theta \\ \cos \varphi & -r \sin \varphi & 0 \end{bmatrix} \\ \begin{align*} \det J_T(r, \varphi, \theta) &= \cos \varphi \det \begin{bmatrix} r \cos \varphi \cos \theta & -r \sin \varphi \sin \theta \\ r \cos \varphi \sin \theta & r \sin \varphi \cos \theta \\ \end{bmatrix} + r \sin \varphi \det \begin{bmatrix} \sin \varphi \cos \theta & -r \sin \varphi \sin \theta \\ \sin \varphi \sin \theta & r \sin \varphi \cos \theta \\ \end{bmatrix} \\ &= cos \varphi (r^2 \sin \varphi \cos \varphi \cos^2 \theta + r^2 \sin \varphi \cos \varphi \sin^2 \theta) + r \sin \varphi (r \sin^2 \varphi \cos^2 \theta + r \sin^2 \varphi \sin ^2 \theta) \\ &= r^2 \sin \varphi \cos^2 \varphi \cos^2 \theta + r^2 \sin \varphi \cos^2 \varphi \sin^2 \theta + r^2 \sin^3 \varphi \cos^2 \theta + r^2 \sin^3 \varphi \sin^2 \theta \\ &= r^2 \sin \varphi \cos^2 \varphi (\cos^2 \theta + \sin^2 \theta) + r^2 \sin^3 \varphi (\cos^2 \theta + \sin^2 \theta) \\ &= r^2 \sin \varphi \cos^2 \varphi + r^2 \sin^3 \varphi \\ &= r^2 \sin \varphi (\cos^2 \varphi + \sin^2 \varphi) \\ &= r^2 \sin \varphi \end{align*}

9.4 Massa e baricentro

Sia ER3E \sube \mathbb{R}^3 regione semplice che rappresenta un corpo rigido e ρ(x,y,z):ER+\rho(x, y, z) : E \to \mathbb{R}^+ la funzione che rappresenta la densità di massa nel punto (x,y,z)(x, y, z), allora

Massa(E)=Eρ(x,y,z)dxdydz \text{Massa}(E) = {\int\int\int}_E \rho(x, y, z) dxdydz

Il baricentro è il punto che può essere considerato come punto di applicazione delle forze agenti sul campo. Il baricentro (xB,yB,zB)(\overline x_B, \overline y_B, \overline z_B) si calcola nel seguente modo:

xB=1Massa(E)Exρ(x,y,z)dxdydzyB=1Massa(E)Eyρ(x,y,z)dxdydzzB=1Massa(E)Ezρ(x,y,z)dxdydz \overline x_B = \frac{1}{\text{Massa}(E)} \cdot {\int\int\int}_E x \cdot \rho(x, y, z) dxdydz \\ \overline y_B = \frac{1}{\text{Massa}(E)} \cdot {\int\int\int}_E y \cdot \rho(x, y, z) dxdydz \\ \overline z_B = \frac{1}{\text{Massa}(E)} \cdot {\int\int\int}_E z \cdot \rho(x, y, z) dxdydz \\

9.5 Cambio di variabili (coordinate cilindriche)

Il passaggio a coordinate cilindriche si applica quando EE è z-semplice della forma E={(x,y,z)R3:(x,y)D,h1(x,y)xh2(x,y)}E = \{(x, y, z) \in \mathbb{R}^3 : (x, y) \in D, h_1(x, y) \le x \le h_2(x, y)\} e DD è a simmetria radiale.

In tal caso, si procede prima integrando per fili e poi procedendo al cambio di variabili in coordinate polari:

j(x,y)=h1(x,y)h2(x,y)f(x,y,z)dzEf(x,y,z)dxdydz=Dj(x,y)dxdy=j(rcosθ,rsinθ)rdrdθ j(x, y) = \int_{h_1(x, y)}^{h_2(x, y)} f(x, y, z) dz \\ {\int\int\int}_E f(x, y, z) dxdydz = {\int\int}_D j(x, y) dxdy = \int\int j(r \cos \theta, r \sin \theta) r drd\theta

Capitolo Dieci: Studio qualitativo EDO

Sia AR2A \sube \mathbb{R}^2, f:ARf : A \to \mathbb{R} continua in AA. Se in un intorno del punto (t0,y0)A(t_0, y_0) \in A, fy(t,y)\frac{\partial f}{\partial y}(t, y) esiste ed è continua allora il problema di Cauchy

{y(t)=f(t,y(t))y(t0)=y0 \begin{cases} y'(t) = f(t, y(t)) \\ y(t_0) = y_0 \end{cases}

ammette un’unica soluzione localmente in un intorno del punto (t0,y0)(t_0, y_0).

In pratica, se f:AR2Rf : A \sube \mathbb{R}^2 \to \mathbb{R} non contiene termini del tipo (yy)α(y - \overline y)^\alpha con α(0,1)\alpha \in (0, 1) o yyα|y - \overline y|^\alpha con α(0,1]\alpha \in (0, 1] allora fy\frac{\partial f}{\partial y} esiste ed è continua in tutto AA e quindi tutti i problemi di Cauchy con (t0,y0)A(t_0, y_0) \in A ammettono soluzione unica e quindi i grafici di soluzioni distinte non si intersecano.

Se invece ff contiene termini del tipo (yy)α(y - \overline y)^\alpha con α(0,1)\alpha \in (0, 1) o yyα|y - \overline y|^\alpha con α(0,1]\alpha \in (0, 1] allora fy\frac{\partial f}{\partial y} potrebbe non esistere o non essere continua nella retta y=yy = \overline y. Fuori dalla retta continua a valere l’unicità locale.

Nel caso in cui esistano due soluzioni allo stesso problema di Cauchy, queste si intersecano sempre (almeno nel punto in cui si impine il passaggio della funzione).

Nel caso in cui valga il teorema di esistenza e unicità locale in tutti i punti del dominio di ff e t[a,b]t \in [a, b] è un intervallo fissato indipendente da yy (quindi è una striscia verticale), se A=[a,b]×RA = [a, b] \times \mathbb{R} è limitato, f:ARf : A \to \mathbb{R} è continua e fy\frac{\partial f}{\partial y}, allora

  1. se esistono due costanti M,N<0M,N \lt 0 tali che (t,y)A\forall (t, y) \in A vale che f(t,y)My+N|f(t, y)| \le M|y| + N oppure fy(t,y)M\left| \frac{\partial f}{\partial y} (t, y) \right| \le M allora (t0,y0)A\forall (t_0, y_0) \in A il problema di Cauchy y(t0)=y0y(t_0) = y_0 ha un’unica soluzione definita t[a,b]\forall t \in [a, b]
  2. se per una soluzione particolare y\overline y esiste k>0k \gt 0 tale che y(t)kt\overline y(t) \le k \quad \forall t nel dominio di definizione di y\overline y allora y\overline y è definita t[a,b]\forall t \in [a, b].

10.1 Studio qualitativo di EDO del primo ordine

Lo studio qualitativo di una EDO consiste nel tracciare un gragfco approssimativo della sua soluzione anche senza saperla risolvere.

Una EDO è detta autonoma se la sua ff non dipende da tt, quindi se è della forma y(t)=f(y(t))y'(t) = f(y(t)).

Le EDO autonome sono un sottoinsieme delle edo a variabili separabili e possono essere risolte come tali

y(t)=f(y(t))    t0ty(t0)f(y(t))dt=y(t0)y(t)dyf(y)=t0t1dt y'(t) = f(y(t)) \iff \int_{t_0}^t \frac{y'(t_0)}{f(y(t))} dt = \int_{y(t_0)}^{y(t)} \frac{dy}{f(y)} = \int_{t_0}^t 1 dt

Se però 1f(y)\frac{1}{f(y)} non è facilmente integrabile, è comunque possibile tracciare un grafico approssimato delle sue soluzioni attraverso lo studio qualitativo.

Se y(t)y(t) è soluzione, allora anche z(t)=y(t+c)z(t) = y(t + c) lo è, infatti se yy è soluzione, allora y(t)=f(y(t))y'(t) = f(y(t)) e quindi z(t)=y(t+c)=f(y(t+c))=f(z)z'(t) = y'(t + c) = f(y(t + c)) = f(z). Questa proprietà di cide che qualsiasi sia la soluzione trovata, una soluzione con la stessa forma ma translata orizzontalmente è comunque soluzione dell’equazione sotto esame.

Dato che si tratta di EDO lineari, vale il teorema di esistenza e unicità globale per il problema di Cauchy quindi in ogni punto passa una e una sola soluzione e in tutti i punti passa una e una sola soluzione, quindi le soluzioni non si intersecano.

Per disegnare una soluzione approssimativa, bisogna ricavare la linea delle fasi:

  1. si disegna f(y)f(y) sul piano con yy sull’asse delle ascisse e f(y)f(y) sull’asse delle ordinate;
  2. si posiziona un’asse monodimensionale (la linea delle fasi) sotto il grafico del punto 1;
  3. si segna un punto sulla linea delle fasi (punto di equilibrio) in corrispondenza degli zeri della f(y)f(y), ottenendo così degli intervalli;
  4. si segna un afreccia verso sinistra (negativa) dove la f(y)f(y) è negativa e una verso destra (positiva) dove la f(y)f(y) è positiva;
  5. si ruota la linea delle fasi di 90° in senso antiorario, in modo da avere le y positive in alto;
  6. si disegna un piano con tt sull’asse delle ascisse e y(t)y(t) sull’asse delle ordinate e lo si posiziona di fianco alla linea delle fasi appena ruotata;
  7. sul nuovo grafico, si disegna una soluzione costante in corrispondenza di ciascun punto d’equilibrio;
  8. per ogni freccia positiva sulla linea delle fasi, si disegna una funzione più o meno simile ad un sigmoide che per tt \to -\infty è asintotica alla soluzione costante che delimita inferiormente l’intervallo in cui ci si trova e per t+t \to +\infty è asintotica alla soluzione costante che delimita superiormente l’intervallo in cui ci si trova;
  9. per ogni freccia negativa, il ragionamento è analogo a quello per le frecce positive ma con le soluzioni costanti opposte.

Se un intervallo non è delimitato da un punto di equilibrio, allora la soluzione approssimativa tenderà a ±\pm \infty compatibilmente con la posizione della soluzione all’interno della linea delle fasi.

E’ importante ricordare ancora una volta che, per il teorema di esistenza e unicità, nessuna soluzione si interseca con altre soluzioni, dunque le soluzioni non costanti, pur avvicinandosi sempre più a quelle costanti, non le toccheranno mai.

Se viene richiesto di disegnare una soluzione approssimativa che passa in un punto particolare, si transla orizzontalmente la soluzione approssimativa trovata nell’intervallo che contiene il punto finchè la soluzione non passa per tale punto.

10.2 Sistemi differenziali autonomi nel piano

Un sistema differenziale autonomo è un sistema differenziale della forma

y(t)=f(y(t)){f1(y1(t),y2(t))f2(y1(t),y2(t)) \underline y'(t) = \underline f(\underline y(t))\begin{cases} f_1(y_1(t), y_2(t)) \\ f_2(y_1(t), y_2(t)) \end{cases}

con f:AR3f : A \sube \mathbb{R}^3 continua che non dipende esplicitamente da tt.

Se per le equazioni si ha la linea delle fasi, per i sistemi 2-dimensionali si ha il piano delle fasi.

Sono detti punti di equilibrio i punti nei quali f(y1,y2)=0f(y_1, y_2) = \underline 0 e corrispondono con le soluzioni costanti dell’equazone.

Una traiettoria/orbita è invece, una curva che rappresenta una famiglia di soluzioni della forma y(t+c)\underline y(t + c) (i punti di equilibrio sono inclusi in questa definizione).

Per disegnare le soluzioni approssimative, si deve disegnare il piano delle fasi:

  1. si ricava la matrice AA del sistema, così come gli autovalori e gli autovettori;
  2. per ciascun autovettore, si sisegna una retta passante per l’origine e diretta come l’autovettore;
  3. per ciascuna retta, se l’autovalore associato all’autovettore da cui è originata è positivo, allora si disegnano due frecce (una da un alto dell’origine e l’altra dall’altro) in direzione uscente, se l’autovettore è negativo allora la direzione è entrante;
  4. si combinano le informazioni come in foto
In nero il piano delle fasi, in arancio e in verde le due rette e in rosso le famiglie di soluzioni

In caso di autovalori diversi con lo stesso segno, le famiglie di soluzioni sono tangenti alla retta con autovalore più piccolo in modulo.

Sia nell’asse che nel piano delle fasi, se una soluzione costante ha soltanto frecce entranti, è detta punto di equilibrio stabile, se invece ha anche una sola freccia uscente, è detta di equilibrio instabile.

Capitolo Finale: Varie ed eventuali

Di seguito lista delle dimostrazioni da conoscere per l’esame:

  1. Formula risolutiva EDO del primo ordine lineari
  2. Teorema di struttura dell’integrale generale di EDO del secondo ordine lineari omogenee
  3. Calcolo del raggio di convergenza
  4. Calcolo dei coefficienti di Fourier
  5. Invarianza della lunghezza di una curva per riparametrizzazione
  6. Differenziabilità implica continuità
  7. Formula del gradiente
  8. Ortogonalità del gradiente alle curve di livello
  9. Criterio della matrice hessiana
  10. Cambio di variabili in coordinate sferiche

Di seguito tabella riassuntiva dei vari insiemi di convergenza delle serie di funzioni

Insieme Convergenza Significato
JJ Insieme di definizione delle fn(x)f_n(x)
EJE \sube J Semplice/puntuale Insieme di punti nel quale la serie di funzioni converge
IJI \sube J Totale Intervallo nel quale ogni termine della serie di funzioni può essere maggiorata in modulo da una serie numerica convergente
Ultima modifica: 1/1/2025, 4:50:41 PM
Scritto da: Alessandro Modica   Joele Andrea Ortore   Andrea Oggioni