Questa pagina è la seconda versione, per la prima versione,
visitare questa pagina.
Capitolo Uno: Equazioni
differenziali
1.1 Equazioni
differenziali ordinarie (EDO)
Risolvere un’equazione differenziale vuol dire trovare una funzione
y(t) che soddisfa un’equazione del tipo
y′(t)=f(t,y(t)) (un equazione
del genere è detta in forma normale).
Si dice integrale generale l’insieme di tutte le
soluzioni di una EDO.
Una EDO si dice del primo ordine se contiene al
massimo occorrnze della derivata prima della funzione incognita.
Per trovare il dominio di una EDO, si scrive f(t,s) e si trovano le condizioni di
esistenza sul piano t-s.
1.2 Soluzioni costanti
Una soluzione costante è una soluzione della forma
y(t)=k∀t. Per trovare
le soluzioni costanti, so sostituisce nella EDO y(t) con k e
y′(t) con 0 (infatti la derivata di una costante è
nulla) e si risolve per k l’equazione
ottenuta.
1.3 EDO a variabili separabili
Una EDO del primo ordine si dice a variabili
separabili se è della forma y′(t)=h(t)⋅g(y(t)) con h:J1⊆R→R e g:J2⊆R→R continue.
Si dice a variabili separabili perchè è possibile portare da
un lato tutte le occorrenze di y(t) e
y′(t) lasciando dall’altro tutte le
occorrenze di t.
Le soluzioni costanti di una EDO a variabili separabili sono y(t)=c dove c sono le soluzioni di g(c)=0.
Per risolvere una EDO a variabili separabili, è necessario seguire
una procedura predefinita:
Da y′(t)=h(t)⋅g(y(t))
trovo che f(t,y(t))=h(t)⋅g(y(t)) quindi f(t,s)=h(t)⋅g(s).
Trovo le soluzioni costanti y(t)=s imponendo g(s)=0.
Divido l’equazione originale da entrambi i lati per g(y(t)) e integro da entrambi i lati da t0 a t,
ottenendo ∫t0tg(y(t))y′(t)dt=∫t0th(t)dt Il lato destro viene risolto normalmente, il lato sinistro
diventa ∫t0tg(y(t))y′(t)dt=∫y(t0)y(t)g(y)1dy e si risolve per t(t),
inglobando tutte le costanti in C (o
altre lettere se la C è già stata
utilizzata).
1.4 Problema di
Cauchy per una EDO del primo ordine
Data una EDO del primo ordine y′(t)=f(t,y(t)), sia (t0,y0) un
punto appartenente al dominio di f. Il
problema di Cauchy consiste nel determinare una
soluzione dell’equazione che passi per quel punto.
{y′(t)=f(t,y(t))y(t0)=y0
Per una EDO del primo ordine, viene imposta quindi una sola
condizione aggiuntiva.
Per risolvere un problema di Cauchy di tale genere, si seguono i
seguenti passaggi:
Trovo l’integrale generale.
Impongo la condizione aggiuntiva per trovare la C.
Sostituisco la C nella soluzione
originale.
Se il dominio di f è diviso in più
parti, è sufficiente considerare solo la regione in cui si trova il
punto (t0,y0).
1.5 EDO del primo ordine
lineari
Una EDO del primo ordine lineare in forma normale è
una EDO della forma y′(t)=a(t)⋅y(t)+b(t) con a,b:J⊂R→R continue su J.
Teorema
di esistenza e unicità globale per il problema di Cauchy
Siano J⊂R, a,b:J→R continue su J. Per ogni t0∈J e y0∈R il
problema di Cauchy ha un’unica soluzione definita ∀t∈J.
Da questo ne derivano 3 cose molto importanti:
Dato un qualunque (t0,y0)∈J×R, c’è una soluzione della EDO che passa per tale punto;
i grafici delle soluzioni riempiono tutto J×R.
La soluzione è unica: i grafici non si intersecano.
Tutte le soluziono sono definite ∀t∈J.
Per risolvere una EDO del primo ordine lineare della forma y′(t)=a(t)⋅y(t)+b(t), considero
A(t) primitiva di a(t), successivamente, moltiplico da entrambi
i lati per e−A(t) e porto a sinistra
tutti i termini che contengono y:
In tal caso, l’EDO è anche a variabili separabili e si può risolvere
come si preferisce.
1.6 Equazioni di Bernoulli
Un’equazione di Bernoulli è una EDO del primo ordine non lineare
della forma y′(t)=k(t)⋅y(t)+h(t)⋅y(t)α con α∈R, α=0, α=1, h,k continue.
Se α è irrazionale oppure è
razionale con denominatore pari, allora yα ha senso solo se y≥0. Per semplificare, verrà trattato
solo il caso di y>0∀α. Per α∈{0,1},
non vale il teorema di unicità. Se α<0 non ha senso y=0.
Per risolvere un’equazione di Bernoulli, c’è un procedimento da
seguire.
Inizio cercando le soluzioni costanti:
y(t)=0 è sempre soluzione.
Se sia h che k sono costanti, posso raccogliere y(t)e trovare un’altra soluzione costante:
k⋅y(t)+h⋅y(t)α=0y(t)⋅(k+h⋅y(t)α−1)=0k+h⋅y(t)α−1=0y(t)α−1=−hky(t)=(−hk)α−11
Procedo cercando le soluzioni non costanti dividendo da entrambi i
lati per y(t)α:
Ora che ho ottenuto un’equazione lineare, la risolvo per z(t) e poi ritorno in y:
y(t)=z(t)1−α1
1.7 EDO del secondo ordine
lineari
Una EDO del secondo ordine lineare è un’equazione
della forma a(t)⋅y′′(t)+b(t)⋅y′(t)+c(t)⋅y(t)=f(t) con a,b,c,f:J⊆R→R e a=0.
1.8
Problema di Cauchy per una EDO del secondo ordine lineare
Il problema di Cauchy per una EDO del secondo ordine è analogo al
problema di Cauchy per una EDO del primo ordine, ma vengono imposte, al
posto che una, due condizioni aggiuntive che vanno a vincolare sia la
y che la y′. In particolare, un problema di Cauchy
per una EDO lineare del secondo ordine è un sistema della forma
Teorema
di esistenza e unicità globale per il problema di Cauchy
Data la EDO a(t)⋅y′′(t)+b(t)⋅y′(t)+c(t)⋅y(t)=f(t) con a,b,c,f,:J⊆R→R continue e a=0 in
J e assegnati t0∈J e y0,v0∈R allora il problema di Cauchy definito come
sopra ha un’unica soluzione y(t)
definita ∀t∈J.
Per il principio di sovrapposizione, se y1 e y2
sono soluzione della stessa EDO, y1−y2 è soluzione della EDO omogenea associata e tutte le soluzioni
di quest ultima formano uno spazio vettoriale
Teorema
di struttura dell’integrale generale di EDO del secondo ordine lineari
omogenee
Siano a,b,c:J⊆R→R continue in J con
a=0.
L’integrale generale dell’equazione omogenea a(t)⋅y′′(t)+b(t)⋅y′(t)+c(t)⋅y(t)=0 è uno spazio vettoriale di dimensione 2, cioè
le soluzioni sono della forma y0(t)=C1⋅yo1(t)+C2⋅yo2(t) con C1,C2∈R dove yo1 e yo2 sono due soluzioni linearmente
indipendenti.
Dimostrazione
Sia V lo spazio vettoriale delle
funzioni di classe C2 su
J.
L’integrale generale dell’omogenea è il seguente sottoinsieme di
V:
W={y∈V:ay′′+by′+cy=0}=kerL
dove L è l’operatore definito come
Ly=ay′′+by′+cy.
In quanto kernel di un’applicazione lineare, W è sottospazio vettoriale.
Per dimostrare che W ha dimensione
2, devo
Esibire due soluzioni linearmente indipendenti
Dimostrare che ogni altra soluzione si scrive come combinazione
lineare delle due soluzioni trovate al punto precedente.
Cerco due soluzioni linearmente indipendenti.
Sia t0∈J, per il teorema di
esistenza e unicità globale, posso scegliere due punti linearmente
indipendenti e cercare, per ciascun punto, una soluzione che passa per
tale punto.
Definisco ora una funzione z(t)=C1⋅yo1(t)+C2⋅yo2(t)=yo(t). z(t) risolve lo stesso problema di Cauchy di
yo(t) e quindi per il teorema di
esistenza e unicità globale del problema di Cauchy, sono la stessa
cosa.
1.9
Struttura dell’integrale generale di EDO del secondo ordine lineari non
omogenee
Siano a,b,c:J⊆R→R continue in J con
a=0.
L’integrale generale dell’equazione completa a(t)y′′(t)+b(t)y′(t)+c(t)y(t)=f(t) è y(t)=yo(t)+yp(t)=C1⋅yo1(t)+C2⋅yo2(t)+yp(t) con yo soluzione dell’omogenea associata, yo1,yo2 soluzioni particolari
linearmente indipendenti dell’omogenea associata e yp soluzione particolare dell’equazione
completa.
In pratica, l’integrale generale di una EDO del secondo ordine
lineare non omogenea è uno spazio affine di dimensione due che consiste
dello span delle soluzioni dell’omogenea associata, translata di yp.
1.10
Risoluzione di EDO omogenee a coefficienti costanti
Per risolvere una edo omogenea a coefficienti costanti, scrivo il
polinomio caratteristicop(λ)=aλ2+bλ+c e
risolvo l’equazione caratteristicap(λ)=0 con Δ=b2−4ac.
A seconda del segno di Δ,
l’integrale generale assume forme diverse:
Δ
Integrale Generale
Δ>0
y(t)=C1eλ1t+C2eλ2t
Δ=0
y(t)=C1eλt+C2teλt
Δ<0
y(t)=eℜλt(C1cos(ℑλt)+C2sin(ℑλt))
La soluzione particolare la si può trovare con il metodo di
somiglianza.
1.11 Sistemi differenziali
lineari
Un sistema differenziale lineare è un’equazione della forma y′(t)=Ay(t)+b(t) con y′,y,b∈(R→R)n,
A∈MR(n).
Tale equazione può essere espansa:
y1′⋮yn′=A⋅y1⋮yn+b1⋮bn
Il problema di Cauchy per un sistema differenziale lineare consiste
nell’imporre una condizione per ogni yi:
{y′(t)=Ay(t)+b(t)y(t0)=y0
Teorema
di esistenza e unicità globale per il problema di Cauchy
Sia A∈MR(n)
e bi:j⊆R→R continue. Dati t0∈J e y0∈R, il problema di Cauchy enunciato come sopra, ha
un’unica soluzione y(t)
definita ∀t.
Questo teorema ha 2 conseguenze importanti:
Se le funzioni bi sono definite e
continue in tutto R allora le
soluzione yi(t) sono definite in tutto
R.
Se il sistema è omogeneo (bi=0)
allora {y′(t)=A⋅y(t)y(t0)=0 ha una sola soluzione.
Dato un sistema differenziale lineare n×n omogeneo, chiamiamo sistema fondamentale di
soluzioni una famiglia di n
soluzioni linearmente indipendenti yo1(t),…,yon(t) che costituiscono una base
dello spazio vettoriale delle soluzioni del sistema.
1.12 Determinante wronskiano
Supponiamo di conoscere n soluzioni
yo1(t),…,yon(t) di un sistema differenziale lineare n×n omogeneo: il sistema fondamentale
esiste se e solo se esiste un t0
(tipicamente 0) tale che det(yo1(t)∣…∣yon(t))=0.
Si chiama matrice wronskiana la matrice ottenuta
affiancando un sistema fondamentale:
W=yo1(t),…,yon(t)
Con questa notazione, l’integrale generale del sistema omogeneo
diventa yo(t)=W(t)⋅C con C∈R e la soluzione del problema di Cauchy si ottiene
scegliendo C=W(t0)−1⋅yo quindi y(t)=W(t)⋅[W(t0)]−1⋅yo.
1.13
Risoluzione esplicita di sistemi con A
diagonalizzabile reale
Se A∈MR(2) è
diagonalizzabile reale (A è
diagonalizzabile reale ⟺ esistono
n autovettori di A che formano una base di Rn⟺ tutti gli autovalori sono regolari; se
A è simmetrica o ha n autovalori reali distinti, allora è
diagonalizzabile reale), detta S la
matrice ottenuta affiancando una base di Rn, vale che
Una matrice wronskiana relativa al sistema omogeneo è W(t)=(eλ1tv1∣…∣eλntvn).
Eqivalentemente, l’integrale generale è y0(t)=C1eλ1tv1+⋯+Cneλntvn con C1,…,Cn∈R.
1.14 Esponenziale di una
matrice
Sia A∈MR(n),
la matrice esponenzialeeA è definita dalla serie
eA=k=0∑+∞k!Ak=I+A+21A2+31A3+…
e risulta convergente ∀A.
Se A è diagonalizzabile reale,
allora è più semplice calcolare la matrice esponenziale:
eA=S⋅diag(eλ1,…,eλn)⋅S−1
ove S è è la matrice ottenuta
affiancando gli autovettori di A è i
vari λi sono gli autovalori.
Se A è diagonalizzabile reale allora
eAt è una matrice wronskiana
relativa al sistema omogeneo y′=Ay e l’integrale generale di tale sistema si scrive
come yo=eAt⋅C con C∈R.
La matrice esponenziale è comoda per risolvere il problema di Cauchy:
dato che (eAt0)−1=e−At0,
la soluzione del problema di Cauchy è y(t)=eA(t−t0)y0.
1.15
Risoluzione esplicita di sistemi con A∈MR(2) con autovalori complessi
coniugati
Sia A∈MR(2) con autovalori λ e λ complessi coniugati, ℑλ=0 e v∈C2 autovalore associato a λ. Un sistema fondamentale di soluzioni
di un sistema omogeneo è dato da
yo1(t)=ℜ(eλtv)yo2(t)=ℑ(eλtv)
Equivalentemente, l’integrale generale è yo(t)=C1ℜ(eλtv)+C2ℑ(eλtv).
1.16 Sistemi non omogenei
Struttura
dell’integrale generale dei sistemi non omogenei:
Siano A∈MR(n) e bi:J⊆R→R continue. L’integrale generale
del sistema differenziale lineare completo y′(t)=Ay(t)+b(t) è y(t)=yo(t)+yp(t) dove yo(t) è la soluzione del sistema
omogeneo associato e yp(t)
è una soluzione particolare.
Sia y′=Ay e A∈MR(2). Se il sistema ha soluzioni periodiche
allora A non è diagonalizzabile
reale.
Per risolvere un sistema completo y′(t)=A⋅y(t)+b(t), prima di tutto si risolve il sistema omogeneo
associato trovando la matrice wronskiana (tornerà utile nei passaggi
successivi):
W(t)=(yo1(t)∣…∣yon(t))yo(t)=W(t)⋅CC∈R
Poi si procede calcolando l’integale generale utilizzando la seguente
formula:
In questa formula, per integrale di un vettore, si intende vettore di
integrali, componente per componente.
Ricordando le proprietà dell’esponenziazione di matrici, nel
caso specifico in cui A è
diagonalizzabile, è possibile scegliere come matrice wronskiana W(t)=eAt, semplificando la formula e
rendendola formalmente identica alla formula per le EDO del primo ordine
lineari:
y(t)=eAt(∫e−Aτ⋅b(τ)dτ+C)C∈R
Si semplifica anche la risoluzione del problema di Cauchy:
Diciamo che una serie converge puntualmente o
semplicemente nel punto x∈J se la serie numerica di termine generale fn(x) è convergente, ovvero esiste
finito il seguente limite:
k→+∞limSk(x)=k→∞limn=0∑kfn(x)
Notare che, per una stessa funzione, questo limite potrebbe
convergere per alcuno x e
divergere o essere indeterminato per altri x.
E’ detto insieme di convergenza puntuale il
sottoinsieme E⊆J di punti nei
quali la serie converge (quindi dove il limite esiste finito).
La funzione somma della serie è una funzione f:E→R definita come
f(x)=n=0∑+∞fn(x)=k→+∞limSk(x)
La serie di termine generale fn(x)
con x∈J converge
assolutamente in x∈J se la serie numerica di termine generale ∣fn(x)∣ è convergente.
Per la convergenza assoluta, se ∣fn(x)∣ converge, allora anche
−∣fn(x)∣ converge. Per il
teorema del confronto (noto anche come t. dei carabinieri, t. degli
sbirri, t. del sandwich e t. di compressione), dato che −∣fn(x)∣≤fn(x)≤∣fn(x)∣ allora anche fn(x) converge. Ne segue che la
convergenza assoluta implica la convergenza semplice ma non vale
l’opposto.
Diciamo che la serie di termine generale fn(x) con x∈J converge totalmente nell’intervallo non vuoto
I⊆J (detto insieme di
convergenza totale) se esiste una successione numerica an≥0 tale che ∣fn(x)∣≤an∀x∈I,∀n=0,1,2,… e che ∑n=0+∞an<+∞ (cioè an
convergente).
La convergenza totale in I⊆J implica la convergenza assoluta e puntuale ∀x∈I e la convergenza totale in
ogni sottoinsieme non vuoto di I.
2.1 Teorema di continuità
della somma
Siano fn funzioni definite almeno
in un intervallo I⊆R. Se le
funzioni sono continue in I e la serie
generale converge totalmente in I
allora la funzione somma è continua in I.
2.2 Teorema di
integrabilità termine a termine
Nelle stesse ipotesi del teorema precedente, per un qualunque
intervallo [c,d]⊂I chiuso e
limitato, si ha che la funzione somma f
è integrabile e vale che
Se le fn sono derivabili in I, ∑fn
converge totalmente in I e ∑fn′ converge totalmente in I allora è possibile derivare termine a
termine:
f′=(n=0∑+∞fn)′=n=0∑+∞fn′
2.3 Serie di potenze
Una serie di potenze è una serie numerica della
forma
n=0∑+∞an(x−x0)n
dove an∈R vengono
detti coefficienti della serie e x0∈R è il centro della serie.
Nella seguente sezione, si considera (x0−x0)0=1.
Per x=x0 si ha che
n=0∑+∞an(x0−x0)n=a0⋅1+a1⋅0+a2⋅0+⋯=a0
Ne segue che tutte le serie di potenze convergono nel loro
centro.
L’insieme di convergenza di una serie di potenze è sempre un
intervallo centrato in x0
(eventualmente solo x0 o tutto R).
Il raggio di tale intervallo è detto raggio di
convergenza.
Teorema del
calcolo del raggio di convergenza
Data la serie di potenze
n=0∑+∞an(x−x0)n
esiste almeno uno dei seguenti due limiti (che può essere
eventualmente nullo o infinito), allora il raggio di convergenza è
esattamente pari al risultato di tale limite:
R=n→+∞liman+1anR=n→+∞limn∣an∣1
Il primo di questi limiti viene detto criterio del
rapporto mentre il secondo viene detto criterio della
radice.
Se entrambi i limiti esistono finiti, il risultato allora
corrisponde.
E’ possibile osservare che data una serie a termini positivi ∑an e l=R1 allora se l<1 si
ha convergenza e se l>1 no.
La convergenza di ∑an e quella
di ∑an(x−x0)n non sono
correlate in alcun modo.
Dimostrazione
La serie di potenze ∑an(x−x0)n converge assolutamente in x se la serie numerica ∑∣an∣∣x−x0∣n=∑bn
converge.
Questa è una serie numerica a termini positivi per cui posso
scegliere se applicare il criterio del rapporto o quello della
radice.
Se il criterio del rapporto è applicabile, la serie converge se
Se 0<R<+∞ la serie
converge totalmente in ogni intervallo chiuso [c,d]⊆(x0−R,x0+R) (in questo
caso, la convergenza è totale in [c,d]⊂(x0−R,x0+R) ma non necessariamente totale anche in tutto
(x0−R,x0+R)).
Se R=+∞ (cioè la ∑ converge assolutamente ∀x∈R) allora la
convergenza è totale per tutti gli intervalli limitati (in questo caso
la convergenza è totale su tutti i limitati ma non necessariamente
sull’intero R).
In pratica, per calcolare il raggio di convergenza di una serie
definita come ∑an(x−x0)n,
considero la serie ∑an e ne
calcolo il limite con il criterio del rapporto o della radice (come in
analisi I) è il reciproco di tale limite è il raggio di convergenza.
Teorema di
integrabilità termine a termine
Data una serie ∑an(x−x0)n
con raggio di convergenza 0<R≤+∞, per ogni x∈(x0−R,x0+R) finito, vale la formula di integrazione termine a termine:
Nelle stesse ipotesi del teorema precedente, vale la formula di
derivabilità termine a termine:
[n=0∑+∞an(x−x0)n]′=n=1∑+∞nan(x−x0)n−1
Anche in questo caso la serie derivata ha raggio di convergenza R.
Questa formula può essere iterata per ottenere serie derivate di ogni
ordine, tutte con raggio di convergenza R.
Non è detto che una serie di potenze converga negli estremi
dell’intervallo di convergenza.
Integrando una serie, se in un estremo convergeva, allora la serie
integrata rimarrà convergente in tale estremo mentre se non era
convergeva potrebbe diventare convergente.
Derivando una serie si ottiene il comportamento opposto: se la serie
potrebbe perdere la convergenza negli estremi ma se in un estremo era
già divergente, allora rimarrà divergente.
Ne segue che il comportamento negli estremi va studiato a parte.
2.4 Criterio di Leibniz
Come in Analisi I, per le serie di potenze reali, vale il criterio di
Leibniz: per ∑an, an=(−1)nbn con bn>0, arrestando la somma al termine
an, si commette un errore minore a
∣an+1∣.
Capitolo Quattro: Serie di
Taylor
Una funzione è detta analitica reale se
nell’intervallo non vuoto (a,b) è
somma di una serie di potenze in (a,b), quindi se
∃x0∈(a,b),∃an∈R:f=n=0∑+∞an(x−x0)n∀x∈(a,b)
Se f è analitica in (a,b) allora f è derivabile ad ogni ordine.
Sia f una funzione di una variabile
reale, analitica su di un intervallo non vuoto (a,b). Allora f è derivabile ad ogni ordine in (a,b) e ∀x0∈(a,b) è sviluppabile in una serie di Taylor:
f(x)=n=0∑+∞n!f(n)(x0)(x−x0)nx∈(a,b)
4.2 Serie di potenze complesse
Una serie di potenze complesse è una serie numerica
della forma
Se R=0 allora la serie converge
solo in z0, se R=+∞ la serie converge ∀z∈C mentre se 0<R<+∞ allora la serie converge
assolutamente ∀z0:∣z−z0∣<R ma non si può dire niente per la frontiera (la serie potrebbe
convergere o meno ∀z0:∣z−z0∣=R).
L’esponenziale complesso si calcola come
ez=n=0∑∞n!zn
ed è definito ∀z∈C dato che R=+∞.
4.3 Serie di Fourier
Con le serie di Fourier, si possono scomporre funzioni non
necessariamente analitiche in una serie infinita di funzioni
trigonometriche della forma
f(x)=a0+n=1∑+∞[ancos(nx)+bnsin(nx)]
dove gli an e i bn sono detti coefficienti di
Fourier.
Per comprendere i successivi argomenti, è necessario avere
famigliarità con le proprietà delle funzioni periodiche:
f è periodica di periodo T se f(x)=f(x+T).
Se f è periodica di periodo T allora è periodica anche di periodo kT con k∈N.
Se f è periodica di periodo T ed è pari in [−2T,2T] allora è pari in
tutto R.
Una funzione costante è periodica di qualsiasi periodo.
Vengono dette armoniche n-esime le funzioni cosnx e sinnx che sono periodiche di periodo n2π.
Tutte le armoniche n-esime sono
periodiche di periodo 2π.
Per il calcolo dei coefficienti di Fourier, è necessario tenere a
mente le formule di ortogonalità:
Un polinomio trigonometrico di ordine m∈N è una combinazione lineare
di armoniche n-esime con n=1,2,…,m della forma
a0+n=1∑m[ancos(nx)+bnsin(nx)]
dove a0,an,bn vengono detti
coefficienti del polinomio trigonometrico.
Ogni polinomio trigonometrico è 2π-periodico, così come qualsiasi somma,
differenza o prodotto tra essi.
Una serie trigonometrica è una serie della forma
a0+n=1∑+∞[ancos(nx)+bnsin(nx)]
La somma di una serie trigonometrica è 2π-periodica.
Una serie trigonometrica converge totalmente solo quando ∣an∣+∣bn∣ converge, infatti ∣fn(x)∣=∣ancos(nx)+bnsin(nx)∣≤∣an∣+∣bn∣∀x∈R.
Se
n=1∑+∞[∣an∣+∣bn∣]<+∞
allora la serie trigonometrica converge totalmente in R. In particolare la funzione somma
è continua in tutto R e vale
la formula di integrazione termine a termine in ogni sottoinsieme
limitato (non serve richiedere la chiusura dell’insieme dato che,
essendo la funzione continua, allora non esploderà in nessun punto).
Inoltre, nella stessa circostanza di quanto appena scritto, la
funzione somma è derivabile in tutto R e vale la formula di derivazione
termine a termine.
4.4
Costruzione della serie di Fourier di una funzione periodica
Per calcolare i coefficienti di Fourier per esprimere una funzione
periodica come serie di Fourier, ci si basa sul teorema che segue, di
cui è fornita anche la dimostrazione.
Il teorema si limita alle funzioni 2π-periodiche; dopo la dimostrazione
verranno fornite formule più generali che vanno bene per qualsiasi
periodo.
Teorema del
calcolo dei coefficienti di Fourier
Sia f:R→R2π-periodica, e somma di una serie
trigonometrica:
f(x)=a0+n=1∑+∞[ancos(nx)+bnsin(nx)]
Supponiamo inoltre di poter integrare termine a termine, allora
Per determinare an, moltiplico
f(x) per cos(nx), integro su (−π,π) utilizzando ancora una volta
l’integrabilità termine a termine e le formule di ortogonalità:
∫−π+πf(x)cos(nx)dx=∫−π+π[a0+k=1∑+∞[akcos(kx)+bksin(kx)]]cos(nx)dx=∫−π+πa0cos(nx)dx+k=1∑+∞[∫−π+πakcos(kx)cos(nx)dx]+k=1∑+∞[∫−π+πbksin(kx)cos(nx)dx]=a0=0∫−π+πcos(nx)dx+k=1∑+∞akSi annulla se n=k∫−π+πcos(kx)cos(nx)dx+k=1∑+∞bk=0∫−π+πsin(kx)cos(nx)dx=an∫−π+πcos(nx)2dx=πan⟹an=π1∫−π+πf(x)cos(nx)dx
Per calcolare i bn il procedimento
è analogo:
∫−π+πf(x)sin(nx)dx=∫−π+π[a0+k=1∑+∞[akcos(kx)+bksin(kx)]]sin(nx)dx=∫−π+πa0sin(nx)dx+k=1∑+∞[∫−π+πakcos(kx)sin(nx)dx]+k=1∑+∞[∫−π+πbksin(kx)sin(nx)dx]=a0=0∫−π+πsin(nx)dx+k=1∑+∞ak=0∫−π+πcos(kx)cos(nx)dx+k=1∑+∞bkSi annulla se n=k∫−π+πsin(kx)sin(nx)dx=bn∫−π+πsin(nx)2dx=πbn⟹bn=π1∫−π+πf(x)sin(nx)dx
Come volevasi dimostrare.
Le formule generali che valgono qualsiasi sia il periodo T sono
Chiamiamo polinomio di Fourier di ordine m il polinomio trigonometrico
Fm(x)=a0+n=1∑m[ancos(nx)+bnsin(nx)]
Chiamiamo serie di Fourier la serie
trigonometrica
m→∞limFm(x)=a0+n=1∑+∞[ancos(nx)+bnsin(nx)]
E’ possibile semplificare il calcolo dei coefficienti di Fourier
andando a sfruttare alcune proprietà della funzione sotto analisi:
se la funzione è pari allora si sviluppa solo il coseno (bn=0∀n)
se la funzione è dispari allora si sviluppa solo il seno (an=0∀n)
nei punti in cui la funzione è discontinua, la sommatoria nel
polinomio vale zero
Per studiare la convergenza della serie di Fourier, è necessario
introdurre alcuni concetti.
Una funtione f:[−π,+π]→R è regolare a tratti nell’intervallo
[−π,+π] se esiste un numero finito
di punti −π<x1<x2<⋯<xn<+π tali per cui f è
derivabile in in ogni intervallino (xi,xi+1) ed esistono finiti i limiti
Ovviamente, se f è periodica e
regolare a tratti su un dato intervallo allora è regolare a tratti ed è
integrabile in qualunque intervallo limitato.
Sia f:R→R2π-periodica e regolare a tratti in
[−π,+π] allora la serie di Fourier
di f converge puntualmente ∀x∈R e inoltre
m→∞limFm(x)=21(S→x+limf(S)+S→x−limf(S))
cioè nei punti di discontinuità-salto, il polinomio di Fourier
converge alla metà tra i due punti del salto.
Se f è continua, allora limm→∞Fm(x)=f(x) che si può
anche scrivere come limm→∞∣Fm(x)−f(x)∣=0.
Ne segue che se f:R→R è anche 2π-periodica, regolare a tratti in [−π,+π] e continua in tutto R allora si ha che la serie di
Fourier di f converge totalmente a
f.
Sia f:R→R,
2π-periodica e regolare a tratti in
[−π,+π] allora vale la
convergenza in media quadratica:
m→+∞lim∫−π+π(Fm(x)−f(x))2dx=0
Ciò implica che
m→+∞lim∫−π+πFm(x)2dx=∫−π+πf(x)2dx
Tale formula in realtà vale per qualsiasi intervallo [c,d] se la f è periodica, in quanto se [c,d]⊆[−π,+π] allora è ovvio,
altrimenti si ragiona per periodicità.
Si dice intorno sferico o palla di
raggio r e centro in x0∈R il seguente
insieme:
Br(x0)={x∈Rn:∥x−x0∥<r}
E’ importante notare che un apalla è un insieme aperto per
definizione.
Si dice complementare dell’insiemeE l’insieme EC=Rn−E.
Dati un insieme E⊂Rn
e un punto x0∈Rn allora
x0 è di
frontiera o di bordo per E se ∀r>0 vale che Br(x0)∩E=∅ e che Br(x0)∩EC=∅.
x0 è
interno ad E se x0∈E e ∃r>0:Br(x0)⊂E.
x0 è esterno
ad E se x0 è interno a EC.
Un insieme E⊂Rn si
dice aperto se ∀x∈E si ha che x è punto interno. Lo stesso insieme è chiuso se EC è aperto.
Un insieme E si dice
limitato se esiste un r tale per cui tutto l’insieme è contenuto in
una palla di raggio r; è illimitato
altrimenti.
Un insieme chiuso e limitato è detto compatto.
5.1 Curve
Una curva in R3 può essere
descritta attraverso la sua parametrizzazione o attraverso il suo
sostegno.
La parametrizzazione di una curva consiste essenzialmente in 3
funzioni continue, dipendenti da un solo parametro:
r:I⊆R→R3r(t)=r1(t)r2(t)r3(t)
Il sostegno della curva consiste nell’insieme di tutti i valori che
la curva può assumere:
γ={(x1,x2,x3)∈R3:(x1,x2,x3)=(r1(t),t2(t),r3(t)) per qualche t∈I}
Il sostegno di una curva è univocamente determinato dalla
parametrizzazione ma esistono infinite parametrizzazioni associate allo
stesso sostegno.
Nel caso in cui r3(t)=0∀t, la curva viene detta curva piana.
E’ possibile ottenere, per una funzione f generica una parametrizzazione
r(t)=(tf(t))
Due parametrizzazione r(t):I→Rn e v(s):J→Rn si dicono equivalenti se esiste
una mappa φ:J→I continua e
biunivoca tale che
v(s)=r(φ(s))=r⋅φ(s)
In pratica, due parametrizzazioni sono equivalenti se hanno lo stesso
sostegno, percorso lo stesso numero di volte.
Dato che φ è biunivoca, allora
è monotona: se è decrescente allora il senso di percorrenza dei due
sostegni si inverte.
Una curva può essere considerata come la classe di equivalenza
associata che contiene tutte le parametrizzazioni equivalenti.
Una curva si dice regolare se ammette una
parametrizzazione (r1(t),…,rn(t)) con t∈I tale per cui
tutte le ri(t)∈C1(I) e
(r1′(t),…,rn′(t))=0 per ogni t. Se una
curva è regolare allora ∥r′(t)∥=0.
Una curva di dice semplice se è iniettiva, ovvero se
il suo sostegno non si interseca con se stesso: se ∃t1,t2:t1=t2,r(t1)=r(t2) allora la curva non è semplice.
Se r:I→R3, si definisce versore tangente il
versore
T(t)=∥r′(t)∥r′(t)
Il versore tangente ha direzione della retta tangente alla curva nel
punto r(t), norma unitaria e
verso concorde al verso di percorrenza della curva.
Data una funzione f∈C1 qualsiasi, una curva costruita come
r(t)=(tf(t))
è sempre regolare infatti
r′(t)=(1f′(t))
Siano [a,b]⊆R
limitato e r:[a,b]→R la parametrizzazione di una curva regolare avente
sostegno γ, allora la lunghezza di
γ si calcola come
len(γ)=∫ab∥r′(t)∥dt
Siano [a,b]⊂R limitato
e r:[a,b]→R3
parametrizzazione di una curva regolare avente sostegno γ. Se v[c,d]→R3 e v(s)=r⋅φ(s) è una parametrizzazione equivalente avente sostegno
δ allora len(δ)=len(γ).
Dimostrazione a seguire.
Siccome φ è biunivoca, allora
è monotona e si può togliere il valore assoluto: φ′<0 p φ′>0.
Supponiamo che φ′(s)≥0∀s∈[c,d], allora
len(δ)=∫cdφ′(s)∥r′(s)∥ds
Applico ora il seguente cambio di variabili: t=φ(s), dt=φ′(s)ds.
Per gli estremi di integrazione si ha che φ:[c,d]→[a,b], φ(c)=a e φ(d)=b e quindi
len(δ)=∫ab∥r′(t)∥dt=len(γ)
Se invece φ′(s)≤0
allora
len(δ)=−∫cdφ′(s)∥r′(φ(s))∥ds
Se applico il cambiamento di variabili t=φ(s), dt=φ′(s)ds allora, essendo φ′<0 si ha che φ(c)=b e
φ(d)=a per cui
len(δ)=−∫ba∥r′(t)∥dt=∫ab∥r′(t)∥dt=len(γ)
I vari integrali, in caso di curva regolare a tratti, sono da
intendersi come somma degli integrali dei vari tratti.
Una curva r:I→R3 si dice regolare a tratti se è
continua su I e la curva è regolare su
I tranne che su un numero finito di
punti. La lunghezza di una curva regolare a tratti è la somma delle
lunghezze dei vari tratti.
Siano [a,b]⊂R
limitato, r:[a,b]→R curva regolare di sostegno γ, f(r(t)) continua ∀t∈[a,b], l’integrale
curvilineo di f lungo γ è
∫γfds=∫abf(r(t))∥r′(t)∥dt
Capitolo Sei: Funzioni
di due variabili
Una funzione di due variabili realif:A⊆R2→R è una
relazione che associa ad ogni (x,y)∈R un unico valore reale f(x,y)∈R.
E’ detto insieme di livello di f al livello k è
Ik={(x,y)∈A:f(x,y)=k}
che è una curva piana.
6.1 Limite multivaraibile
Siano a⊆R2 aperto,
x0∈A, f:A\{x0}→R. Diciamo che
f tende al limite l∈R per x→x0 e scriviamo
che limx→x0f(x)=l se
∀ε>0∃δ>0:x∈Bδ(x0)\{x0}⟹∣f(x)−l∣<ε
Per stabilire che un limite non esiste, devo esibire due curve che
mandano la funzione in valori diversi quando si fa tendere tale funzione
nel punto limite.
6.2 Calcolo del limite
con coordinate polari
La procedura di seguito è valida solo per limiti che tendono a
0. In caso di limiti che non
tendono a 0, si transla la
funzione.
Trovo un candidato limite: ad esempio, se la funzione è
identicamente nulla sugli assi cartesiani, il candidato limite è l=0.
Scrivo la funzione g(r,θ)
come f(x,y) in coordinate polari,
applicando la seguente trasformazione: {x=rcos(θ)y=rsin(θ)
Cerco una funzione h(r) tale che
∣g(r,θ)−l∣<h(r);
limr→0h(r)=0.
Se ho trovato la funzione h di cui
al punto sopra, allora il candidato limite è il limite che cercavo,
altrimenti cambio candidato e riprovo.
Se la funzione sotto esame non è quoziente di polinomi o radici,
prima di iniziare la procedura, applico i limiti notevoli.
Il metodo dei limiti notevoli è utilizzabile anche per la
dimostrazione della non esistenza del limite.
6.3 Continuità
Sia A⊆R2 aperto,
f:A→R, x0∈A. f è continua in x0 se
x→x0limf(x)=f(x0)
f è continua in un
insieme se è continua in tutti i punti dell’insieme.
Tutte le funzioni elementari (1-dimensionali) sono continue sul loro
insieme di definizione. Quando le si compone per ottenere una funzione
2-dimensionale, l’insieme di definizione della funzione ottenuta è
l’intersezione delle funzioni utilizzate per la composizione.
Da ciò segue che la continuità di funzioni 2-dimensionali va
verificata solamente nel caso di funzioni definite a tratti.
6.4 Derivate parziali e
gradienti
Sia A⊆R2 aperto,
f:A→R, (x0,y0)∈A. Le derivate
parziali di f in (x0,y0) sono
Se entrambi i limiti esistono finiti allora f è detta derivabile in
(x0,y0).
Se f è derivabile, allora è
possibile definire la funzione gradiente:
∇f(x0,y0)=(∂x∂f(x0,y0)∂y∂f(x0,y0))
Per calcolare le derivate parziali, derivo una variabile per volta,
considerando tutte le altre come se fossero costanti.
E’ necessario usare la definizione per calcolare le derivate parziali
quando la funzione sotto esame è definita per casi o quando nella
definizione di tale funzione compare tα con α∈(0,1) o ∣t∣α con
α∈(0,1]. In tutti gli altri
casi, f è sempre derivabile.
6.5 Differenziabilità e
piano tangente
Siano A⊆R2 aperto
(aperto perchè serve poter fare i limiti), f:A→R, allora diciamo che f è differenziabile in x0∈A se f è derivabile in x0 e se
f(x0+h)=f(x0)+⟨∇f(x0),h⟩+R(h)
dove R(h)=o(∥h∥) cioè
h→0lim∥h∥R(h)=0
Per semplificare la verifica della differenziabilità di una funzione,
ci si basa sul teorema del differenziale totale che
afferma che se f∈C1(A)
allora f è differenziabile in A.
Se f è differenziabile in un punto
x0=(x0,y0) allora il
piano tangente al grafico di f in (x0,y0,f(x0,y0)) è
z=f(x0)+⟨∇f(x0),x−x0⟩
6.6 Differenziabilità
⟹ continuità
Sia A⊆R aperto, x0∈A, f:A→R differenziabile in x0. Allora f è continua in x0.
E’ importante notare come le derivate parziali sono due casi
specifici di derivate direzionali, in particolare sono le derivate
direzionali con v=(1,0) e
v=(0,1).
Il fatto che f sia differenziabile
in x0 implica che esistano
tutte le derivate direzionali ma non vale il viceversa.
Teorema della formula del
gradiente
Siano A⊆R aperto,
x0=(x0,y0)∈A,
f:A→R differenziabile in
x0 allora f ammette derivate direzionali in x0 lungo qualunque direzione
v∈R tale che
∥v∥=1 e inoltre
∂v∂f=⟨∇f(x0),v⟩
Dimostrazione
Devo dimostrare che se f è
differenziabile in x0
allora vale che
t→0limtf(x0+tv)−f(x0)=⟨∇f(x0),v⟩
Essendo f differenziabile in x0 allora f(x0+h)−f(x0)=⟨∇f(x0),h⟩+o(∥h∥).
Scelgo h=tv
con t→0, divido per t è poi calcolo il limite per t→0:
E’ importante notare che se la funzione non è definita per casi e non
contiene radici o valori assoluti, se f∈C1(R2), per il teorema del differenziale
totale, la f è differenziabile in R2 e quindi vale la formula del
gradiente.
Siano r una curva piana e
f differenziabile e regolare, ristretta
alla curva r. La
restrizione di f è la
funzione F(t)=(f⋅r)(t)=f(r(t))=f(r1(t),r2(t)).
Se f è differenziabile e r è regolare allora F′(t)=⟨∇f(r(t)),r′(t)⟩=⟨∇f(r1(t),r2(t)),(r1′(t)r2′(t))⟩.
chiamando v=∥r′(t0)∥r′(t0) e x0=r(t0) allora
F′(t0)=⟨∇f(r(t0)),∥r′(t0)∥r′(t0)⟩⋅∥r′(t0)∥=∥r′(t0)∥∂v∂f(x0) cioè
F′(t0) è multiplo della derivata
direzionale di f nella direzione
tangente alla curva in x0.
La derivata direzionale di f nella
direzione tangente alla curva di livello è nulla: detto v il versore tangente alla curva
di livello al livello k=f(x0), nel punto x0
stesso, si ha che
∂v∂f(x0)=⟨∇f(x0),v⟩
Ne segue che il gradiente è nullo oppure ortogonale a v.
Teorema
di ortogonalità del gradiente alle curve di livello
Sia A⊆R2 aperto,
f:A→R differenziabile in A e l’insieme di livello Ik sostegno di una curva regolare di
parametrizzazione r. Allora
⟨∇f(r(t)),r′(t)⟩≤0∀t.
Dimostrazione
Per ipotesi, Ik coincide con il
sostegno della curva regolare r(t) cioè Ik={r(t):t∈J}. In particolare f(r(t))=k∀t∈J.
Chiamo F(t)=f(r(t))=(f⋅r)(t) con F:J→R.
Da un lato ho che F(t)=k∀t∈J e che F′(t)=0∀t∈J, dall’altro, per il teorema di derivazione della
composta, F′(t)=⟨∇f(r(t)),r′(t)⟩∀t∈J da cui ⟨∇f(r(t)),r′(t)⟩=0∀t∈J, come
volevasi dimostrare.
Siano A⊆R2 aperto,
x0∈A, f:A→R differenziabile almeno
in x0 e ∇f(x0)=0. Allora
∀v∈R2:∥v∥=1 si ha che ∂v∂f(x0)≤∥∇f(x0)∥ cioè −∥∇f(x0)∥≤∂v∂f(x0)
Detti vmax=∥∇f(x0)∥∇f(x0) e
vmin=−vmax allora si ha che ∂vmax∂f(x0)=∥∇f(x0)∥∂vmin∂f(x0)=−∥∇f(x0)∥
Capitolo Sette:
Ottimizzazione libera
Sia A⊆R2 aperto,
f:A→R derivabile.
Supponiamo che le derivate parziali di f siano a loro volta derivabili in A. Definiamo le derivate parziali
seconde come
Siano A⊂eR2 un
sottoinsieme qualunque e f:A→R, allora un punto (x0,y0)∈A si dice
punto di massimo locale o relativo
per f in A se ∃δ>0:f(x0)≥f(x,y)∀(x,y)∈Bδ(x0,y0)
punto di massimo globale o
assoluto per f in
A se f(x0,y0)≥f(x,y)∀(x,y)∈A
definisioni analoghe per i minimi.
Se un punto rientra nelle definizioni appena date, allora viene detto
punto di estremo o estremante o
estremale.
Il teorema di Fermat afferma che con A⊆R2 aperto e f:A→R, se (x0,y0) è estremo per f allora ∇f(x0,y0)=(00) e viene detto
punto critico.
Se un punto è estremale allora è critico ma non vale il
viceversa.
Se un punto è critico ma non estremale, è detto
sella.
Nel piano, una funzione può essere simmetrica in molteplici modi:
Descrizione
Simmetria
Pari, rispetto all’origine
f(−x,−y)=f(x,y)
Dispari, rispetto all’origine
f(−x,−y)=−f(x,y)
Pari, rispetto all’asse y
f(−x,y)=f(x,y)
Dispari, rispetto all’asse y
f(−x,y)=−f(x,y)
Pari, rispetto all’asse x
f(x,−y)=f(x,y)
Dispari, rispetto all’asse x
f(x,−y)=−f(x,y)
E’ possibile sfruttare queste simmetrie per semplificare la ricerca
dei punti critici riducendo di molto lo spazio di ricerca.
Per determinare (e, successivamente, classificare) i punti critici,
trovo tutti i punti nei quali ∇f(x,y)=0 e tutti i punti di non derivabilità: questi punti
sono tutti candidati ad essere critici e quindi vanno studiati.
Teorema del
criterio della matrice hessiana
Sia A⊆R2 aperto (in
modo da poter applicare il teorema di Fermat), f∈C2(A) (in modo che la
matrice hessiana esista) e x0=(x0,y0) punto critico di f
(cioè ∇f(x0,y0)=0). Denoto
con q la forma quadratica indotta dalla
matrice Hf(x0):
q(h1,h2)=(h1,h2)⋅Hf(x0)⋅(h1h2)
Allora
Se q è definita positiva allora
x0 è punto di minimo
Se q è definita negativa allora
x0 è punto di massimo
Se q è indefinita allora x0 è punto di sella
Dimostrazione
Essendo per ipotesi x0
un punto critico allora ∇f(x0,y0)=0 e quindi nello sviluppo di Taylor al secondo ordine non compare
il gradiente:
f(x0+h)=f(x0)+21q(h)+o(∥h∥)
Se q è definita positiva, per
definizione q(h)>0∀h=0 quindi f(x0+h)>f(x0)+o(∥h∥) quindi x0 è un punto di minimo
locale.
Se q è definita positiva, per
definizione q(h)<0∀h=0 quindi f(x0+h)<f(x0)+o(∥h∥) quindi x0 è un punto di massimo
locale.
Se q è indefinita, per definizione
∃h1,h2:q(h1)>0,q(h2)<0 quindi f(x0+h1)>f(x0) e f(x0+h2)<0.
Come volevasi dimostrare.
Se q è indefinita, questo criterio
non permette di ricavare informazioni.
Esiste una versione semplificata e più applicabile del precedente
teorema:
Se detHf(x0,y0)>0 e ∂x2∂2f(x0,y0)>0 allora x0 è
minimo
Se detHf(x0,y0)>0 e ∂x2∂2f(x0,y0)<0 allora x0 è
massimo
Se detHf(x0,y0)<0 allora
x0 è sella
Se detHf(x0,y0)=0 allora
bisogna per forza applicare il teorema
Sia f:R2→R, f∈C2(R2), allora
f è convessa in R2 se ∀(x,y)∈R2 si ha che
Hf(x,y) è definita positiva o
semidefinita positiva e f è concava in
R2 se ∀(x,y)∈R2 si ha che
Hf(x,y) è definita negativa o
semidefinita negativa.
Se f∈C2(R2)
è convessa e x0 è punto
critico allora x0 è punto
di minimo assoluto.
Se f∈C2(R2)
è concava e x0 è punto
critico allora x0 è punto
di massimo assoluto.
Se cerco i punti estremanti di una funzione f in un insieme A non aperto, non è sufficiente applicare il
teorema di Fermat nell’aperto perchè potrebbero esserci estremanti sul
bordo (e che quindi non verificano il teorema di Fermat).
In tal caso, ci viene in soccorco il teorema di
Weierstrass: sia A⊆R2 chiuso e limitato e sia f:A→R. Allora f
ammette i valori di massimo e minimo assoluto, cioè esistono (xm,ym),(xM,yM)∈A tali che f(xm,ym)≤f(x,y)≤f(xM,yM).
In pratica, questo teorema ci aiuta nel senso che ci dice che
possiamo analizzare la curva che costituisce la frontiera dell’insieme
sotto esame e aggiungere ai candidati i punti di massimo e di minimo di
tale curva.
Bisogna però prestare attenzione al fatto che il teorema non parla
dell’esistenza dei punti nei quali la funzione ammette i valori
massimo e minimo, ma soltanto dei valori stessi; ne segue che
una funzione potrebbe ammettere anche infiniti punti nei quali assume i
valori di massimo e minimo.
Quando utilizzo il suddetto teorema, devo specificare che lo sto
utilizzando.
7.2 Vincoli di uguaglianza
Lo scopo è cercare i punti di massimo e minimo di una funzione f(x,y) sotto un vincolo della forma F(x,y)=0 con F(x,y)=f(x,y)−k, cioè f ma vincolata all’insiem di livello k.
x0 viene detto punto di
massimo relativo per f
vicolato a Z se ∃δ>0:f(x0)≥f(x)∀x∈Bδ(x0)∩Z.
x0 viene detto punto di
massimo assoluto per f
vincolato a Z se f(x0)∀x∈Z.
Per i minimi, le definizioni sono analoghe.
Se x0 è detto punto di
estremo vincolato se è massimo o minimo vincolato.
Per trovare massimi e minimi di una funzione vincolata, esistono
principalmente tre metodi: il metodo di sostituzione in coordinate
cartesiane, il metodo di sostituzione in coordinate polari e il metodo
dei moltiplicatori di Lagrange.
Il metodo di sostituzione in coordinate cartesiane
consiste nel trovare, partendo dalla F,
la y espressa in funzione della x (o viceversa) e sostituire la variabile
trovata nella f sotto analisi in modo
da trasformare il tutto in uno studio di funzione 1-dimensionale: dopo
aver trovato i massimi e i minimi della f 1-dimensionale, si sostituiscono i valori
trovati al posto della variabile in funzione della quale viene descritta
la vriabile precedentemente utilizzata e così sono state trovate tutte
le coordinate dei punti di massimo e minimo. Ad esempio, se dalla F ricavo che y=y(x), scrivo che g(x)=f(x,y)=f(x,y(x)) e studio i massimi e i minimi di g. Supponendo che g risulti avere un massimo in xM e un minimo in xm allora le coordinate di massimo e minimo
di f(x,y) saranno (xM,y(xM)) e (xm,y(xm)).
Nel caso in cui l’insieme Z={(x,y):f(x,y)=0} sia una circonferenza, è possibile utilizzare il
metodo di sostituzione in coordinate cartesiane che
consiste nell’applicare la sostituzione
{x=r0cosθy=r0sinθ
ottenendo g(θ)=f(r0cosθ,r0sinθ) e nel studiare la funzione così ottenuta per
θ∈[0,2π).
Il metodo dei moltiplicatori di Lagrange è
l’equivalente del teorema di Fermat ma per i punti di estremo sul
vincolo di uguaglianza.
Siano D⊆R2 aperto,
f,F∈C1D. Se
x0 è punto di estremo
vincolato a Z per f con Z={(x,y)∈D:F(x,y)=0} e inoltre ∇F(x,y)=0 (leggasi “la curva è regolare”) allora esiste un
λ0∈R detto
moltiplicatore di Lagrange tale che λf(x0)=λ0∇F(x0).
In pratica, si deve risolvere il seguente sistema nonlineare a tre
incognite (x0,y0,λ0)
e poi classificare le varie combinazioni soluzioni ottenute
(ignorando le λ) per capire di
che tipo di punti si tratta.
Siano A⊆R2 aperto,
f,F∈C1(A). Si definisce
Lagrangiana la funzione di tre variabili L(x,y,λ)=f(x,y)−λF(x,y) il cui gradiente posto uguale a zero risolve il sistema dei
moltiplicatori di Lagrange.
Capitolo Otto: Integrali
doppi
D⊆R2 è detta
regione y-semplice se è della forma
D={(x,y)∈R2:x∈[a,b],g1(x)≤y≤g2(x)}
con [a,b] limitato, g1≤g2 e g1,g2 continue in [a,b].
D⊆R2 è detta
regione x_semplice se è della forma
D={(x,y)∈R2:y∈[c,d],h1(y)≤x≤h2(y)}
con [c,d] limitato, h1≤h2 e h1,h2 continue in [c,d].
Se D⊆R2 è regione semplice e
f:D→R è continua su
D allora f è integrabile su D.
Se D è unione di regioni semplici,
si può integrare separatamente su ciascuna regione e poi sommare i
risultati.
Se D è y-semplice allora
∫∫Df(x,y)dxdy=∫ab(∫g1(x)g2(x)f(x,y)dy)dx
Se D è x-semplice allora
∫∫Df(x,y)dxdy=∫cd(∫h1(y)h2(y)f(x,y)dx)dy
Se f(x,y)=f1(x)⋅f2(y) e
le due funzioni g1,g2 o h1,h2 sono costanti, il conto si può
semplificare rendendolo prodotto di integrali:
Se applico alla f da integrare una
mappa del tipo φ(x,y)=(rcosθrsinθ) allora ottengo che
f(φ(x,y))=f(r,θ) e che
f′=f′(φ(x,y))⋅φ′(x,y). Necessito di trovare φ′, per farlo utilizzo la
matrice jacobiana:
Se fosse richiesto di integrare su una regione x-semplice o
y-semplice allora si sotituisce la z con, rispettivamente, x e y.
9.2 Integrazione per strati.
Sia E regione z-semplice, f:E→R continua in E, allora f
è integrabile su E e
vale la formula di integrazione per strati.
L’integrazione per strati consiste nell’integrare su di uno strato
(integrale doppio) e poi integrare il risultato su un filo generico
(integrale singolo):
∫∫∫Ef(x,y,z)dxdydz=∫ab(∫∫Df(x,y,z)dxdy)dz
dove i parametri a e b sono i limiti entro i quali è compresa
z.
Per scegliere tra integrazione per fili o per strati, è necessario
capire “di che forma” è il dominio e vedere se è più facile trgliarlo a
fette (integrale per strati) o in fili. Tendenzialmente, se i limiti
entro i quali è compresa z sono
costanti, è preferibile l’integrazione per strati.
Sia E⊆R3 regione
semplice che rappresenta un corpo rigido e ρ(x,y,z):E→R+ la
funzione che rappresenta la densità di massa nel punto (x,y,z), allora
Massa(E)=∫∫∫Eρ(x,y,z)dxdydz
Il baricentro è il punto che può essere considerato
come punto di applicazione delle forze agenti sul campo. Il baricentro
(xB,yB,zB) si calcola nel seguente modo:
Il passaggio a coordinate cilindriche si applica quando E è z-semplice della forma E={(x,y,z)∈R3:(x,y)∈D,h1(x,y)≤x≤h2(x,y)} e D è a simmetria radiale.
In tal caso, si procede prima integrando per fili e poi procedendo al
cambio di variabili in coordinate polari:
Sia A⊆R2, f:A→R continua in A. Se in un intorno del punto (t0,y0)∈A, ∂y∂f(t,y) esiste ed
è continua allora il problema di Cauchy
{y′(t)=f(t,y(t))y(t0)=y0
ammette un’unica soluzione localmente in un intorno del punto (t0,y0).
In pratica, se f:A⊆R2→R non contiene termini del tipo (y−y)α con α∈(0,1) o ∣y−y∣α con α∈(0,1] allora ∂y∂f esiste ed è
continua in tutto A e quindi tutti i
problemi di Cauchy con (t0,y0)∈A
ammettono soluzione unica e quindi i grafici di soluzioni distinte non
si intersecano.
Se invece f contiene termini del
tipo (y−y)α con α∈(0,1) o ∣y−y∣α con α∈(0,1] allora ∂y∂f potrebbe non
esistere o non essere continua nella retta y=y. Fuori dalla retta continua a valere l’unicità
locale.
Nel caso in cui esistano due soluzioni allo stesso problema di
Cauchy, queste si intersecano sempre (almeno nel punto in cui si impine
il passaggio della funzione).
Nel caso in cui valga il teorema di esistenza e unicità locale in
tutti i punti del dominio di f e t∈[a,b] è un intervallo fissato
indipendente da y (quindi è una
striscia verticale), se A=[a,b]×R è limitato, f:A→R è continua e ∂y∂f, allora
se esistono due costanti M,N<0
tali che ∀(t,y)∈A vale che
∣f(t,y)∣≤M∣y∣+N oppure ∂y∂f(t,y)≤M allora ∀(t0,y0)∈A il problema di Cauchy y(t0)=y0 ha un’unica soluzione definita ∀t∈[a,b]
se per una soluzione particolare y esiste k>0 tale che y(t)≤k∀t nel
dominio di definizione di y
allora y è definita ∀t∈[a,b].
10.1 Studio
qualitativo di EDO del primo ordine
Lo studio qualitativo di una EDO consiste nel tracciare un gragfco
approssimativo della sua soluzione anche senza saperla risolvere.
Una EDO è detta autonoma se la sua f non dipende da t, quindi se è della forma y′(t)=f(y(t)).
Le EDO autonome sono un sottoinsieme delle edo a variabili separabili
e possono essere risolte come tali
Se però f(y)1 non è
facilmente integrabile, è comunque possibile tracciare un grafico
approssimato delle sue soluzioni attraverso lo studio qualitativo.
Se y(t) è soluzione, allora anche
z(t)=y(t+c) lo è, infatti se y è soluzione, allora y′(t)=f(y(t)) e quindi z′(t)=y′(t+c)=f(y(t+c))=f(z). Questa proprietà di cide che qualsiasi sia la soluzione
trovata, una soluzione con la stessa forma ma translata orizzontalmente
è comunque soluzione dell’equazione sotto esame.
Dato che si tratta di EDO lineari, vale il teorema di esistenza e
unicità globale per il problema di Cauchy quindi in ogni punto passa una
e una sola soluzione e in tutti i punti passa una e una sola soluzione,
quindi le soluzioni non si intersecano.
Per disegnare una soluzione approssimativa, bisogna ricavare la
linea delle fasi:
si disegna f(y) sul piano con y sull’asse delle ascisse e f(y) sull’asse delle ordinate;
si posiziona un’asse monodimensionale (la linea delle fasi) sotto il
grafico del punto 1;
si segna un punto sulla linea delle fasi (punto di
equilibrio) in corrispondenza degli zeri della f(y), ottenendo così degli intervalli;
si segna un afreccia verso sinistra (negativa) dove la f(y) è negativa e una verso destra (positiva)
dove la f(y) è positiva;
si ruota la linea delle fasi di 90° in senso antiorario, in modo da
avere le y positive in alto;
si disegna un piano con t sull’asse
delle ascisse e y(t) sull’asse delle
ordinate e lo si posiziona di fianco alla linea delle fasi appena
ruotata;
sul nuovo grafico, si disegna una soluzione costante in
corrispondenza di ciascun punto d’equilibrio;
per ogni freccia positiva sulla linea delle fasi, si disegna una
funzione più o meno simile ad un sigmoide che per t→−∞ è asintotica alla soluzione
costante che delimita inferiormente l’intervallo in cui ci si trova e
per t→+∞ è asintotica alla
soluzione costante che delimita superiormente l’intervallo in cui ci si
trova;
per ogni freccia negativa, il ragionamento è analogo a quello per le
frecce positive ma con le soluzioni costanti opposte.
Se un intervallo non è delimitato da un punto di equilibrio, allora
la soluzione approssimativa tenderà a ±∞ compatibilmente con la posizione della soluzione
all’interno della linea delle fasi.
E’ importante ricordare ancora una volta che, per il teorema di
esistenza e unicità, nessuna soluzione si interseca con altre soluzioni,
dunque le soluzioni non costanti, pur avvicinandosi sempre più a quelle
costanti, non le toccheranno mai.
Se viene richiesto di disegnare una soluzione approssimativa che
passa in un punto particolare, si transla orizzontalmente la soluzione
approssimativa trovata nell’intervallo che contiene il punto finchè la
soluzione non passa per tale punto.
10.2 Sistemi
differenziali autonomi nel piano
Un sistema differenziale autonomo è un sistema
differenziale della forma
con f:A⊆R3
continua che non dipende esplicitamente da t.
Se per le equazioni si ha la linea delle fasi, per i sistemi
2-dimensionali si ha il piano delle fasi.
Sono detti punti di equilibrio i punti nei quali
f(y1,y2)=0 e
corrispondono con le soluzioni costanti dell’equazone.
Una traiettoria/orbita è invece, una curva che
rappresenta una famiglia di soluzioni della forma y(t+c) (i punti di equilibrio
sono inclusi in questa definizione).
Per disegnare le soluzioni approssimative, si deve disegnare il piano
delle fasi:
si ricava la matrice A del sistema,
così come gli autovalori e gli autovettori;
per ciascun autovettore, si sisegna una retta passante per l’origine
e diretta come l’autovettore;
per ciascuna retta, se l’autovalore associato all’autovettore da cui
è originata è positivo, allora si disegnano due frecce (una da un alto
dell’origine e l’altra dall’altro) in direzione uscente, se
l’autovettore è negativo allora la direzione è entrante;
si combinano le informazioni come in foto
In nero il piano delle fasi, in arancio e
in verde le due rette e in rosso le famiglie di soluzioni
In caso di autovalori diversi con lo stesso segno, le famiglie di
soluzioni sono tangenti alla retta con autovalore più piccolo in
modulo.
Sia nell’asse che nel piano delle fasi, se una soluzione costante ha
soltanto frecce entranti, è detta punto di equilibrio stabile, se invece
ha anche una sola freccia uscente, è detta di equilibrio instabile.
Capitolo Finale: Varie ed
eventuali
Di seguito lista delle dimostrazioni da conoscere per l’esame: