there is no life b

Lo stupore delle prese elettriche

Raccolta di link, libri e corsi per studiare algebra lineare

| 0 commenti

Un po’ di ricerche per studiare algebra lineare libri gratis da springer, tanti, su mat

un po’ di libri:

Serge lang algebra lineare

Marco abate algebra lineare

Marco abate geometria 

Marco abate geometria analitica con elementi di algebra lineare

Keith nicholson algebra lineare

Sernesi geometria 1

Matematica due cailotto

Algebra lineare albeasis

Algebra lineare, silva

Algebra lineare e geometria, shlesinger

Algebra lineare e geometria, casali gagliardi grasselli

Carfagna, complementi e libri di algebra lineare

Elementi di geometria analitica, mauro nacinovich

Giusti, analisi matematica 1

Marcellini sbordone, analisi matematica 1

Bramanti pagani salsa, analisi matematica 1

Eserciziario di analisi 1

Canuto tabacco, analisi matematica 1

Messer linear algebra

Da quora:

First Course: Books for a lower division course in linear algebra.

  • Introduction to Linear Algebra – Gilbert Strang
  • Linear Algebra and Its Applications – David C. Lay

Second Course: Books for an upper division course in linear algebra.

  • Linear Algebra Done Right – Sheldon Axler
  • Linear Algebra – Stephen Friedberg, Arnold Insel
  • Linear Algebra – Kenneth Hoffman, Ray Kunze
  • Finite-Dimensional Vector Spaces – Paul Halmos
  • Groups, Matrices, and Vector Spaces: A Group Theoretic Approach to Linear Algebra – James B. Carrell

Graduate: Books for a graduate course in linear algebra.

  • The Linear Algebra a Beginning Graduate Student Ought to Know – Jonathan Golan
  • Advanced Linear Algebra – Steven Roman
  • Linear Algebra and Multilinear Algebra – Werner Greub


Here is a list of books you can use to self study.

  • Elementary Linear algebra by Howard Anton.

This book is ideal for beginners who have no experience in linear algebra.

  • Linear algebra and it’s applications by David C Lay.

Ideal for autodidacts the author tried to explain it in simple terms.

  • Linear algebra done right by Sheldon Axler.

Underlines the theoretical up bringings of Lienar algebra.

  • Matrix analysis and applied linear algebra by Carl D Meyer.

For in depth concepts.

  • Linear algebra by Jim Hefferon

As reference with C lay’s book.

For video lectures.

  • Gilbert Strang lectures about Linear algebra and MIT’s recitation videos on youtube or MIT open courseware.
  • Khan academy if you want to be taught like an eight year old.


There are no best books for any subject.

It depends on what you know already and on your personality and the personalities of the authors.

Basically; linear agebra is just addition and multiplication BUT you use the beautiful theory to short circuit the computations.

At first glance linear algebra (with its vectors and planes and hyperplanes) seems to have limited usefulness but any sufficiently smooth function in a small neighbourhood is essentially linear so you can apply the powerful theorems of linear algebra


If you are into the “For dummies” book series, then you should consider the linear algebra for dummies[1] one.

Other than that, I don’t really believe in books for learning linear algebra.

A better approach would be to read a lot of content from different sources (videos, web pages, e-learning courses, Quora answers…) and then combine this knowledge until you feel comfortable with the basic ideas.

Here is the Wikipedia page to get you started: Linear algebra – Wikipedia.


For knowing the basics in minimum way possible,with less amount of why’s and how’s ,go for:

An introduction to vectors and matrices by A.M Gun.

For knowing a lil more,go for:

Linear algebra by G.Hadley.

And when you are pro,go for:

Linear algebra Rao and Bhimsankaram.

These books are strictly theoretical based and hardckre problem. I would suggest you to look for some online courses if you just need application in some other fields except Mathematics and Statistics.


Let me take this opportunity to promote Amlina: Abstract Motivated Linear Algebra, by our very own Alon Amit

Well it depends on your major. In UG level people generally follow general Engineering Maths books(Kreyszig for example). But in masters people should dig deep in the subjects. So if you are mastering in EE then your text should be “LA and its applications” by Gilbert Strang. A nice reference can be “Introduction to applied LA” by Boyd-Vandenberghe. There are books of LA which are more mathematical and less application oriented. And Strang has a nice intutive style which engineers around the globe love. And yes, there are also books which have ‘applications’ in their title, and they cover essentially the same thing as Strang’s, but they are not Strang.

P.S it was a typical fanboy style answer :p.


discover scholarly Linear algebra books pdf such as

  • Linear Algebra problem book halmos pdf,
  • Introduction to Linear Algebra pdf,
  • Problems in linear Algebra pdf,
  • Linear Algebra for Dummies pdf
  • 3000 solved problems in linear Algebra pdf
  • Linear Algebra pdf
  • Linear Algebra: theory and applications pdf
  • Schaum’s outline of linear Algebra pdf
  • Linear Algebra Gilber Strand pdf or introduction to linear algebra gilbert strang
  • Introduction to linear algebra 5th edition pdf
  • Basic linear Algebra pdf.
  • Linear Algebra Done Right – Sheldon Axler


Surfing the net and discovering websites offering Linear algebra books pdf is quite possible. Lots of websites out there offer linear algebra books to college students and professional learners. Unfortunately, these websites offer good Linear algebra books by well known and recommended authors at a high cost, throwing college students into panic and leaving them with no option than to worry excessively on how to pay for linear algebra textbooks. For some of them, this exposes them to higher level of anxiety because now not only do they have to worry about paying college tuition fees, they also have to worry about paying for best linear algebra books.

If you have been searching for a site where you can download advanced, intermediate and introduction to linear algebra textbooks online for free, here is a bit of information that can help you download popular linear algebra book best on fundamental, advanced and specialized Linear algebra books that will equip you with the right knowledge to help you coast through college. These Linear algebra books pdf will also give you a head start in a histology career after your college years.

What do you stand to benefit from this information? You might ask. By taking advantage of this information on where you can get the books on linear algebra, you don’t only get to save money on Linear algebra books, you also get to gain access to some of the best linear algebra books available online. By now you’re probably wondering what website offers all these and more. Ever heard of Stuvera? is a website that gives you unlimited access to ALL THE BOOKS LISTED ABOVE AND MUCH MORE.


A really good book to get the basics of linear algebra would be

  1. Linear algebra, Gilbert strang, the book covers fundamentals of the subject in an illuminating manner. You would benefit from the course given by MIT linear algebra by the same author.
  2. Linear algebra done right, Sheldon axler.
  3. Linear algebra, Hoffman Kunze.

All the best.


Linear Algebra by Prof. Gilbert Strang:

Buy Introduction to Linear Algebra Book Online at Low Prices in India

Accompanied by his lectures on MIT OCW:

Linear Algebra

For more information on how to study further topics Linear Algebra look at:

Books: What is the best book for learning Linear Algebra?

2.8k views · View 6 Upvoters


Among all the books cited in Wikipedia – Linear Algebra, I would recommend:

  • Strang, Gilbert, Linear Algebra and Its Applications (4th ed.) 

Strang’s book has at least two reasons for being recomended. First, it’s extremely easy and short. Second, it’s the book they use at MIT for the extremely good video Linear Algebra course you’ll find in the link of Unreasonable Sin.

For a view towards applications (though maybe not necessarily your applications) and still elementary:

  • B. Noble & J.W. Daniel: Applied Linear Algebra, Prentice-Hall, 1977

Linear algebra has two sides: one more “theoretical”, the other one more “applied”. Strang’s book is just elementary, but perhaps “theoretical”. Noble-Daniel is definitively “applied”. The distinction from the two points of view relies in the emphasis they put on “abstract” vector spaces vs specific ones such as RnRn or CnCn, or on matrices vs linear maps.

Maybe because my penchant towards “pure” maths, I must admit that sometimes I find matrices somewhat annoying. They are funny, specific, whereas linear maps can look more “abstract” and “ethereal”. But, for instance: I can’t stand the proof that the matrix product is associative, whereas the corresponding associativity for the composition of (linear or non linear) maps is true…, well, just because it can’t help to be true the first moment you write it down.

Anyway, at a more advanced level in the “theoretical” side you can use:

  • Greub, Werner H., Linear Algebra, Graduate Texts in Mathematics (4th ed.), Springer
  • Halmos, Paul R., Finite-Dimensional Vector Spaces, Undergraduate Texts in Mathematics, Springer
  • Shilov, Georgi E., Linear algebra, Dover Publications 

In the “applied” (?) side, a book that I love and you’ll appreciate if you want to study, for instance, the exponential of a matrix is Gantmacher.

And, at any time, you’ll need to do a lot of exercises. Lipschutz’s is second to none in this:

  • Lipschutz, Seymour, 3,000 Solved Problems in Linear Algebra, McGraw-Hill

Enjoy! 🙂


Corsi di algebra lineare: cosa si insegna?


VETTORI GEOMETRICI. Loro definizione. Operazioni algebriche sui vettori, prodotto scalare, prodotto vettoriale, prodotto misto, modulo, angolo, ortogonalita’. Espressione cartesiana del prodotto scalare e vettoriale..

GEOMETRIA ANALITICA DEL PIANO. Rappresentazioni di punti e rette, distanze, angolo di due rette, parallelismo e perpendicolarita’, fasci di rette, circonferenze, fasci di circonferenze.

GEOMETRIA ANALITICA DELLO SPAZIO. Riferimenti cartesiani nello spazio e loro trasformazioni, equazioni di rette e piani, parametri direttori di rette e piani. Distanze. Rette sghembe e minima distanza. Angoli di rette e piani. Parallelismo e ortogonalita’ di rette e piani. Fascio di piani. Sfera e circonferenza.

MATRICI. Generalita’ sulle matrici, operazioni, dipendenza lineare, determinante, rango, inversa di una matrice quadrata, matrici ortogonali.

SISTEMI LINEARI. Nozioni fondamentali, teorema di Cramer, teorema di Rouche’ – Capelli, procedimento di risoluzione di un sistema lineare, sistemi lineari omogenei.

SPAZI VETTORIALI. Operazioni tra vettori, sottospazi, dimensione, generatori e basi, somma ed intersezione di sottospazi, componenti e cambio di base.

APPLICAZIONI LINEARI. Generalita’, nucleo ed immagine, applicazioni lineari e matrici, applicazioni lineari iniettive e suriettive.

AUTOVALORI ED AUTOVETTORI. Definizione, interpretazione geometrica, polinomio caratteristico, similitudine di matrici, diagonalizzazione.

SPAZI EUCLIDEI [Math Processing Error] . Prodotto scalare euclideo in [Math Processing Error] , modulo di vettori , angolo di vettori. Basi ortonormali. Cambio base tra basi ortonormali. Diagonalizzazione ortogonale di matrici reali simmetriche. Forme quadratiche, segno, riducibilità, riduzione a forma canonica.

CONICHE. Nozioni fondamentali sulle curve algebriche. Proprieta’ elementari delle coniche, equazioni canoniche, riduzione a forma canonica, riconoscimento, centro, assi, asintoti di una iperbole. Fasci di coniche.

QUADRICHE. Sfere, coni, cilindri. Quadriche, quadriche di rotazione, equazioni delle quadriche in forma canonica. Sezioni piane di quadriche


  • Spazi vettoriali.
    • Dualità.
    • Applicazioni lineari e sistemi di equazioni lineari.
    • Geometria Affine: sottospazi affini e loro rappresentazioni cartesiane e parametriche.
    • Calcolo matriciale.
    • Determinante.
    • Autovalori, autovettori, diagonalizzabilità.
    • Similitudine, polinomio caratteristico.
    • Prodotti scalari.
    • Prodotti definiti positivi: spazi euclidei.
    • Operatori autoaggiunti, ortogonali, unitari, normali.
    • Teorema spettrale.
    • Teorema di Sylvester.
    • Coniche.


PROGRAMMA DEL CORSO DI ANALISI MATEMATICA II E ALGEBRA LINEARE ANNO ACCADEMICO 2011/2012 —————- ALGEBRA LINEARE INTRODUZIONE. I vettori geometrici e le loro operazioni. Identificazione fra vettore e l’insieme delle coordinate del suo estremo libero. Cenni alle coordinate lagrangiane : scavatore a braccio articolato e mano. Introduzione ai sistemi di primo grado e formulazione vettoriale dei sistemi lineari. RISOLUBILITA` DEI SISTEMI DI EQUAZIONI LINEARI. Introduzione all’algoritmo di Gauss di eliminazione per la risoluzione dei sistemi di primo grado. Notazione compatta. Operazioni elementari di trasformazione di un sistema avente le medesime soluzioni, o altre che differiscono da esse solo per l’ordine: permutazioni di righe, di colonne, moltiplicazione di una riga per un numero non nullo, e somma membro a membro di una riga ad un’altra. Sistemi con righe o colonne tutte nulle, e con una riga nulla con termine noto non nullo (sistemi impossibili). Sistemi elementarmente risolubili e matrice dei coefficienti corrispondenti: sistemi “risolti”, diagonali, triangolari: condizioni sulla diagonale per la risolubilita` e tecnica di risoluzione completa (sostituzione all’indietro). l’algoritmo di eliminazione di Gauss: trasformare, mediante trasformazioni elementari, il sistema dato in uno a scala. Definizione astratta di sistema a scala e risoluzione: incognite pivot e non-pivot (parametriche); risoluzione simultanea di un sistema con termini noti multipli: l’algoritmo di Gauss-Jordan in alternativa alla sostituzione all’indietro. SPAZI EUCLIDEI. Prodotto Cartesiano. Lo spazio Rn, zero, opposto, somma, multiplo. Assiomi di spazio vettoriale: assiomi di gruppo abeliano, distributività e loro rilevanza per poter estendere ai vettori le tecniche di risoluzione delle equazioni note dall’algebra elementare. Definizione di combinazione lineare, span, generatori. Definizione di sottospazio. Lo span di un numero finito di vettori è un sottospazio. I sottospazi di R2 e le rette per l’origine. Proprietà conseguenti agli assiomi: annullamento del prodotto. La base canonica in Rn: genera tutto Rn e smette di farlo se viene eliminato uno solo dei suoi vettori. Notazione vettoriale per i sistemi lineari e le loro soluzioni. Equazione in forma parametrica della retta. Conversione fra le forme parametrica e cartesiana (implicita). Sistemi lineari e il problema di determinare se un vettore dato appartiene allo span di un insieme di vettori dati. Il prodotto scalare sugli spazi vettoriali reali: proprietà costitutive (funzione bilineare, simmetrica, definita positiva). Il prodotto scalare canonico su Rn (somma dei prodotti delle coordinate omonime): verifica delle proprietà. Proprietà non godute dal prodotto scalare: associativita`, annullamento del prodotto. Norma negli spazi euclidei. Proprietà assiomatiche delle norme. Versori: forma vettoriale della forza newtoniana. Distanza negli spazi normati. Assiomi della distanza. Sfere. Il prodotto scalare e il coseno dell’angolo formato: identità col prodotto scalare introdotto in fisica (prodotto dei moduli per il coseno dell’angolo). Proiezione di un vettore nella direzione di un altro. Vettori ortogonali. Teorema di Pitagora, di Carnot, identità del parallelogramma, uv = (|u+v|^2 – |u-v|^2)/4. Proprietà caratteristiche della proiezione: linearità, P^2=P. Teoremi sulla proiezione: ortogonalità del resto, minima distanza, la proiezione riduce la norma (disuguaglianza di Schwartz). Un’altra dimostrazione. Disuguaglianza triangolare per la norma euclidea. Il caso dell’uguaglianza. Sistemi ortogonali e ortonormali: la proiezione sullo span di un sistema ortogonale è la somma delle proiezioni su tutti i vettori. Complemento ortogonale: prova che è un sottospazio. Area di un parallelogramma o di un triangolo in Rn: formula in funzione di norme e prodotto scalare; altra formula (solo enunciato) in funzione dei determinanti 2×2 estratti. Prodotto vettore in R3: definizione, modulo, proprietà caratteristiche: bilinearità e antisimmetria. Altre proprieta`: ortogonalita` con i fattori, area e modulo, identita` di Lagrange. Lo spazio Cn. La struttura euclidea in Cn: il prodotto hermitiano canonico in Cn e le sue proprietà carateristiche: sesquilinearità, emisimmetria e positività. INTRODUZIONE ALLA GEOMETRIA IN Rn CON I VETTORI. Proiezione di un vettore su un altro, sullo span di un sistema ortogonale, su uno span di vettori indipendenti generici, in Rn e Cn. Rette parametriche per un punto, intersezioni e “collisioni”. Interpretazione vettoriale dell’equazione implicita della retta per l’origine. Retta normale ad una direzione per un punto dato. Classificazione delle intersezioni di rette: rette parametriche coincidenti, incidenti, parallele, sghembe. Bisettrice di un angolo. Piani: ogni equazione di I grado rappresenta un piano normale al vettore dei coefficienti delle incognite. Retta di minima distanza fra due rette sghembe. Rette cartesiane in R3 e piani parametrici in R3. Forma parametrica di semirette, angoli, segmenti; combinazioni lineari, convesse, coniche. Poligono convesso contenente n punti. Punto medio del segmento e bisettrice di un angolo. Piani e rette parametrici e cartesiani: conversione fra le due forme ed intersezioni. Piano cartesiano e parametrico per tre punti. SOTTOSPAZI. Sottospazio somma e intersezione di sottospazi dati. Somma diretta di due spazi e relativa condizione necessaria e sufficiente sull’intersezione. Condizioni per l’inclusione e l’uguaglianza, e calcolo dell’intersezione di sottospazi generati da un numero finito di vettori in Rn mediante l’algoritmo di Gauss. Un criterio di inclusione fra due sottospazi di Rn o Cn : è sufficiente che siano inclusi i generatori. SPAZI VETTORIALI ASTRATTI. Spazi vettoriali astratti di dimensione finita e infinita: Rn; Cn; lo spazio dei polinomi e quello dei polinomi di grado massimo assegnato; lo spazio delle funzioni continue su un intervallo chiuso e limitato. Spazi euclidei e normati: la norma del massimo modulo sullo spazio delle funzioni continue: verifica delle proprietà; il prodotto scalare L2 sullo spazio delle funzioni continue su [0,pi greco], con verifica delle proprietà. Il sistema ortogonale di Fourier (sin ht, h intero) e cenni alla decomposizione di Fourier e ai suoi legami con il concetto di proiezione rispetto al prodotto scalare di L2. Cenni al prodotto L2 complesso ed al relativo sistema ortogonale degli esponenziali (e^iht, h intero relativo). INDIPENDENZA LINEARE, BASI, DIMENSIONE. Il concetto di dipendenza lineare: definizione e caratterizzazione (dei vettori sono dipendenti se e solo se almeno uno di essi è combinazione degli altri). Esempi di vettori indipendenti: sistemi “triangolari” e “diagonali” di vettori in Rn e Cn, e vettori mutuamente ortogonali in uno spazio euclideo. Esempi di vettori dipendenti: (1, sin^2 x, cos 2x), sistemi contenenti lo zero, due vettori collineari o tre complanari. Equivalenza fra l’indipendenza delle colonne di un sistema lineare e l’unicità della soluzione per ogni secondo membro per il quale il sistema sia risolubile. Indipendenza lineare di potenze (con il principio d’identita` dei polinomi), fratti semplici ed esponenziali complessi nei relativi spazi di funzioni continue. Effetti della rimozione di un elemento da un sistema di generatori: lemma fondamentale (un elemento puo` essere soppresso senza alterare lo span se e solo se e` combinazione dei rimanenti) e lemma di scambio (un elemento non nullo di uno span puo` essere inserito al posto di uno dei generatori senza alterare lo span, se scelto opportunamente). Aggiungere un vettore non appartenente allo span di un sistema indipendente ne mantiene l’indipendenza. Definizione di base. Teorema di esistenza della base. Altri teoremi fondamentali: massimo numero di vettori indipendenti, della dimensione (ogni base ha lo stesso numero di elementi), dei generatori (ogni sistema di vettori indipendenti in numero pari alla dimensione e` una base), del completamento (ogni sistema di vettori indipendenti puo` essere completato ad una base). Applicazioni: calcolo della dimensione di: Rn, Cn, lo spazio dei polinomi di grado massimo fissato, le funzioni razionali (il denominatore dei quali ha tutte le radici reali e distinte, ed il numeratore è di grado minore); la base alternativa dei fratti semplici ed esistenza della decomposizione in fratti semplici per le funzioni razionali precedenti. Coordinate di un vettore rispetto ad una base: unicità. Teorema di Grassmann sui sottospazi: il caso generale e quello della somma diretta. Teoria vettoriale dei sistemi lineari: teorema di Rouchè, di Cramer, di unicità. Applicazioni dell’algoritmo di eliminazione per la risoluzione di vari problemi concernenti indipendenza, basi e dimensione: calcolo della dimensione di uno span, estrazione di una base dai generatori di uno span. Completamento di un sistema in Rn ad una base: scelta dei pivot. APPLICAZIONI LINEARI. Linearita`. Valore in 0. Nucleo, immagine, rango. Iniettivita`, suriettivita`, biiettivita`, invertibilita` ed inversa. Nucleo e immagine della derivata fra C1 e C0. Il nucleo e l’immagine sono sottospazi. Condizione sul nucleo per l’iniettività; dim A(X)<=dim X. Il teorema di Grassmann per le applicazioni lineari, inclusi i casi nei quali dim(Ker A)=0 oppure dim A(X)=0; iniettività <–> dim A(X)= dim X. Un sottospazio di uguale dimensione coincide con tutto lo spazio. Teorema di Cramer (versione astratta): un’applicazione lineare fra spazi di uguale dimensione è suriettiva se e solo se è iniettiva. Equazioni lineari astratte: principio di sovrapposizione e struttura delle soluzioni (soluzione particolare più elemento del nucleo). Esempi: equazioni differenziali lineari a coefficienti costanti e sistemi lineari. APPLICAZIONI LINEARI FRA SPAZI DI DIMENSIONE FINITA. Applicazioni lineari fra spazi euclidei Rn e prodotti vari: i casi da R a R, da R a Rn, da Rn a R e da Rn a Rm. La matrice associata ad un’applicazione lineare fra Rn e Rm. Il caso di applicazioni fra spazi astratti di dimensione finita: la derivata sui polinomi di grado massimo 2. L’algoritmo di eliminazione ed il calcolo della matrice associata e dei generatori del rango e del nucleo di un’applicazione lineare fra spazi euclidei. Basi per il nucleo di un operatore lineare fra spazi euclidei. Esistenza e determinazione di applicazioni linari che assumano valori dati su vettori dati. Matrice associata alla derivata fra lo span complesso di base sin t e cos t e lo span complesso di base e^(it) ed e^(-it) (coincidente col precedente). MATRICI. Le matrici: somme e multipli scalari; matrice nulla. Vettori riga e vettori colonna. Prodotto di matrici (righe per colonne). Prodotto matrice per vettore; notazione matriciale equivalente per i sistemi lineari. Proprieta` associativa e distributiva; contresempio alla commutativita`. Matrice identica. Struttura e prodotto a blocchi (se B si pensa come una riga di vettori colonna B1 B2 … Bn il prodotto AB si puo` rappresentare come A(B1 B2 … Bn)=(AB1 AB2 … ABn) ed analoga per le righe). Matrice inversa e sistemi lineari equivalenti. Prodotto di matrici a blocchi. Matrice trasposta (o aggiunta) e sue proprieta`: trasposta del prodotto e comportamento rispetto ai prodotti scalari. Matrici autoaggiunte; caso reale: matrici simmetriche. Invertibilita` di matrici: le dimensioni degli spazi devono coincidere; matrici regolari e singolari; teorema: se una matrice e` regolare anche le sue righe sono indipendenti; se una matrice ha inversa destra ha anche quella sinistra e le due inverse coincidono; esistenza dell’inversa per le matrici regolari. Alcune matrici notevoli e loro invertibilità: matrici di spostamento di una riga o una colonna e di permutazione. Cenni all’algoritmo di Gauss in forma matriciale (fattorizzazione). DETERMINANTI. Proprieta` fondamentali dei determinanti, visti come funzione delle colonne: linearita` rispetto ad una singola colonna, valore sulla matrice unitaria, alternanza. Determinanti di matrici con colonne uguali o con colonne dipendenti. Il determinante non varia sommando ad una colonna una combinazione delle altre. Determinante della trasposta (solo enunciato) e proprieta` analoghe per le righe. Il determinante non nullo equivale all’indipendenza delle colonne. Formula risolutiva di Cramer per i sistemi non singolari. Matrici quadrate estratte e calcolo del rango come dimensione massima di una matrice estratta non singolare. Sviluppo di Laplace secondo gli elementi di una riga o di una colonna (solo enunciato): complementi algebrici. Espressione della matrice inversa con i complementi algebrici. Valutazione della complessità di calcolo del determinante per ricorsione con la regola di Laplace. Segno di una permutazione e definizione del determinante (senza la verifica delle proprieta` assiomatiche). Calcolo veloce dei determinanti 2×2 e 3×3. Teorema di Binet sul determinante del prodotto (senza dimostrazione). Determinanti di matrici a blocchi diagonali (senza dimostrazione). Determinanti di matrici diagonali e triangolari: calcolo del determinante mediante l’algoritmo di Gauss. CAMBI DI BASE. Matrice associata ad un cambio di base ed a quello inverso. Formule di trasformazione delle coordinate relative a due basi in funzione della matrice di cambio di base. Formula di trasformazione della matrice associata ad un’applicazione lineare e a due basi assegnate al variare di tali basi, in termini delle relative matrici di cambio di base. Il caso di un’applicazione lineare da uno spazio in sè, rispetto alla stessa base. DIAGONALIZZAZIONE. Operatore da uno spazio in sè, diagonale rispetto ad una base. Operatore diagonalizzabile da uno spazio in sè. Autovalori, autovettori, autospazio relativo ad un autovalore, spettro. Gli autospazi sono sottospazi. Condizione necessaria e sufficiente per la diagonalizzabiltà: esistenza di basi spettrali. Esempio di operatore lineare diagonalizzabile su C ma non su R, e di operatore non diagonalizzabile su C. Indipendenza di autovettori in autospazi distinti; le somme di autospazi sono dirette (facoltativo). Il teorema fondamentale dell’Algebra, di Gauss (solo enunciato, la dimostrazione fa parte del programma di analisi II): esistenza di radici e della fattorizzazione in fattori di primo grado in C per ogni polinomio complesso di grado non nullo. Teorema di esistenza degli autovettori per gli spazi complessi di dimensione finita non nulla (teorema degli spazi invarianti). Equazione e polinomio caratteristici. Invarianza del polinomio caratteristico per cambio di base; se una matrice è diagonalizzabile il suo determinante è il prodotto degli autovalori. La dimensione dell’autospazio relativo ad un autovalore è non maggiore della molteplicità dell’autovalore come radice del polinomio caratteristico. Diagonalizzabilità di matrici con autovalori tutti semplici; diagonalizza-bilità come conseguenza dell’uguaglianza della dimensione dell’autospazio e della molteplicità algebrica di ogni autovalore multiplo(solo enunciato). TEORIA SPETTRALE PER OPERATORI AUTOAGGIUNTI. Operatori autoaggiunti in uno spazio euclideo complesso: lo spettro è reale; il complemento ortogonale di un autovettore è invariante; autovettori in autospazi distinti sono ortogonali. Teorema spettrale per operatori autoaggiunti in uno spazio complesso di dimensione finita non nulla. Condizione necessaria e sufficiente sulla matrice associata ad una qualunque base ortonormale perche’ un operatore sia autoaggiunto; la condizione nel caso di matrici reali: simmetria. Parte reale e immaginaria di un vettore di Cn. Condizioni sulla parte reale e immaginaria di un vettore complesso ortogonale ad uno reale. Esistenza di autovettori reali per operatori reali autoaggiunti definiti su Cn. Il teorema di esistenza di una base spettrale ortonormale e reale per una matrice simmetrica reale (diagonalizzazione di matrici reali simmetriche). IL SEGNO DELLE FORME QUADRATICHE. Il problema, ed il caso diagonale. Forme bilineari e quadratiche astratte. Esistenza ed unicità della forma bilineare simmetrica associata ad una forma quadratica arbitraria. Forme bilineari su uno spazio euclideo reale: matrice associata. Operatore lineare associato ad una forma bilineare e ad una base ortonormale, definito dalla stessa matrice. Diagonalizzabilità della forma e dell’operatore associato: studio del segno della forma a partire da quello degli autovalori dell’operatore definito dalla stessa matrice. Studio del segno e classificazione delle forme quadratiche su Rn: definite positive, definite negative, semidefinite positive, semidefinite negative, indefinite, a partire dallo studio del segno degli autovalori della matrice simmetrica associata, senza calcolarli: regola dei segni di Cartesio (solo enunciato) applicata al polinomio caratteristico in ognuno dei cinque casi e il metodo alternativo (solo enunciato): applicazione del teorema di Sylvester e dell’algoritmo di Gauss-Jordan in modo da preservare la simmetria, applicando alle colonne le stesse operazioni applicate alle righe, sino ad una forma diagonale che ha la stessa distribuzione di segni e zeri di quella degli autovalori. —————————————– ANALISI MATEMATICA (II) TOPOLOGIA. punti interni, esterni, di frontiera. Punti isolati e punti d’accumulazione. Insiemi aperti, chiusi, ne’ aperti ne’ chiusi, limitati, convessi. Chiusura di un insieme. LIMITI E CONTINUITA`. Stima della norma con i moduli delle componenti. Successioni convergenti. Successioni divergenti e divergenza della norma. Successioni oscillanti. I punti d’accumulazione sono limiti di successioni di punti distinti dell’insieme. Continuità di funzioni da Rn a Rm: il caso particolare delle curve e delle superficie parametriche. Il limite finito in un punto di funzioni vettoriali. Continuita` e convergenza di funzioni vettoriali sono equivalenti a quelle delle loro componenti scalari. Esempi di teoremi noti per le funzioni scalari che si estendono immediatamente a quelle vettoriali: il teorema della permanenza del segno per le funzioni continue scalari di variabile vettoriale; il limite della somma di due funzioni vettoriali convergenti. Il cambio di variabile nel calcolo dei limiti: contresempio nel caso generale e condizioni di validita`: funzione esterna continua o non definita (solo enunciato). Continuita` di funzioni composte. Insiemi connessi (per archi) e teorema di esistenza degli zeri per le funzioni continue sui connessi. Teorema di Weierstrass sull’esistenza dei punti estremi per le funzioni continue sui chiusi limitati (solo enunciato): definizione di compatto come chiuso e limitato. Funzioni scalari e vettoriali divergenti, al finito e all’infinito. Funzioni oscillanti. Esempio di polinomio reale oscillante all’infinito (p(x,y)=x). Divergenza dei polinomi complessi non costanti all’infinito. Le funzioni reali continue divergenti all’infinito hanno minimo globale. Il teorema fondamentale dell’algebra (di Gauss): ogni polinomio complesso non costante ha zeri complessi. Il problema delle funzioni implicite e il teorema di Ulisse Dini in ipotesi di continuità globale e di stretta monotonia rispetto ad una variabile. Esame dettagliato per f(x,y)=x^2+y^2-1. CALCOLO DIFFERENZIALE. Derivate direzionali e parziali: definizione, calcolo e notazione. Punti estremi: massimi e minimi locali e globali. Teorema di Fermat sull’annullarsi delle derivate direzionali in ogni punto di estremo locale interno nel quale esse esistano: condizione necessaria per un estremo locale interno. Esempi di funzioni che hanno derivate parziali ma non le altre derivate direzionali, e di una funzione discontinua in (0,0) le cui derivate in ogni direzione sono nulle in (0,0). Funzioni (positivamente) omogenee. Continuità delle proiezioni su un asse coordinato, delle funzioni lineari e dei polinomi. Le funzioni 0-omogenee in (0,0) non costanti non convergono. Differenziale. Unicità del differenziale. Le funzioni differenziabili sono continue. Legame fra derivate direzionali di una funzione differenziabile ed il suo differenziale. La struttura (formula) del differenziale, scalare e vettoriale (prodotto scalare del gradiente per l’incremento) per le funzioni scalari di variabili vettoriali. Differenziali delle funzioni lineari: il caso particolare delle proiezioni della variabile vettoriale sugli assi coordinati e formula classica del differenziale(dF=somma Fxi dxi). Struttura del differenziale per funzioni scalari e vettoriali di variabili scalari: differenziabilità ed esistenza della derivata. Struttura del differenziale per funzioni vettoriali di variabile vettoriale: la matrice jacobiana. Il teorema sul differenziale delle funzioni composte (solo enunciato) e applicazione al calcolo delle derivate di composizioni di funzioni: il teorema classico per le funzioni di una sola variabile, ed il caso della composizione di una funzione di n variabili con una curva in Rn. Differenziabilità di funzioni di classe C1 (“teorema del differenziale totale”). Equazione delle curve di livello. Direzione di massima pendenza per una funzione differenziabile. Funzioni tangenti in un punto. Piano tangente e vettore normale al grafico di una funzione differenziabile. Derivate successive e matrice hessiana. Teorema di Schwarz (solo enunciato) e simmetria della matrice hessiana. Formula di Taylor (solo enunciato) con le due forme del polinomio di Taylor (“estesa” e “ridotta”) e del resto (di tipo “Peano” e “Lagrange”). Applicazioni: condizioni sufficienti per un estremo locale e per un punto di sella: segno degli autovalori e caso della forma hessiana definita o indefinita. Il caso delle hessiane semidefinite: contresempi. Il teorema sulle funzioni implicite (Dini), nel caso delle funzioni di classe C1: formula della derivata della funzione esplicita (“formula risolutiva”). Introduzione ai massimi e minmi vincolati: il caso della rappresentazione cartesiana e parametrica del vincolo. Il vincolo in forma implicita: il moltiplicatore di Lagrange nel caso di una funzione di due variabili e di un unico vincolo del tipo g(x,y)=0. Il caso generale: i moltiplicatori di Lagrange nel caso dei vincoli espressi da più equazioni (solo enunciato). Cenno al significato fisico dei moltiplicatori: le reazioni vincolari. Il teorema delle funzioni implicite nel caso dei sistemi di più equazioni: condizione sullo jacobiano (solo enunciato). Teorema di invertibilità locale (solo enunciato). CAMPI VETTORIALI E FORME DIFFERENZIALI. Introduzione al problema delle primitive: funzioni con derivate identicamente nulle e contresempi nel caso di insiemi sconnessi. Le funzioni con gradiente identicamente nullo su un aperto connesso sono costanti. Campi vettoriali e forme differenziali lineari di classe Ck: campo associato ad una forma e forma associata ad un campo. Le due forme del problema della primitiva: campi integrabili o potenziali e forme integrabili o esatte. Integrale di un campo su una curva continua. Condizione necessaria di integrabilità: indipendenza dell’integrale dal cammino e differenza di potenziale. La condizione di integrabilità sulle curve chiuse. La condizione necessaria di integrabilità di campi e forme C1, sulle derivate delle componenti (condizione del rotore). Campi irrotazionali e forme chiuse. Esempio di campo irrotazionale non integrabile. Congiunzione di curve e additività dell’integrale. Cammini opposti e valore dell’integrale sul cammino opposto. La condizione necessaria e sufficiente di integrabilità per campi C0: l’invarianza rispetto al cammino (teorema di Torricelli in più variabili). Costruzione della primitiva per integazione su cammini particolari: segmenti, spezzate con lati paralleli agli assi, spezzate di curve notevoli. Invarianza dell’integrale di un campo per cambio dei parametri. Condizione necessaria e sufficiente di integrabilità: l’integrale del campo sulle curve chiuse si annulla. Omotopia o deformazione di curve aventi gli stessi estremi o di curve chiuse. Invarianza per omotopia dell’integrale di un campo irrotazionale (solo enunciato). Insiemi semplicemente connessi e integrabilità dei campi irrotazionali sugli insiemi semplicemente connessi. Gli insiemi convessi e gli insiemi stella sono semplicemente connessi. Calcolo di potenziali locali del campo irrotazionale non (globalmente) integrabile sul proprio dominio massimale, ( y/(x^2+y^2) , -x/(x^2+y^2) ) sul piano tagliato lungo una semiretta uscente dall’origine: prolungamento di potenziali locali. Il significato geometrico del potenziale locale del campo (y/(x^2+y^2) , -x/(x^2+y^2)) : “il differenziale dell’angolo”. Discussione qualitativa sull’integrabilità dei campi irrotazionali sul complementare di un numero finito dei punti: la condizione di integrabilità basata sull’annullarsi degli integrali estesi ad altrettante curve che circondano ognuna una sola delle singolarità (solo enunciato). CURVE E LUNGHEZZA. Poligonali inscritte in una curva parametrica, rettificabilità e lunghezza della curva rettificabile. Esempio di una curva di classe C0 non rettificabile. Vettore e retta tangente. Il problema della rappresentazione cartesiana delle curve parametriche: eliminazione del parametro. Esempio di curva derivabile che non è, nell’intorno di un punto del suo sostegno, grafico di una funzione derivabile. Curve regolari (derivata mai nulla) e rappresentazione (locale) cartesiana. L’integrale per funzioni vettoriali. Contresempio alla proprietà della media (elica cilindrica). Stima della norma dell’integrale con l’integrale della norma. Teorema di rettificabilità delle curve C1. Formula della lunghezza di curve C1 (o C1 a tratti) (solo enunciato). Ascissa curvilinea. Integrale curvilineo di una funzione definita sul sostegno di una curva C1. Invarianza della lunghezza e dell’integrale curvilineo per cambio (strettamente monotono) della scala del parametro. L’equazione differenziale del cambio di scala che rende il modulo della velocità costante. Lunghezza di curve in coordinate polari piane, cilindriche; lunghezza in coordinate sferiche (solo enunciato). TEORIA DELLA MISURA E DELL’INTEGRAZIONE (solo enunciati). Elementi della teoria della misura e dell’integrazione secondo Lebesgue: misura di intervalli, plurintervalli, aperti, chiusi; misura esterna ed interna di un insieme arbitrario: misurabilità e misura di Lebesgue di un insieme limitato; proprietà: monotonia, additività numerabile su insiemi disgiunti, subadditività numerabile, continuità verso l’alto e verso il basso. Numerabilità e misura dei razionali. Misura di insiemi non limitati. Integrabilita` secondo Lebesgue di funzioni limitate su insiemi di misura finita, di funzioni positive su insiemi di misura finita, di funzioni positive su insiemi arbitrari. Parte positiva e negativa: integrabilita` di funzioni di segno variabile e integrabilita` del modulo. Proprieta` dell’integrale: linearita`, additivita` e positivita`. Funzioni misurabili e teorema (con dimostrazione) di integrabilita` delle funzioni misurabili e limitate su insiemi misurabili di misura finita. I teoremi di Beppo Levi e di Lebesgue di passaggio al limite sotto il segno d’integrale. Derivazione sotto il segno d’integrale. Teoremi di Fubini e Tonelli sugli integrali iterati: calcolo degli integrali doppi per decomposizione in domini normali. Teorema del cambio di variabile: il caso delle coordinate polari piane. SUPERFICIE PARAMETRICHE (solo enunciati). Superficie parametriche: vettori tangenti, vettore normale, piano tangente in forma parametrica e cartesiana, formula dell’area. Rappresentazione parametrica della sfera (coordinate sferiche) e calcolo del vettore normale e dell’area.


Lascia un commento