Accedi all'area personale per aggiungere e visualizzare i tuoi libri preferiti
In matematica, un vettore è un elemento di uno spazio vettoriale. I vettori sono quindi elementi che possono essere sommati fra loro e moltiplicati per dei numeri, detti scalari. I vettori sono comunemente usati in fisica per indicare grandezze che sono completamente definite solo quando sono specificati sia una magnitudine (o modulo) che una direzione ed un verso rispetto ad un altro vettore o un sistema di vettori. Le grandezze che possono essere descritte in questo modo sono chiamate grandezze vettoriali, in contrapposizione alle grandezze scalari che sono caratterizzate unicamente dallo loro magnitudine. Il concetto matematico di vettore nasce dall'idea intuitiva di una grandezza fisica (come ad esempio spostamento, accelerazione e forza) caratterizzata da intensità, direzione e verso nello spazio tridimensionale. A seguito dell'introduzione delle coordinate cartesiane una grandezza di questo tipo poteva essere rappresentata da una terna di numeri reali: le componenti relative a tre direzioni spaziali di riferimento. Nella successiva formalizzazione matematica si è giunti a definire il concetto generale di spazio vettoriale, come insieme in cui è definita l'operazione di combinazione lineare di due o più elementi. In vari settori della matematica e della fisica, come l'analisi funzionale o la meccanica quantistica, il concetto di spazio vettoriale è applicato agli spazi di funzioni, in cui i vettori sono funzioni, come gli spazi di Hilbert e gli spazi di Banach.
Il teorema di Perron-Frobenius afferma che, se A {\displaystyle A} è una matrice non negativa (cioè, con tutti gli elementi maggiori o uguali a zero) primitiva e irriducibile allora L'autovalore di modulo massimo λ {\displaystyle \lambda } di A {\displaystyle A} è reale positivo Esso è un autovalore semplice L'autovettore corrispondente ha tutte le componenti positive L'autovettore corrispondente è l'unico autovettore non negativo di A {\displaystyle A} L'autovalore di modulo massimo, visto come funzione ρ ( A ) {\displaystyle \rho (A)} della matrice A {\displaystyle A} , è una funzione strettamente crescente in ognuno dei suoi elementi: cioè, se B ≥ A {\displaystyle B\geq A} (s'intende che tale disuguaglianza valga elemento per elemento) e B ≠ A {\displaystyle B\neq A} , allora ρ ( B ) > ρ ( A ) {\displaystyle \rho (B)>\rho (A)} Il teorema di Perron-Frobenius è un risultato abbastanza potente ma elementare di algebra lineare che solitamente non si vede nei primi corsi. Una sua applicazione è per esempio quella di assicurare l'esistenza di misure invarianti per catene di Markov finite.
In matematica, una σ-algebra (pronunciata sigma-algebra) o tribù (termine introdotto dal gruppo Bourbaki) su di un insieme Ω {\displaystyle \Omega } , è una famiglia di sottoinsiemi di Ω {\displaystyle \Omega } che ha delle proprietà di chiusura rispetto ad alcune operazioni insiemistiche, in particolare l'operazione di unione numerabile e di passaggio al complementare. La struttura di σ-algebra è particolarmente utile nelle teorie della misura e probabilità ed è alla base di tutte le nozioni di misurabilità, sia di insiemi che di funzioni. Essa è un caso particolare di algebra di insiemi e, rispetto a quest'ultima, è utilizzata molto più ampiamente in Analisi (per via delle numerose proprietà che le misure definite su σ-algebre hanno rispetto alle operazioni di passaggio al limite). Le σ-algebre che ricorrono più spesso in matematica sono le σ-algebre boreliane e la σ-algebra di Lebesgue. Anche storicamente queste due classi di σ-algebre hanno motivato lo sviluppo del concetto stesso di σ-algebra, nato a cavallo di XIX secolo e XX secolo col fine di formalizzare la teoria della misura. Esso, infatti, precisa l'idea euristica di evento o insieme misurabile. Molte importanti strutture astratte, al centro dei progressi della matematica dell'ultimo secolo, sono definibili mediante σ-algebre.
In matematica, una norma matriciale è la naturale estensione alle matrici del concetto di norma definito per i vettori.
Ferdinand Georg Frobenius (Charlottenburg, 26 ottobre 1849 – Berlino, 3 agosto 1917) è stato un matematico tedesco, noto soprattutto per i suoi contributi alla teoria delle equazioni differenziali e alla teoria dei gruppi.
L'algebra lineare è la branca della matematica che si occupa dello studio dei vettori, spazi vettoriali (o spazi lineari), trasformazioni lineari e sistemi di equazioni lineari. Gli spazi vettoriali sono un tema centrale nella matematica moderna; l'algebra lineare è usata ampiamente nell'algebra astratta, nella geometria e nell'analisi funzionale. L'algebra lineare ha inoltre una rappresentazione concreta nella geometria analitica. Con l'algebra lineare si studiano completamente tutti i fenomeni fisici "lineari", cioè quelli in cui intuitivamente non entrano in gioco distorsioni, turbolenze e fenomeni caotici in generale. Anche fenomeni più complessi, non solo della fisica ma anche delle scienze naturali e sociali, possono essere studiati e ricondotti con le dovute approssimazioni a un modello lineare.
L'algebra di Boole (anche detta algebra booleana o reticolo booleano), in matematica e logica matematica, è il ramo dell'algebra in cui le variabili possono assumere solamente i valori vero e falso (valori di verità), generalmente denotati rispettivamente come 1 e 0.