Abb. 1: Die Drehung und Streckung von materiellen Linienelementen (rot) bei einer Deformation wird mit einem Vektorgradient beschrieben
Der Gradient eines Vektorfeldes oder kurz Vektorgradient (von lateinisch gradiens ‚schreitend‘[1]) fasst das Gefälle oder den Anstieg der Komponenten eines Vektorfeldes zu einem mathematischen Objekt zusammen. Während mit dem Gradient eines Skalarfeldes das Gefälle oder der Anstieg in einer bestimmten Richtung (sog. Richtungsableitung) als Skalar angegeben wird, stellt die Richtungsableitung mit dem Vektorgradient einen Vektor dar.
Ein anschauliches Beispiel ist das Vektorfeld der Bewegung der Partikel eines Körpers. Die mit dem Deformationsgradient gebildete Richtungsableitung des Bewegungsfeldes transformiert die Strecke von einem Partikel zu einem benachbarten Partikel des Körpers im undeformierten Zustand in die entsprechende Strecke im deformierten Zustand, siehe Bild. Die Strecke kann bei der Deformation gedreht und gestreckt werden. Die Richtungsableitung mit maximalem Wert ist hier diejenige Richtung, in der der Körper die größte Dehnung erfährt; in dieser Richtung benachbarte Partikel entfernen sich im Zuge der Verformung am weitesten voneinander, siehe auch #Verformungen und die #Beispiele.
Der Gradient eines Vektorfeldes entsteht aus dem Vektorfeld durch Anwendung des Gradientenoperators grad, der eine Verallgemeinerung der Ableitung in der mehrdimensionalen Analysis ist. Zur besseren Abgrenzung zwischen Operator und Resultat seiner Anwendung bezeichnen manche Quellen[2]:353[3]:112 den Gradient vektorieller Feldgrößen als Vektorgradient.
Der Gradient hat tensorielle Eigenschaften[4]:421: der Gradient eines Skalarfeldes (Tensorfeld nullter Stufe) führt auf ein Gradientenvektorfeld, das ein Tensorfeld erster Stufe ist. Entsprechend ist der Vektorgradient ein Tensorfeld zweiter Stufe; das Ergebnis lässt sich bezüglich einer Orthonormalbasis als Matrix schreiben. Die Komponenten des Vektorgradienten sind die kovarianten Ableitungen der Komponenten des Vektorfeldes in einem Punkt; bei den Basisvektoren sind dies die Christoffelsymbole.
Der Gradient wird zusammen mit anderen Differentialoperatoren wie Divergenz und Rotation in der Tensoranalysis untersucht.
Definition
Der Gradient
eines differenzierbaren Vektorfeldes
nähert dieses in der Umgebung eines Punkts
linear an:[5]
für ![{\displaystyle {\vec {y}}\to {\vec {x}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/94d959ffab353bf799b22b1acaea8c2df7cd13a1)
Das Landau-Symbol 𝓞(x) steht für Terme, die langsamer als x wachsen, und
stellt eine lineare Funktion von
dar. Wenn der Gradient existiert, ist er eindeutig und kann aus dem Gâteaux-Differential
![{\displaystyle \mathrm {grad} {\big (}{\vec {f}}({\vec {x}}){\big )}[{\vec {h}}]=\left.{\frac {\mathrm {d} }{\mathrm {d} s}}{\vec {f}}({\vec {x}}+s{\vec {h}})\right|_{s=0}=\lim _{s\to 0}{\frac {{\vec {f}}({\vec {x}}+s{\vec {h}})-{\vec {f}}({\vec {x}})}{s}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/79c5e1f7d7b96ec07a692c17583bcb6f6405057f)
berechnet werden. In einem euklidischen Vektorraum mit Standardskalarprodukt „·“ ergibt sich der Vektorgradient aus der Anwendung des skalaren Operators
, der mit dem Nabla-Operator 𝜵 gebildet wird:
![{\displaystyle \mathrm {grad} {\big (}{\vec {f}}({\vec {x}}){\big )}[{\vec {h}}]=({\vec {h}}\cdot \nabla ){\vec {f}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/50b79ab6cc340c9ba3b15a450e456b0c193087c6)
So werden auch Gradienten für Tensorfelder zweiter Stufe oder allgemein Tensorfelder n-ter Stufe definiert.[2]:358[4]:420[6]:43 Durch Gradientenbildung entsteht aus einem Tensorfeld n-ter Stufe ein Tensorfeld der Stufe n+1.
Bei einem Vektorfeld, das ein Tensorfeld erster Stufe ist, ergibt sich als Gradient ein Tensorfeld zweiter Stufe und zwar durch Nutzung des dyadischen Produkts „⊗“:
![{\displaystyle \mathrm {grad} {\big (}{\vec {f}}({\vec {x}}){\big )}[{\vec {h}}]=({\vec {h}}\cdot \nabla ){\vec {f}}={\vec {h}}\cdot (\nabla \otimes {\vec {f}})=(\nabla \otimes {\vec {f}})^{\top }\cdot {\vec {h}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7fa58081b0d1e63850e1c59d09f41023ed5dd6d9)
Das hochgestellte ⊤ bedeutet eine Transponierung. In einigen Quellen [5]:4[7]:23[8]:34 wird
![{\displaystyle \mathrm {grad} ({\vec {f}}):=(\nabla \otimes {\vec {f}})^{\top }\quad \rightarrow \quad \mathrm {grad} {\big (}{\vec {f}}({\vec {x}}){\big )}[{\vec {h}}]=\mathrm {grad} ({\vec {f}})\cdot {\vec {h}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9803284dae0c116d7649be7220410baa2aa41755)
und in anderen[6]:43[2]:354
![{\displaystyle {\tilde {\mathrm {grad} }}({\vec {f}}):=\nabla \otimes {\vec {f}}\quad \rightarrow \quad {\tilde {\mathrm {grad} }}{\big (}{\vec {f}}({\vec {x}}){\big )}[{\vec {h}}]={\vec {h}}\cdot {\tilde {\mathrm {grad} }}({\vec {f}})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ed4ffbe55b88668e02c2288652df6a4783446b5a)
definiert, was wegen des nicht kommutativen dyadischen Produkts einen nicht unerheblichen Unterschied ausmacht, der beispielsweise bei der #Produktregel und der Richtungsableitung zu beachten ist.
Hier wird erstere Form (die ohne Tilde) benutzt.
Schreibweisen
Die vielfältigen Anwendungen haben zu variantenreichen Schreibweisen geführt.
In der Kontinuumsmechanik ist es üblich, Größen, die sich auf den undeformierten Ausgangszustand eines Körpers beziehen, groß zu schreiben, und solche, die sich auf den deformierten Zustand beziehen, klein. Entsprechend bedeuten GRAD oder Grad Gradienten im undeformierten Körper und grad einen Gradient im deformierten. Andere Notationen mit dem Nabla-Operator benutzen 𝜵X, 𝜵0 für den Operator im undeformierten Körper und 𝜵x, 𝜵t für den im deformierten.
Es wird auch
![{\displaystyle \mathrm {grad} ({\vec {v}})={\frac {\mathrm {d} {\vec {v}}}{\mathrm {d} {\vec {x}}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/13671767a47176d5e083d1511c679ddc851d8935)
geschrieben.
Geometrische Interpretation
Das eingangs aufgeführte Beispiel des Deformationsgradienten soll hier vertieft werden. Dazu sei das Vektorfeld in einer nahen Umgebung eines Punkts als Bewegungsfeld der Partikel einer Gummihaut interpretierbar, was der Fall ist, wenn der Vektorgradient invertierbar ist, es also eine Eins-zu-eins-Beziehung zwischen Raumpunkten und ihren Bildern gibt. Bezeichnen im undeformierten Körper Großbuchstaben die Orte von Partikeln und Kleinbuchstaben ihre Orte im deformierten, dann stellt man folgendes fest.
Auf der Haut wird ein (infinitesimal) kleiner Kreis gezeichnet und wenn man nun die Gummihaut lang zieht, wird der Kreis zu einer Ellipse, siehe Abb. 3. Ein Pfeil MP vom Mittelpunkt M zu einem Partikel P auf dem Umfang des Kreises wird zu mp gedehnt und verdreht, wobei p auf der Ellipse liegt. Die Transformation von MP zu mp leistet die mit dem Vektorgradient gebildete Richtungsableitung. Die lineare Annäherung des Vektorfeldes mittels der Richtungsableitung in der Umgebung des Punkts ist die definierende Eigenschaft eines Gradienten.
Die betraglich größte Änderung der Positionsdifferenzen mp zu MP tritt in der Richtung auf, in der der Körper die größte Dehnung erfährt. Auf der Gummihaut landet das Partikel P im Kreis auf der Hauptachse der Ellipse (bei p). Die Richtung der größten betraglichen Änderung erhält man hier als Lösung eines Eigenwertproblems, jedoch nicht des Deformationsgradienten, sondern des mit ihm gebildeten Strecktensors, siehe #Zusammenhang mit der Richtungsableitung und #Beispiele.
Markiert man im undeformierten Körper ein Partikel A und ein (infinitesimal) nahe benachbartes B und trägt im deformierten Körper vom Ort a des Partikels A die Richtungsableitung in Richtung AB auf, dann landet man im deformierten Körper am Ort b des Partikels B. Genauso kann man in b die Richtungsableitung in Richtung BC zu einem benachbarten Partikel C auftragen und landet im deformierten Körper an dessen Ort c. Diese Prozedur kann man beliebig oft wiederholen, die Integralrechnung gestattet sogar unendliche Wiederholungen. So gelangt man von a aus an den Ort p eines beliebigen Partikels P und zwar unabhängig vom eingeschlagenen Weg von A nach P. Diese Wegunabhängigkeit zeichnet Gradientenfelder aus.
Koordinatendarstellung
Zwecks kompakter Darstellung bezeichnet im Folgenden ein Index hinter einem Komma die Ableitung nach einer Koordinate:
![{\displaystyle f_{,i}:={\frac {\partial f}{\partial x_{i}}}\,,\quad f_{r,\vartheta }={\frac {\partial f_{r}}{\partial \vartheta }}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8b63b766bae68f48934e8de52e64a63743add29f)
Kartesische Koordinaten
In kartesischen Koordinaten
mit Standardbasis êi lautet der Vektorgradient eines Vektorfeldes
mit Komponenten
![{\displaystyle \mathrm {grad} ({\vec {f}})=\sum _{i}{\hat {e}}_{i}\otimes \mathrm {grad} (f_{i})=\sum _{i,j}f_{i,j}{\hat {e}}_{i}\otimes {\hat {e}}_{j}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e15448ea5b877ef8e03d96d15a2155ad7290ce5b)
mit
.
In drei Dimensionen ist speziell
![{\displaystyle \mathrm {grad} ({\vec {f}})={\begin{pmatrix}f_{1,1}&f_{1,2}&f_{1,3}\\f_{2,1}&f_{2,2}&f_{2,3}\\f_{3,1}&f_{3,2}&f_{3,3}\end{pmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c0f214261c6c8d67ca62e0d44955b9230bbdd356)
Zylinderkoordinaten
In Zylinderkoordinaten mit radialer Koordinate ρ, Azimut φ und Höhe z über der ρφ-Ebene lauten die Basisvektoren mit dem Sinus und Cosinus
![{\displaystyle {\hat {e}}_{\rho }={\begin{pmatrix}\cos(\varphi )\\\sin(\varphi )\\0\end{pmatrix}},\quad {\hat {e}}_{\varphi }={\begin{pmatrix}-\sin(\varphi )\\\cos(\varphi )\\0\end{pmatrix}},\quad {\hat {e}}_{z}={\begin{pmatrix}0\\0\\1\end{pmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8d2e5a1e0d7b6660ec4eefe4916090e5bb791f2d)
und der Vektorgradient
![{\displaystyle {\begin{aligned}\mathrm {grad} ({\vec {f}})=&{\hat {e}}_{\rho }\otimes \mathrm {grad} (f_{\rho })+{\hat {e}}_{\varphi }\otimes \mathrm {grad} (f_{\varphi })+{\hat {e}}_{z}\otimes \mathrm {grad} (f_{z})\\&+{\frac {1}{\rho }}(f_{\rho }{\hat {e}}_{\varphi }-f_{\varphi }{\hat {e}}_{\rho })\otimes {\hat {e}}_{\varphi }\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/588cc225db9ff997dd58c5c2ffdcbf9091e1476f)
mit
![{\displaystyle \mathrm {grad} (f)=f_{,\rho }{\hat {e}}_{\rho }+{\frac {f_{,\varphi }}{\rho }}{\hat {e}}_{\varphi }+f_{,z}{\hat {e}}_{z}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/50cf25f32968c40145e3baae5ae75afd86f635c3)
Kugelkoordinaten
In Kugelkoordinaten mit Abstand r vom Ursprung, Zenitwinkel ϑ und Azimut φ lauten die Basisvektoren mit dem Sinus und Cosinus
![{\displaystyle {\hat {e}}_{r}={\begin{pmatrix}\sin(\vartheta )\cos(\varphi )\\\sin(\vartheta )\sin(\varphi )\\\cos(\vartheta )\end{pmatrix}},\quad {\hat {e}}_{\vartheta }={\begin{pmatrix}\cos(\vartheta )\cos(\varphi )\\\cos(\vartheta )\sin(\varphi )\\-\sin(\vartheta )\end{pmatrix}},\quad {\hat {e}}_{\varphi }={\begin{pmatrix}-\sin(\varphi )\\\cos(\varphi )\\0\end{pmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7b9bc63638fedcbcb1c5eed7740d8fd928a22125)
und der Vektorgradient
![{\displaystyle {\begin{aligned}\mathrm {grad} ({\vec {f}})=&{\hat {e}}_{r}\otimes \mathrm {grad} (f_{r})+{\hat {e}}_{\vartheta }\otimes \mathrm {grad} (f_{\vartheta })+{\hat {e}}_{\varphi }\otimes \mathrm {grad} (f_{\varphi })\\&+{\frac {f_{r}}{r}}(\mathbf {1} -{\hat {e}}_{r}\otimes {\hat {e}}_{r})-{\hat {e}}_{r}\otimes {\frac {f_{\vartheta }{\hat {e}}_{\vartheta }+f_{\varphi }{\hat {e}}_{\varphi }}{r}}+{\frac {f_{\vartheta }{\hat {e}}_{\varphi }-f_{\varphi }{\hat {e}}_{\vartheta }}{r\tan(\vartheta )}}\otimes {\hat {e}}_{\varphi }\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0544866ff916e6b018cc6e244e85785a6016889b)
mit
![{\displaystyle \mathrm {grad} (f)=f_{,r}{\hat {e}}_{r}+{\frac {f_{,\vartheta }}{r}}{\hat {e}}_{\vartheta }+{\frac {f_{,\varphi }}{r\sin(\vartheta )}}{\hat {e}}_{\varphi }}](https://wikimedia.org/api/rest_v1/media/math/render/svg/988769687045a4489d72738c7efd8cafadca1e85)
dem Tangens tan und dem Einheitstensor 1 = êr ⊗ êr + êϑ ⊗ êϑ + êφ ⊗ êφ.
Allgemein krummlinige Koordinaten
In krummlinigen Koordinaten
lauten die ko- und kontravarianten Basisvektoren
![{\displaystyle {\vec {g}}_{i}={\frac {\partial {\vec {x}}}{\partial y_{i}}}={\vec {x}}_{,i},\quad {\vec {g}}^{i}=\mathrm {grad} (y_{i})\quad \rightarrow \quad {\vec {g}}_{i}\cdot {\vec {g}}^{j}=\delta _{i}^{j}:={\begin{cases}1&{\text{falls}}\;i=j\\0&{\text{falls}}\;i\neq j\end{cases}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c6f2c0f531701faf1190b44f38375cc6179ecf02)
Das Symbol
ist das Kronecker-Delta und der Index ,i bedeutet in diesem Abschnitt eine Ableitung nach yi. Der Nabla-Operator schreibt sich in krummlinigen Koordinaten
![{\displaystyle \nabla ={\vec {g}}^{i}{\frac {\partial }{\partial y_{i}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e6a8e153c354a90ef087b174d98809011625c085)
Hier wie im Folgenden muss die Einsteinsche Summenkonvention angewendet werden, dergemäß über in einem Produkt doppelt vorkommende Indizes, hier nur i, von eins bis zur Dimension des Raumes zu summieren ist.
Kontravariantes Vektorfeld
Die #Produktregel angewandt auf ein kontravariantes Vektorfeld[2]:146 führt zu
![{\displaystyle \mathrm {grad} (f^{i}{\vec {g}}_{i})={\vec {g}}_{i}\otimes \mathrm {grad} (f^{i})+f^{i}\mathrm {grad} ({\vec {g}}_{i})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ca0f4a46f01572e1f7af9bf2d011dedcf99d362a)
Der Gradient des kovarianten Basisvektors kann mit den Christoffelsymbolen[2]:340[7]:58
ausgedrückt werden:
![{\displaystyle {\begin{aligned}\mathrm {grad} ({\vec {g}}_{i})=&(\nabla \otimes {\vec {g}}_{i})^{\top }=({\vec {g}}^{j}\otimes {\vec {g}}_{i,j})^{\top }={\vec {g}}_{i,j}\otimes {\vec {g}}^{j}=({\vec {g}}_{i,j}\cdot {\vec {g}}^{k}){\vec {g}}_{k}\otimes {\vec {g}}^{j}\\=&\Gamma _{ij}^{k}{\vec {g}}_{k}\otimes {\vec {g}}^{j}\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4d44e7b5a1db2c39972e49e3960167a608edb5e8)
Mit
lautet der Gradient schließlich
![{\displaystyle {\begin{aligned}\mathrm {grad} (f^{i}{\vec {g}}_{i})=&f_{,j}^{i}{\vec {g}}_{i}\otimes {\vec {g}}^{j}+f^{i}\Gamma _{ij}^{k}{\vec {g}}_{k}\otimes {\vec {g}}^{j}=f_{,j}^{i}{\vec {g}}_{i}\otimes {\vec {g}}^{j}+f^{k}\Gamma _{kj}^{i}{\vec {g}}_{i}\otimes {\vec {g}}^{j}\\=&\left.f^{i}\right|_{j}{\vec {g}}_{i}\otimes {\vec {g}}^{j}\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ac170046c0a5e6de31cc7455dcf38f5738f6eb73)
Darin ist
die sogenannte kovariante Ableitung der Komponente
.[2]:341[7]:61
Kovariantes Vektorfeld
Bei einem kovarianten Vektorfeld[2]:146
wird die Ableitung des kontravarianten Basisvektors benötigt, eine Ableitung, die auch mit Christoffelsymbolen ausgedrückt werden kann:
![{\displaystyle {\begin{aligned}\delta _{i,j}^{k}=&({\vec {g}}^{k}\cdot {\vec {g}}_{i})_{,j}={\vec {g}}_{,j}^{k}\cdot {\vec {g}}_{i}+{\vec {g}}^{k}\cdot {\vec {g}}_{i,j}={\vec {g}}_{,j}^{k}\cdot {\vec {g}}_{i}+\Gamma _{ij}^{k}=0\\\rightarrow {\vec {g}}_{,j}^{k}=&({\vec {g}}_{,j}^{k}\cdot {\vec {g}}_{i}){\vec {g}}^{i}=-\Gamma _{ij}^{k}{\vec {g}}^{i}\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/50dc20e788b3a274ec98ce9847ead160beecfbd6)
Der Gradient eines kontravarianten Basisvektors schreibt sich damit
![{\displaystyle \mathrm {grad} ({\vec {g}}^{k})=(\nabla \otimes {\vec {g}}^{k})^{\top }={\vec {g}}_{,j}^{k}\otimes {\vec {g}}^{j}=-\Gamma _{ij}^{k}{\vec {g}}^{i}\otimes {\vec {g}}^{j}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ad6b0bc273969d1996baa4b4d43b8639296b4be9)
Die #Produktregel liefert analog zum kontravarianten Vektor
![{\displaystyle {\begin{aligned}\mathrm {grad} (f_{i}{\vec {g}}^{i})=&{\vec {g}}^{i}\otimes \mathrm {grad} (f_{i})+f_{k}\mathrm {grad} ({\vec {g}}^{k})=f_{i,j}{\vec {g}}^{i}\otimes {\vec {g}}^{j}-f_{k}\Gamma _{ij}^{k}{\vec {g}}^{i}\otimes {\vec {g}}^{j}\\=&\left.f_{i}\right|_{j}{\vec {g}}^{i}\otimes {\vec {g}}^{j}\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/993234af05e9b3dc668826d83e273f0be85e829b)
mit der kovarianten Ableitung
der Komponente
.
Eigenschaften
Zusammenhang mit dem totalen Differenzial
Betrachtet wird eine infinitesimale Verschiebung in einem Vektorfeld:
![{\displaystyle {\vec {F}}({\vec {r}}+\mathrm {d} {\vec {r}})={\vec {F}}({\vec {r}})+\operatorname {grad} ({\vec {F}})\cdot \mathrm {d} {\vec {r}}={\vec {F}}({\vec {r}})+(\mathrm {d} {\vec {r}}\cdot \nabla ){\vec {F}}={\vec {F}}({\vec {r}})+\mathrm {d} {\vec {F}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/60a0b2c920b9678d3c5c84ae17a52dda0227fc48)
Das vollständige oder totale Differenzial eines Vektorfeldes
ist:
bzw. in Indexschreibweise ![{\displaystyle \mathrm {d} F_{i}=\sum _{j}{\frac {\partial F_{i}}{\partial x_{j}}}\mathrm {d} x_{j}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/626f96cf2a8c6a7a6c455a7ffae0085ac8422d13)
Das totale Differenzial eines Skalarfeldes und eines Vektorfeldes haben somit (formal) dieselbe Form. Beim totalen Differenzial eines Skalarfeldes wird der Gradient mit dem Differenzial skalar multipliziert. Beim totalen Differenzial eines Vektorfeldes ist die Multiplikation zwischen dem Gradient (Matrixform) mit dem Differenzialvektor als Matrix-Vektor-Produkt durchzuführen.
Zusammenhang mit der Richtungsableitung
Mit dem Vektorgradient kann die Richtungsableitung in Richtung eines Vektors
berechnet werden:
![{\displaystyle ({\vec {h}}\cdot {\vec {\nabla }}){\vec {f}}={\vec {h}}\cdot ({\vec {\nabla }}\otimes {\vec {f}})=({\vec {\nabla }}\otimes {\vec {f}})^{\top }\cdot {\vec {h}}=\operatorname {grad} ({\vec {f}})\cdot {\vec {h}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/738d72b353c04f74487f19e5d877cb1072776051)
Das hochgestellte ⊤ bedeutet eine Transponierung. In der Strömungsmechanik wird die linke Darstellung mit dem Nabla-Operator gegenüber der rechten bevorzugt, die in der Kontinuumsmechanik üblich ist. Die mithilfe des Vektorgradienten berechnete Richtungsableitung entspricht der Richtungsableitung, die man durch Grenzwertbildung bekommt:
für alle ![{\displaystyle {\vec {x}},{\vec {h}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ecdf1b0833e3c2061f3207dd9fb38d81c6e285b1)
Interessiert diejenige Richtung
, in der die Richtungsableitung maximalen Betrag hat, ergibt sich das Eigenwertproblem
![{\displaystyle \mathrm {grad} ({\vec {f}})^{\top }\cdot \mathrm {grad} ({\vec {f}})\cdot {\vec {n}}+\lambda {\vec {n}}={\vec {0}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a8ce1031dd28069415cca8fb8ff7b5f09d867394)
Der Tensor
ist symmetrisch und positiv semidefinit, sodass alle Eigenwerte reell und nicht negativ sind. Der zum größten Eigenwert gehörende Eigenvektor liefert die Richtung, in der die Richtungsableitung den größten Betrag hat.
Denn die Zielgröße ist
![{\displaystyle |\mathrm {grad} ({\vec {f}})\cdot {\vec {n}}|^{2}={\big (}\mathrm {grad} ({\vec {f}})\cdot {\vec {n}}{\big )}\cdot {\big (}\mathrm {grad} ({\vec {f}})\cdot {\vec {n}}{\big )}={\vec {n}}\cdot \mathbf {C} \cdot {\vec {n}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a53a9d39f28f66207801946860a2726e0c10b59a)
Ein Extremum unter der Nebenbedingung
berechnet sich mit einem Lagrange-Multiplikator λ:
![{\displaystyle \Pi ({\vec {n}},\lambda ):={\vec {n}}\cdot \mathbf {C} \cdot {\vec {n}}+\lambda ({\vec {n}}\cdot {\vec {n}}-1)\to {\text{extr.}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/125fc9199853b9b673ca4a7f5977b924ebe55246)
Im Extremum müssen die Ableitungen nach allen Variablen verschwinden. Die Ableitung nach dem Lagrange-Multiplikator
![{\displaystyle {\frac {\partial }{\partial \lambda }}\Pi ({\vec {n}},\lambda )={\vec {n}}\cdot {\vec {n}}-1=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b8531e04e0ce7b7c03163b16d089637c968cec94)
bedeutet, dass wie gewünscht die Nebenbedingung notwendig eingehalten wird. Die Ableitung nach
in Richtung
liefert
![{\displaystyle {\begin{aligned}\left.{\frac {\partial }{\partial s}}\Pi ({\vec {n}}+s{\vec {h}},\lambda )\right|_{s=0}=&{\frac {\partial }{\partial s}}\left[({\vec {n}}+s{\vec {h}})\cdot \mathbf {C} \cdot ({\vec {n}}+s{\vec {h}})+\lambda {\big (}({\vec {n}}+s{\vec {h}})\cdot ({\vec {n}}+s{\vec {h}})-1{\big )}\right]_{s=0}\\=&{\Big [}{\vec {h}}\cdot \mathbf {C} \cdot ({\vec {n}}+s{\vec {h}})+({\vec {n}}+s{\vec {h}})\cdot \mathbf {C} \cdot {\vec {h}}\\&\quad +\lambda {\big (}{\vec {h}}\cdot ({\vec {n}}+s{\vec {h}})+({\vec {n}}+s{\vec {h}})\cdot {\vec {h}}{\big )}{\Big ]}_{s=0}\\=&{\vec {h}}\cdot \mathbf {C} \cdot {\vec {n}}+{\vec {n}}\cdot \mathbf {C} \cdot {\vec {h}}+2\lambda {\vec {n}}\cdot {\vec {h}}\\=&2(\mathbf {C} \cdot {\vec {n}}+\lambda {\vec {n}})\cdot {\vec {h}}{\stackrel {!}{=}}0\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a68af602a3370677bca55ae9a6c488e9e5b26148)
weil C symmetrisch ist. Da dies für alle
gelten soll, ist das gleichbedeutend mit dem oben angegebenen Eigenwertproblem.
Zusammenhang mit Rotation und Divergenz
Der Vektorgradient beinhaltet alle partiellen Ableitungen der Komponenten eines Vektorfeldes, die bei der Rotation und Divergenz eines Vektorfeldes gebraucht werden. Es ist zu vermuten, dass diese Operatoren aus dem Gradient eines Vektorfeldes ableitbar sind. Tatsächlich ist[9]
![{\displaystyle [\mathrm {grad} ({\vec {v}})-\mathrm {grad} ({\vec {v}})^{\top }]\cdot {\vec {c}}=\mathrm {rot} ({\vec {v}})\times {\vec {c}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/87dc330667fba89bc4dc9a3eef10a0cbbce49d0f)
für alle konstanten Vektoren
. Der Tensor in der eckigen Klammer ist schiefsymmetrisch und dessen dualer axialer Vektor (·)× ist die Rotation. Der duale axiale Vektor ist die negative Hälfte der Vektorinvariante
, bei der das dyadische Produkt ⊗ durch das Kreuzprodukt × ersetzt ist:
![{\displaystyle {\begin{aligned}\mathrm {grad} ({\vec {v}})_{\times }=&-{\frac {1}{2}}{\vec {i}}(\mathrm {grad} ({\vec {v}}))=-{\frac {1}{2}}{\vec {i}}\left((\nabla \otimes {\vec {v}})^{\top }\right)={\frac {1}{2}}{\vec {i}}(\nabla \otimes {\vec {v}})\\=&{\frac {1}{2}}\nabla \times {\vec {v}}={\frac {1}{2}}\mathrm {rot} ({\vec {v}})\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ac6f5f84693b3290d5d49a3d0f9256332ef22934)
Die Spur des Vektorgradienten liefert die Divergenz:
![{\displaystyle \mathrm {Sp(grad} \,{\vec {v}})=\mathrm {Sp} \left((\nabla \otimes {\vec {v}})^{\top }\right)=\mathrm {Sp} {\big (}\nabla \otimes {\vec {v}}{\big )}=\nabla \cdot {\vec {v}}=\mathrm {div} ({\vec {v}})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5f26f7a0b8e304641a8d8088aaa83523214b69ba)
Rechenregeln
Für alle Konstanten
,
, total differenzierbaren Skalarfelder
und Vektorfelder
gilt:
- Linearität
![{\displaystyle \operatorname {grad} (c{\vec {f}})=c\operatorname {grad} ({\vec {f}})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1798b54346a2720a4b0affaf97642e21ba501e3b)
![{\displaystyle \operatorname {grad} (\mathbf {C} \cdot {\vec {f}})=\mathbf {C} \cdot \operatorname {grad} ({\vec {f}})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7a779b8ba74ef5953c09f2eb07b12fb20494d3fc)
![{\displaystyle \operatorname {grad} ({\vec {f}}+{\vec {g}})=\operatorname {grad} ({\vec {f}})+\operatorname {grad} ({\vec {g}})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c4c8c32c95561c351cd5bbbf9862c5cf41c4de78)
- Produktregel
![{\displaystyle \mathrm {grad} (fg)=g\,\mathrm {grad} (f)+f\,\mathrm {grad} (g)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a43cc3fd895d5f98ff282b85258f0d4ee0741622)
![{\displaystyle \mathrm {grad} (f{\vec {g}})={\vec {g}}\otimes \mathrm {grad} (f)+f\,\mathrm {grad} ({\vec {g}})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/665d2afa50bc389f489ee39ea2cea4b87b92008e)
![{\displaystyle \mathrm {grad} ({\vec {f}}\cdot {\vec {g}})={\vec {g}}\cdot \mathrm {grad} ({\vec {f}})+{\vec {f}}\cdot \mathrm {grad} ({\vec {g}})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/db11448bb2c4fa95805437b5ab309e843704a36c)
- In drei Dimensionen ist speziell[2]:367
![{\displaystyle \mathrm {grad} ({\vec {f}}\cdot {\vec {g}})=\mathrm {grad} ({\vec {f}})\cdot {\vec {g}}+\mathrm {grad} ({\vec {g}})\cdot {\vec {f}}+{\vec {f}}\times \mathrm {rot} ({\vec {g}})+{\vec {g}}\times \mathrm {rot} ({\vec {f}})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/35f9e107a538ffebf639a9514cd898fbcae9887c)
- Integralsätze[6]:45
![{\displaystyle \int _{\vec {a}}^{\vec {b}}\mathrm {grad} {\big (}{\vec {f}}({\vec {x}}){\big )}\cdot \mathrm {d} {\vec {x}}={\vec {f}}({\vec {b}})-{\vec {f}}({\vec {a}})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bd6d51791922c7dc003466ae61a5a06cb7d4fa72)
- Dabei ist der Integrationsweg von
nach
beliebig. Diese Wegunabhängigkeit zeichnet Gradientenfelder aus[2]:433.
![{\displaystyle \int _{V}\mathrm {grad} ({\vec {f}})\,\mathrm {d} V=\int _{A}{\vec {f}}\otimes {\hat {n}}\,\mathrm {d} A}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b28e18241ad1a7523a98932a8ed666d03606b696)
- Hier ist
ein zweimal stetig differenzierbares Feld und
der nach außen gerichtete Normaleneinheitsvektor auf der geschlossenen Oberfläche A des Volumens V.
Anwendungen
Verformungen
Abb. 2: Verlagerung von materiellen Linien
Der schon angesprochene Deformationsgradient ist die grundlegende Größe zur Beschreibung von Verformungen von Körpern. Lokal stellen sich bei einer Verformung Längenänderungen und Winkeländerungen zwischen materiellen Linienelementen ein, die man sich in das Material eingeritzt denken kann, siehe Bild. Die Längenänderungen korrespondieren mit Dehnungen und die Winkeländerungen mit Scherungen im Material.
In der Kontinuumsmechanik gibt die Bewegungsfunktion
den Ort
an, an dem zur Zeit t ein Partikel ist, das zu einer definierten Zeit t0 am Ort
war. Der Deformationsgradient F kann aus
![{\displaystyle \mathbf {F} ({\vec {X}},t)\cdot \mathrm {d} {\vec {X}}=\lim _{s\to 0}{\frac {{\vec {\chi }}({\vec {X}}+s\;\mathrm {d} {\vec {X}},t)-{\vec {\chi }}({\vec {X}},t)}{s}}=\mathrm {d} {\vec {x}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/acc230e7abc3e792de53978cd0592848359de388)
berechnet werden, was seine Transformationseigenschaften der Linienelemente im undeformierten Zustand (
) in den deformierten (
) verdeutlicht.
Substanzielle Beschleunigung
In der Fluidmechanik wird die Eulersche Betrachtungsweise eingenommen, die das Vektorfeld der Geschwindigkeit
als Funktion des Ortes
und der Zeit t benutzt. Der Impulssatz eines Kontinuums besagt, dass eine volumenverteilte Kraft, wie die Schwerkraft eine ist, die Partikel des Körpers beschleunigt. Um das darzustellen, wird die Geschwindigkeit des Partikels mittels der Bewegungsfunktion
eingeführt, die den Ort angibt, an dem sich das Partikel
zur Zeit t befindet:
![{\displaystyle {\vec {v}}({\vec {x}},t)={\vec {v}}{\big (}{\vec {\chi }}({\mathcal {P}},t),t{\big )}:={\dot {\vec {\chi }}}({\mathcal {P}},t)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/88dff6e1c482b78d7e484fa6bc040d1037d28873)
Der Überpunkt bildet hier die Substanzielle Zeitableitung. Für den Impulssatz kann nun die Substanzielle Beschleunigung als Zeitableitung der Geschwindigkeit bei festgehaltenem Partikel
berechnet werden:
![{\displaystyle {\dot {\vec {v}}}({\vec {x}},t):=\left.{\frac {\mathrm {d} }{\mathrm {d} t}}{\vec {v}}({\vec {\chi }}({\mathcal {P}},t),t)\right|_{{\mathcal {P}}\,{\text{fest}}}={\frac {\partial {\vec {v}}}{\partial t}}+{\frac {\partial {\vec {v}}}{\partial {\vec {x}}}}\cdot {\dot {\vec {\chi }}}({\mathcal {P}},t):={\frac {\partial {\vec {v}}}{\partial t}}+\mathrm {grad} ({\vec {v}})\cdot {\vec {v}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3c093e0fae2fda5b9aeaf8bcba9f2b5482ab4e5f)
Der zweite Summand stellt einen konvektiven Anteil dar, der physikalisch daraus resultiert, dass das Partikel auch dadurch beschleunigt werden kann, dass es von einem schneller oder langsamer fließenden Stromfaden mitgenommen wird. Der Geschwindigkeitsgradient
hat eine fundamentale Bedeutung in der Fluidmechanik.
Tensorgradient
Mit dem skalaren Operator
kann auch der Gradient eines Tensorfeldes T gebildet werden, wobei ein Tensorgradient[2]:356 entsteht:
![{\displaystyle \mathrm {grad} (\mathbf {T} )[{\vec {h}}]=({\vec {h}}\cdot \nabla )\mathbf {T} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/46af59854b7a78552b33eee749c73dfb35a1c2d2)
In krummlinigen Koordinaten
und dem Nabla-Operator
(Notation siehe #Allgemein krummlinige Koordinaten) wird daraus:
![{\displaystyle \mathrm {grad} (\mathbf {T} )[{\vec {h}}]=({\vec {h}}\cdot {\vec {g}}^{k})\mathbf {T} _{,k}={\vec {h}}\cdot ({\vec {g}}^{k}\otimes \mathbf {T} _{,k})=(\mathbf {T} _{,k}\otimes {\vec {g}}^{k})\cdot {\vec {h}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fcae31eb2a2b267ec6bccdf6297cb662927b8360)
Soll das Argument wie beim Vektorgradient rechts vom Operator stehen, dann lautet der Tensorgradient
![{\displaystyle \mathrm {grad} (\mathbf {T} )=\mathbf {T} _{,k}\otimes {\vec {g}}^{k}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/734cf23dd5db95b1db6231c37af0fd590bb3b310)
Für einen Tensor zweiter Stufe gibt es in krummlinigen Koordinaten vier Darstellungen:
![{\displaystyle \mathbf {T} =T_{ij}{\vec {g}}^{i}\otimes {\vec {g}}^{j}=T^{ij}{\vec {g}}_{i}\otimes {\vec {g}}_{j}=T_{i}^{.j}{\vec {g}}^{i}\otimes {\vec {g}}_{j}=T_{.j}^{i}{\vec {g}}_{i}\otimes {\vec {g}}^{j}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/075f41318910273e8344207aa628aac1b142c029)
Mit den Ableitungen der Basisvektoren
![{\displaystyle {\vec {g}}_{n,k}=\Gamma _{nk}^{l}{\vec {g}}_{l},\quad {\vec {g}}_{,k}^{n}=-\Gamma _{lk}^{n}{\vec {g}}^{l}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3865e1e305bfd707203829e5fdbd4f16a775345b)
ergibt sich in der ersten Ausführung:
![{\displaystyle {\begin{aligned}\mathrm {grad} (T_{ij}{\vec {g}}^{i}\otimes {\vec {g}}^{j})=&(T_{ij}{\vec {g}}^{i}\otimes {\vec {g}}^{j})_{,k}\otimes {\vec {g}}^{k}\\=&(T_{ij,k}{\vec {g}}^{i}\otimes {\vec {g}}^{j}+T_{ij}{\vec {g}}_{,k}^{i}\otimes {\vec {g}}^{j}+T_{ij}{\vec {g}}^{i}\otimes {\vec {g}}_{,k}^{j})\otimes {\vec {g}}^{k}\\=&(T_{ij,k}{\vec {g}}^{i}\otimes {\vec {g}}^{j}-T_{ij}\Gamma _{lk}^{i}{\vec {g}}^{l}\otimes {\vec {g}}^{j}-T_{ij}{\vec {g}}^{i}\otimes \Gamma _{lk}^{j}{\vec {g}}^{l})\otimes {\vec {g}}^{k}\\=&(T_{ij,k}-T_{lj}\Gamma _{ik}^{l}-T_{il}\Gamma _{jk}^{l}){\vec {g}}^{i}\otimes {\vec {g}}^{j}\otimes {\vec {g}}^{k}\\=&\left.T_{ij}\right|_{k}{\vec {g}}^{i}\otimes {\vec {g}}^{j}\otimes {\vec {g}}^{k}\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/76c28221119e30b2260989663a4263245c8ec096)
mit der kovarianten Ableitung der Tensorkomponente
![{\displaystyle \left.T_{ij}\right|_{k}=T_{ij,k}-\Gamma _{ik}^{l}T_{lj}-\Gamma _{jk}^{l}T_{il}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6f4c0f300e633fd8a02fea17615ec69bc9aca8eb)
Analog ergibt sich in den anderen Darstellungen:[2]:348, 356 f.
![{\displaystyle {\begin{aligned}\mathrm {grad} (T^{ij}{\vec {g}}_{i}\otimes {\vec {g}}_{j})=&\left.T^{ij}\right|_{k}{\vec {g}}_{i}\otimes {\vec {g}}_{j}\otimes {\vec {g}}^{k},\quad \left.T^{ij}\right|_{k}\!\!\!\!\!\!\!\!\!\!\!\!&=T_{,k}^{ij}+\Gamma _{lk}^{i}T^{lj}+\Gamma _{lk}^{j}T^{il}\\\mathrm {grad} (T_{i}^{.j}{\vec {g}}^{i}\otimes {\vec {g}}_{j})=&\left.T_{i}^{.j}\right|_{k}{\vec {g}}^{i}\otimes {\vec {g}}_{j}\otimes {\vec {g}}^{k},\quad \left.T_{i}^{.j}\right|_{k}\!\!\!\!\!\!\!\!\!\!\!\!&=T_{i,k}^{.j}-\Gamma _{ik}^{l}T_{l}^{.j}+\Gamma _{lk}^{j}T_{i}^{.l}\\\mathrm {grad} (T_{.j}^{i}{\vec {g}}_{i}\otimes {\vec {g}}^{j})=&\left.T_{.j}^{i}\right|_{k}{\vec {g}}_{i}\otimes {\vec {g}}^{j}\otimes {\vec {g}}^{k},\quad \left.T_{.j}^{i}\right|_{k}\!\!\!\!\!\!\!\!\!\!\!\!&=T_{.j,k}^{i}+\Gamma _{lk}^{i}T_{.j}^{l}-\Gamma _{jk}^{l}T_{.l}^{i}\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5df8ed41bf8e4dff30d0d4616f268e214505a57e)
siehe auch die Anwendung der Christoffelsymbole bei Tensorfeldern.
Beispiele
Sei
der Ortsvektor und r sein Betrag. Dann ist mit dem Einheitstensor 1:
![{\displaystyle \operatorname {grad} \,{\vec {r}}=(\nabla \otimes {\vec {r}})^{\top }=\mathbf {1} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/456e73601b07afe7e37edb65d8c6225665d41257)
![{\displaystyle \operatorname {grad} \,r=\nabla |{\vec {r}}|={\frac {\vec {r}}{r}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4d203e5b10c0fbf36778c459d263fcbca4bc66bd)
![{\displaystyle \operatorname {grad} \,r^{n}=\nabla |{\vec {r}}|^{n}=nr^{n-1}{\frac {\vec {r}}{r}}=nr^{n-2}{\vec {r}},\quad n\in \mathbb {R} ,\neq 0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9bceccd598c8ade41252e8d4c34b4010e50a5605)
siehe Gradient (Mathematik)#Nützliche Formeln. Mit der #Produktregel berechnet sich damit
![{\displaystyle \mathrm {grad} \left({\frac {\vec {r}}{r^{3}}}\right)={\vec {r}}\otimes \mathrm {grad} (r^{-3})+{\frac {1}{r^{3}}}\mathrm {grad} ({\vec {r}})=-{\frac {3}{r^{5}}}{\vec {r}}\otimes {\vec {r}}+{\frac {1}{r^{3}}}\mathbf {1} =-{\frac {1}{r^{5}}}(3{\vec {r}}\otimes {\vec {r}}-r^{2}\mathbf {1} )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/85072423b4e9a93b57e13cdcb76e251dbe5cddb9)
Die beiden letzten Formeln werden z. B. bei der kartesischen Multipolentwicklung verwendet.
Als weiteres Beispiel wird das Vektorfeld
![{\displaystyle {\vec {v}}\left({\begin{pmatrix}x\\y\end{pmatrix}}\right)={\begin{pmatrix}x+ay+a(x+2ay)^{2}\\y-(x+2ay)^{2}\end{pmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/faf6b9d6efbc29d9171ba63163fb5be2d97ea1e9)
angeführt, wo a eine beliebige Konstante ist. Der Gradient wird aus der Richtungsableitung berechnet:
![{\displaystyle {\begin{aligned}\mathrm {grad} ({\vec {v}})\cdot {\begin{pmatrix}p\\q\end{pmatrix}}=&\left.{\frac {\mathrm {d} }{\mathrm {d} s}}{\vec {v}}\left({\begin{pmatrix}x+sp\\y+sq\end{pmatrix}}\right)\right|_{s=0}\\=&\left.{\frac {\mathrm {d} }{\mathrm {d} s}}{\begin{pmatrix}x+sp+a(y+sq)+a{\big (}x+sp+2a(y+sq){\big )}^{2}\\y+sq-{\big (}x+sp+2a(y+sq){\big )}^{2}\end{pmatrix}}\right|_{s=0}\\=&{\begin{pmatrix}p+aq+2a(x+2ay)(p+2aq)\\q-2(x+2ay)(p+2aq)\end{pmatrix}}\\=&\underbrace {\begin{pmatrix}1+2a(x+2ay)&a+4a^{2}(x+2ay)\\-2(x+2ay)&1-4a(x+2ay)\end{pmatrix}} _{\mathrm {grad} ({\vec {v}})}\cdot {\begin{pmatrix}p\\q\end{pmatrix}}\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/beaf82442ece431ff7ab8fb361e277c06c68259e)
Abb. 3: Bei a=3/2 auf gleichgroßes Urbild skalierte Abbildungen des Kreises, die sich der Ellipse (blau) bei Radien 0,1, 0,01 und 0,001 annähern, sowie Eigenvektoren 1 (grün) und 2 (rot) mit ihren Bildern (türkis bzw. magenta).
Im Ursprung nimmt der Gradient die Form
![{\displaystyle \mathrm {grad} ({\vec {v}})={\begin{pmatrix}1&a\\0&1\end{pmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ee5ceba786b04345a6e91b8a5626a90086c62e94)
an. Die maximale Richtungsableitung ergibt sich aus dem Eigensystem des Tensors
![{\displaystyle \mathrm {grad} ({\vec {v}})^{\top }\cdot \mathrm {grad} ({\vec {v}})={\begin{pmatrix}1&a\\a&1+a^{2}\end{pmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/64556a34b4ae11d1081f4c912ee8940c4a9f0b03)
Er hat bei
die Eigenwerte und Eigenvektoren
![{\displaystyle \lambda _{1}={\frac {1}{4}},\,{\hat {v}}_{1}={\frac {1}{\sqrt {5}}}{\begin{pmatrix}2\\-1\end{pmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3b4c8a9403f410c5c90b75e9b240949f5480eea6)
![{\displaystyle \lambda _{2}=4,\,{\hat {v}}_{2}={\frac {1}{\sqrt {5}}}{\begin{pmatrix}1\\2\end{pmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4560026255e48f235cc27dd28c5b6c7632675fcc)
Die größte Richtungsableitung ist in Richtung
, die durch den Gradient auf
abgebildet wird.
Siehe auch
Literatur
- ↑ Bedeutungsübersicht: Gradient. Duden online, abgerufen am 28. Oktober 2020.
- ↑ a b c d e f g h i j k Wolfgang Werner: Vektoren und Tensoren als universelle Sprache in Physik und Technik. Tensoralgebra und Tensoranalysis. Band 1. Springer Vieweg Verlag, Wiesbaden 2019, ISBN 978-3-658-25271-7, doi:10.1007/978-3-658-25272-4.
- ↑ Hugo Sirk: Einführung in die Vektorrechnung: Für Naturwissenschaftler, Chemiker und Ingenieure. Springer-Verlag, 2013, ISBN 3-642-72313-6, Kap. 5.4 "Das Vektorfeld und der Vektorgradient".
- ↑ a b C. B. Lang, N. Pucker: Mathematische Methoden in der Physik. Springer Spektrum, Berlin, Heidelberg 2016, ISBN 978-3-662-49312-0.
- ↑ a b M. E. Gurtin: The Linear Theory of Elasticity. In: S. Flügge (Hrsg.): Handbuch der Physik. Band VI2/a, Bandherausgeber C. Truesdell. Springer, 1972, ISBN 3-540-05535-5, S. 10.
- ↑ a b c Holm Altenbach: Kontinuumsmechanik. Einführung in die materialunabhängigen und materialabhängigen Gleichungen. Springer-Verlag, Berlin, Heidelberg 2012, ISBN 978-3-642-24118-5, S. 43, doi:10.1007/978-3-642-24119-2.
- ↑ a b c P. Haupt: Continuum Mechanics and Theory of Materials. Springer, 2002, ISBN 3-540-43111-X.
- ↑ J. Betten: Kontinuumsmechanik. Elastisches und inelastisches Verhalten isotroper und anisotroper Stoffe. 2. erw. Auflage. Springer, Berlin, Heidelberg u. a. 2001, ISBN 978-3-642-62645-6, doi:10.1007/978-3-642-56562-5.
- ↑ Johannes Wandinger: Gradient, Divergenz und Rotation. (Pdf) 13. November 2017, abgerufen am 2. November 2020.