Vektorgradient

Abb. 1: Die Drehung und Streckung von materiellen Linienelementen h (rot) bei einer Deformation wird mit einem Vektorgradient beschrieben

Der Gradient eines Vektorfeldes oder kurz Vektorgradient (von lateinisch gradiens ‚schreitend‘[1]) fasst das Gefälle oder den Anstieg der Komponenten eines Vektorfeldes zu einem mathematischen Objekt zusammen. Während mit dem Gradient eines Skalarfeldes das Gefälle oder der Anstieg in einer bestimmten Richtung (sog. Richtungsableitung) als Skalar angegeben wird, stellt die Richtungsableitung mit dem Vektorgradient einen Vektor dar.

Ein anschauliches Beispiel ist das Vektorfeld der Bewegung der Partikel eines Körpers. Der Deformationsgradient transformiert die Strecke von einem Partikel zu einem benachbarten Partikel des Körpers im undeformierten Zustand – das ist die vorgegebene Richtung h – in die entsprechende Strecke im deformierten Zustand, was die Richtungsableitung in Richtung h ist, siehe Bild. Die Strecke h kann bei der Deformation gedreht und gestreckt werden. Die Richtungsableitung mit maximalem Wert ist hier diejenige Richtung, in der der Körper die größte Dehnung erfährt; in dieser Richtung benachbarte Partikel entfernen sich im Zuge der Verformung am weitesten voneinander, siehe auch #Verformungen und die #Beispiele.

Der Gradient eines Vektorfeldes entsteht aus dem Vektorfeld durch Anwendung des Gradientenoperators grad, der eine Verallgemeinerung der Ableitung in der mehrdimensionalen Analysis ist. Zur besseren Abgrenzung zwischen Operator und Resultat seiner Anwendung bezeichnen manche Quellen[2]:353[3]:112 den Gradient vektorieller Feldgrößen als Vektorgradient.

Der Gradient hat tensorielle Eigenschaften[4]:421: der Gradient eines Skalarfeldes (Tensorfeld nullter Stufe) führt auf ein Gradientenvektorfeld, das ein Tensorfeld erster Stufe ist. Entsprechend ist der Vektorgradient ein Tensorfeld zweiter Stufe; das Ergebnis lässt sich bezüglich einer Orthonormalbasis als Matrix schreiben. Die Komponenten des Vektorgradienten sind die kovarianten Ableitungen der Komponenten des Vektorfeldes in einem Punkt; bei den Basisvektoren sind dies die Christoffelsymbole.

Der Gradient wird zusammen mit anderen Differentialoperatoren wie Divergenz und Rotation in der Tensoranalysis untersucht.

Definition

Der Gradient g r a d ( f ( x ) ) {\displaystyle \mathrm {grad} {\big (}{\vec {f}}({\vec {x}}){\big )}} eines differenzierbaren Vektorfeldes f {\displaystyle {\vec {f}}} nähert dieses in der Umgebung eines Punkts x {\displaystyle {\vec {x}}} linear an:[5]

f ( y ) f ( x ) = g r a d ( f ( x ) ) [ y x ] + O ( | y x | ) {\displaystyle {\vec {f}}({\vec {y}})-{\vec {f}}({\vec {x}})=\mathrm {grad} {\big (}{\vec {f}}({\vec {x}}){\big )}[{\vec {y}}-{\vec {x}}]+{\mathcal {O}}(|{\vec {y}}-{\vec {x}}|)} für y x {\displaystyle {\vec {y}}\to {\vec {x}}}

Das Landau-Symbol 𝓞(x) steht für Terme, die langsamer als x wachsen, und [ h ] {\displaystyle \ldots [{\vec {h}}]} stellt eine lineare Funktion von h {\displaystyle {\vec {h}}} dar. Wenn der Gradient existiert, ist er eindeutig und kann aus dem Gâteaux-Differential

g r a d ( f ( x ) ) [ h ] = d d s f ( x + s h ) | s = 0 = lim s 0 f ( x + s h ) f ( x ) s {\displaystyle \mathrm {grad} {\big (}{\vec {f}}({\vec {x}}){\big )}[{\vec {h}}]=\left.{\frac {\mathrm {d} }{\mathrm {d} s}}{\vec {f}}({\vec {x}}+s{\vec {h}})\right|_{s=0}=\lim _{s\to 0}{\frac {{\vec {f}}({\vec {x}}+s{\vec {h}})-{\vec {f}}({\vec {x}})}{s}}}

berechnet werden. In einem euklidischen Vektorraum mit Standardskalarprodukt „·“ ergibt sich der Vektorgradient aus der Anwendung des skalaren Operators h {\displaystyle {\vec {h}}\cdot \nabla } , der mit dem Nabla-Operator 𝜵 gebildet wird:

g r a d ( f ( x ) ) [ h ] = ( h ) f {\displaystyle \mathrm {grad} {\big (}{\vec {f}}({\vec {x}}){\big )}[{\vec {h}}]=({\vec {h}}\cdot \nabla ){\vec {f}}}

So werden auch Gradienten für Tensorfelder zweiter Stufe oder allgemein Tensorfelder n-ter Stufe definiert.[2]:358[4]:420[6]:43 Durch Gradientenbildung entsteht aus einem Tensorfeld n-ter Stufe ein Tensorfeld der Stufe n+1.

Bei einem Vektorfeld, das ein Tensorfeld erster Stufe ist, ergibt sich als Gradient ein Tensorfeld zweiter Stufe und zwar durch Nutzung des dyadischen Produkts „⊗“:

g r a d ( f ( x ) ) [ h ] = ( h ) f = h ( f ) = ( f ) h {\displaystyle \mathrm {grad} {\big (}{\vec {f}}({\vec {x}}){\big )}[{\vec {h}}]=({\vec {h}}\cdot \nabla ){\vec {f}}={\vec {h}}\cdot (\nabla \otimes {\vec {f}})=(\nabla \otimes {\vec {f}})^{\top }\cdot {\vec {h}}}

Das hochgestellte bedeutet eine Transponierung. In einigen Quellen[5]:4[7]:23[8]:34 wird

g r a d ( f ) := ( f ) g r a d ( f ( x ) ) [ h ] = g r a d ( f ) h {\displaystyle \mathrm {grad} ({\vec {f}}):=(\nabla \otimes {\vec {f}})^{\top }\quad \rightarrow \quad \mathrm {grad} {\big (}{\vec {f}}({\vec {x}}){\big )}[{\vec {h}}]=\mathrm {grad} ({\vec {f}})\cdot {\vec {h}}}

und in anderen[6]:43[2]:354

g r a d ~ ( f ) := f g r a d ~ ( f ( x ) ) [ h ] = h g r a d ~ ( f ) {\displaystyle {\tilde {\mathrm {grad} }}({\vec {f}}):=\nabla \otimes {\vec {f}}\quad \rightarrow \quad {\tilde {\mathrm {grad} }}{\big (}{\vec {f}}({\vec {x}}){\big )}[{\vec {h}}]={\vec {h}}\cdot {\tilde {\mathrm {grad} }}({\vec {f}})}

definiert, was wegen des nicht kommutativen dyadischen Produkts einen nicht unerheblichen Unterschied ausmacht, der beispielsweise bei der #Produktregel und der Richtungsableitung zu beachten ist.

Hier wird die erstere Form (die ohne Tilde) als Konvention benutzt.

Schreibweisen

Die vielfältigen Anwendungen haben zu variantenreichen Schreibweisen geführt.

In der Kontinuumsmechanik ist es üblich, Größen, die sich auf den undeformierten Ausgangszustand eines Körpers beziehen, groß zu schreiben, und solche, die sich auf den deformierten Zustand beziehen, klein. Entsprechend bedeuten GRAD oder Grad Gradienten im undeformierten Körper und grad einen Gradient im deformierten. Andere Notationen mit dem Nabla-Operator benutzen 𝜵X, 𝜵0 für den Operator im undeformierten Körper und 𝜵x, 𝜵t für den im deformierten.

Es wird auch

g r a d ( v ) = d v d x {\displaystyle \mathrm {grad} ({\vec {v}})={\frac {\mathrm {d} {\vec {v}}}{\mathrm {d} {\vec {x}}}}}

geschrieben.

Geometrische Interpretation

Das eingangs aufgeführte Beispiel des Deformationsgradienten soll hier vertieft werden. Dazu sei das Vektorfeld in einer nahen Umgebung eines Punkts als Bewegungsfeld der Partikel einer Gummihaut interpretierbar, was der Fall ist, wenn der Vektorgradient invertierbar ist, es also eine Eins-zu-eins-Beziehung zwischen Raumpunkten und ihren Bildern gibt. Bezeichnen im undeformierten Körper Großbuchstaben die Orte von Partikeln und Kleinbuchstaben ihre Orte im deformierten, dann stellt man folgendes fest.

Auf der Haut wird ein Kreis gezeichnet und wenn man nun die Gummihaut lang zieht, wird der Kreis zu irgendeiner geschlossenen Kurve, siehe Abb. 3. Mit kleiner werdendem Radius des Kreises nähert sich sein Bild jedoch einer Ellipse. Ein Pfeil MP vom Mittelpunkt M zu einem Partikel P auf dem Umfang des Kreises wird zu mp gedehnt und verdreht, wobei p auf der Ellipse liegt. Die Transformation von MP zu mp leistet beim kleinen Kreis die mit dem Vektorgradient gebildete Richtungsableitung. Diese lineare Annäherung des Vektorfeldes mittels der Richtungsableitung in der Umgebung des Punkts ist die definierende Eigenschaft eines Gradienten.

Die betraglich größte Änderung der Positionsdifferenzen mp zu MP tritt in der Richtung auf, in der der Körper die größte Dehnung erfährt. Auf der Gummihaut landet das Partikel P im Kreis auf der Hauptachse der Ellipse (bei p). Die Richtung der größten betraglichen Änderung erhält man hier als Lösung eines Eigenwertproblems, jedoch nicht des Deformationsgradienten, sondern des mit ihm gebildeten Strecktensors, siehe #Zusammenhang mit der Richtungsableitung und #Beispiele.

Markiert man im undeformierten Körper ein Partikel A und ein (infinitesimal) nahe benachbartes B und trägt im deformierten Körper vom Ort a des Partikels A die Richtungsableitung in Richtung AB auf, dann landet man im deformierten Körper am Ort b des Partikels B. Genauso kann man in b die Richtungsableitung in Richtung BC zu einem benachbarten Partikel C auftragen und landet im deformierten Körper an dessen Ort c. Diese Prozedur kann man beliebig oft wiederholen, die Integralrechnung gestattet sogar unendliche Wiederholungen mit infinitesimalen Schritten. So gelangt man von a aus an den Ort p eines beliebigen Partikels P und zwar unabhängig vom eingeschlagenen Weg von A nach P. Diese Wegunabhängigkeit zeichnet Gradientenfelder aus.

Koordinatendarstellung

Zwecks kompakter Darstellung bezeichnet im Folgenden ein Index hinter einem Komma die Ableitung nach einer Koordinate:

f , i := f x i , f r , ϑ := f r ϑ {\displaystyle f_{,i}:={\frac {\partial f}{\partial x_{i}}}\,,\quad f_{r,\vartheta }:={\frac {\partial f_{r}}{\partial \vartheta }}}

Hier ist die vereinbarte #Konvention ( h ) f = g r a d ( f ) h {\displaystyle ({\vec {h}}\cdot \nabla ){\vec {f}}=\mathrm {grad} ({\vec {f}})\cdot {\vec {h}}} zu beachten.

Kartesische Koordinaten

In kartesischen Koordinaten x i R {\displaystyle x_{i}\in \mathbb {R} } mit Standardbasis êi lautet der Vektorgradient eines Vektorfeldes f = i f i e ^ i {\displaystyle \textstyle {\vec {f}}=\sum _{i}f_{i}{\hat {e}}_{i}} mit Koeffizienten f i {\displaystyle f_{i}}

g r a d ( f ) = i e ^ i g r a d ( f i ) = i , j f i , j e ^ i e ^ j {\displaystyle \mathrm {grad} ({\vec {f}})=\sum _{i}{\hat {e}}_{i}\otimes \mathrm {grad} (f_{i})=\sum _{i,j}f_{i,j}{\hat {e}}_{i}\otimes {\hat {e}}_{j}}

mit

g r a d ( f ) = j f , j e ^ j {\displaystyle \mathrm {grad} (f)=\sum _{j}f_{,j}{\hat {e}}_{j}} .

In drei Dimensionen ist speziell

g r a d ( f ) = ( f 1 , 1 f 1 , 2 f 1 , 3 f 2 , 1 f 2 , 2 f 2 , 3 f 3 , 1 f 3 , 2 f 3 , 3 ) {\displaystyle \mathrm {grad} ({\vec {f}})={\begin{pmatrix}f_{1,1}&f_{1,2}&f_{1,3}\\f_{2,1}&f_{2,2}&f_{2,3}\\f_{3,1}&f_{3,2}&f_{3,3}\end{pmatrix}}}

Die Vektorgradienten der Basisvektoren verschwinden hier, da sie ortsunabhängig sind.

Zylinderkoordinaten

In Zylinderkoordinaten mit radialer Koordinate ρ, Azimut φ und Höhe z über der ρφ-Ebene lauten die Basisvektoren mit dem Sinus und Cosinus

e ^ ρ = ( cos ( φ ) sin ( φ ) 0 ) , e ^ φ = ( sin ( φ ) cos ( φ ) 0 ) , e ^ z = ( 0 0 1 ) {\displaystyle {\hat {e}}_{\rho }={\begin{pmatrix}\cos(\varphi )\\\sin(\varphi )\\0\end{pmatrix}},\quad {\hat {e}}_{\varphi }={\begin{pmatrix}-\sin(\varphi )\\\cos(\varphi )\\0\end{pmatrix}},\quad {\hat {e}}_{z}={\begin{pmatrix}0\\0\\1\end{pmatrix}}}

und der Vektorgradient einer Vektorfunktion f := f ρ e ^ ρ + f φ e ^ φ + f z e ^ z {\displaystyle {\vec {f}}:=f_{\rho }{\hat {e}}_{\rho }+f_{\varphi }{\hat {e}}_{\varphi }+f_{z}{\hat {e}}_{z}} :

g r a d ( f ) = e ^ ρ g r a d ( f ρ ) + e ^ φ g r a d ( f φ ) + e ^ z g r a d ( f z ) + 1 ρ ( f ρ e ^ φ f φ e ^ ρ ) e ^ φ {\displaystyle {\begin{aligned}\mathrm {grad} ({\vec {f}})=&{\hat {e}}_{\rho }\otimes \mathrm {grad} (f_{\rho })+{\hat {e}}_{\varphi }\otimes \mathrm {grad} (f_{\varphi })+{\hat {e}}_{z}\otimes \mathrm {grad} (f_{z})\\&+{\frac {1}{\rho }}(f_{\rho }{\hat {e}}_{\varphi }-f_{\varphi }{\hat {e}}_{\rho })\otimes {\hat {e}}_{\varphi }\end{aligned}}}

mit

g r a d ( f ) = f , ρ e ^ ρ + f , φ ρ e ^ φ + f , z e ^ z {\displaystyle \mathrm {grad} (f)=f_{,\rho }{\hat {e}}_{\rho }+{\frac {f_{,\varphi }}{\rho }}{\hat {e}}_{\varphi }+f_{,z}{\hat {e}}_{z}}

Die Terme in der zweiten Zeile oben sind Ergebnis der Vektorgradienten der Basisvektoren:

g r a d ( e ^ r ) = 1 ρ e ^ φ e ^ φ , g r a d ( e ^ φ ) = 1 ρ e ^ ρ e ^ φ {\displaystyle \mathrm {grad} ({\hat {e}}_{r})={\frac {1}{\rho }}{\hat {e}}_{\varphi }\otimes {\hat {e}}_{\varphi },\;\mathrm {grad} ({\hat {e}}_{\varphi })=-{\frac {1}{\rho }}{\hat {e}}_{\rho }\otimes {\hat {e}}_{\varphi }}

Kugelkoordinaten

In Kugelkoordinaten mit Abstand r vom Ursprung, Zenitwinkel ϑ und Azimut φ lauten die Basisvektoren mit dem Sinus und Cosinus

e ^ r = ( sin ( ϑ ) cos ( φ ) sin ( ϑ ) sin ( φ ) cos ( ϑ ) ) , e ^ ϑ = ( cos ( ϑ ) cos ( φ ) cos ( ϑ ) sin ( φ ) sin ( ϑ ) ) , e ^ φ = ( sin ( φ ) cos ( φ ) 0 ) {\displaystyle {\hat {e}}_{r}={\begin{pmatrix}\sin(\vartheta )\cos(\varphi )\\\sin(\vartheta )\sin(\varphi )\\\cos(\vartheta )\end{pmatrix}},\quad {\hat {e}}_{\vartheta }={\begin{pmatrix}\cos(\vartheta )\cos(\varphi )\\\cos(\vartheta )\sin(\varphi )\\-\sin(\vartheta )\end{pmatrix}},\quad {\hat {e}}_{\varphi }={\begin{pmatrix}-\sin(\varphi )\\\cos(\varphi )\\0\end{pmatrix}}}

und der Vektorgradient einer Vektorfunktion f := f r e ^ r + f ϑ e ^ ϑ + f φ e ^ φ {\displaystyle {\vec {f}}:=f_{r}{\hat {e}}_{r}+f_{\vartheta }{\hat {e}}_{\vartheta }+f_{\varphi }{\hat {e}}_{\varphi }} :

g r a d ( f ) = e ^ r g r a d ( f r ) + e ^ ϑ g r a d ( f ϑ ) + e ^ φ g r a d ( f φ ) + f r r ( 1 e ^ r e ^ r ) e ^ r f ϑ e ^ ϑ + f φ e ^ φ r + f ϑ e ^ φ f φ e ^ ϑ r tan ( ϑ ) e ^ φ {\displaystyle {\begin{aligned}\mathrm {grad} ({\vec {f}})=&{\hat {e}}_{r}\otimes \mathrm {grad} (f_{r})+{\hat {e}}_{\vartheta }\otimes \mathrm {grad} (f_{\vartheta })+{\hat {e}}_{\varphi }\otimes \mathrm {grad} (f_{\varphi })\\&+{\frac {f_{r}}{r}}(\mathbf {1} -{\hat {e}}_{r}\otimes {\hat {e}}_{r})-{\hat {e}}_{r}\otimes {\frac {f_{\vartheta }{\hat {e}}_{\vartheta }+f_{\varphi }{\hat {e}}_{\varphi }}{r}}+{\frac {f_{\vartheta }{\hat {e}}_{\varphi }-f_{\varphi }{\hat {e}}_{\vartheta }}{r\tan(\vartheta )}}\otimes {\hat {e}}_{\varphi }\end{aligned}}}

mit

g r a d ( f ) = f , r e ^ r + f , ϑ r e ^ ϑ + f , φ r sin ( ϑ ) e ^ φ {\displaystyle \mathrm {grad} (f)=f_{,r}{\hat {e}}_{r}+{\frac {f_{,\vartheta }}{r}}{\hat {e}}_{\vartheta }+{\frac {f_{,\varphi }}{r\sin(\vartheta )}}{\hat {e}}_{\varphi }}

dem Tangens tan und dem Einheitstensor 1 = êr ⊗ êr + êϑ ⊗ êϑ + êφ ⊗ êφ.

Die Terme in der zweiten Zeile oben sind Ergebnis der Vektorgradienten der Basisvektoren:

g r a d ( e ^ r ) = 1 r ( 1 e ^ r e ^ r ) g r a d ( e ^ ϑ ) = 1 r sin ( ϑ ) ( cos ( ϑ ) e ^ φ e ^ φ sin ( ϑ ) e ^ r e ^ ϑ ) g r a d ( e ^ φ ) = 1 r sin ( ϑ ) ( sin ( ϑ ) e ^ r + cos ( ϑ ) e ^ ϑ ) e ^ φ {\displaystyle {\begin{aligned}\mathrm {grad} ({\hat {e}}_{r})=&{\frac {1}{r}}{\big (}\mathbf {1} -{\hat {e}}_{r}\otimes {\hat {e}}_{r}{\big )}\\\mathrm {grad} ({\hat {e}}_{\vartheta })=&{\frac {1}{r\sin(\vartheta )}}{\big (}\cos(\vartheta ){\hat {e}}_{\varphi }\otimes {\hat {e}}_{\varphi }-\sin(\vartheta ){\hat {e}}_{r}\otimes {\hat {e}}_{\vartheta }{\big )}\\\mathrm {grad} ({\hat {e}}_{\varphi })=&-{\frac {1}{r\sin(\vartheta )}}{\big (}\sin(\vartheta ){\hat {e}}_{r}+\cos(\vartheta ){\hat {e}}_{\vartheta }{\big )}\otimes {\hat {e}}_{\varphi }\end{aligned}}}

Allgemein krummlinige Koordinaten

In krummlinigen Koordinaten y i R {\displaystyle y_{i}\in \mathbb {R} } lauten die ko- und kontravarianten Basisvektoren

g i = x y i = x , i , g i = g r a d ( y i ) g i g j = δ i j := { 1 falls i = j 0 falls i j {\displaystyle {\vec {g}}_{i}={\frac {\partial {\vec {x}}}{\partial y_{i}}}={\vec {x}}_{,i},\quad {\vec {g}}^{i}=\mathrm {grad} (y_{i})\quad \rightarrow \quad {\vec {g}}_{i}\cdot {\vec {g}}^{j}=\delta _{i}^{j}:={\begin{cases}1&{\text{falls}}\;i=j\\0&{\text{falls}}\;i\neq j\end{cases}}}

Das Symbol δ i j {\displaystyle \delta _{i}^{j}} ist das Kronecker-Delta und der Index ,i bedeutet in diesem Abschnitt eine Ableitung nach yi. Der Nabla-Operator schreibt sich in krummlinigen Koordinaten

= g i y i {\displaystyle \nabla ={\vec {g}}^{i}{\frac {\partial }{\partial y_{i}}}}

Hier wie im Folgenden muss die Einsteinsche Summenkonvention angewendet werden, der gemäß über in einem Produkt doppelt vorkommende Indizes, hier nur i, von eins bis zur Dimension des Raumes zu summieren ist.

Kontravariantes Vektorfeld

Die #Produktregel angewandt auf ein kontravariantes Vektorfeld[2]:146 führt zu

g r a d ( f i g i ) = g i g r a d ( f i ) + f i g r a d ( g i ) {\displaystyle \mathrm {grad} (f^{i}{\vec {g}}_{i})={\vec {g}}_{i}\otimes \mathrm {grad} (f^{i})+f^{i}\mathrm {grad} ({\vec {g}}_{i})}

Der Gradient des kovarianten Basisvektors kann mit den Christoffelsymbolen[2]:340[7]:58 Γ i j k = g i , j g k {\displaystyle \Gamma _{ij}^{k}={\vec {g}}_{i,j}\cdot {\vec {g}}^{k}} ausgedrückt werden:

g r a d ( g i ) = ( g i ) = ( g j g i , j ) = g i , j g j = ( g i , j g k ) g k g j = Γ i j k g k g j {\displaystyle {\begin{aligned}\mathrm {grad} ({\vec {g}}_{i})=&(\nabla \otimes {\vec {g}}_{i})^{\top }=({\vec {g}}^{j}\otimes {\vec {g}}_{i,j})^{\top }={\vec {g}}_{i,j}\otimes {\vec {g}}^{j}=({\vec {g}}_{i,j}\cdot {\vec {g}}^{k}){\vec {g}}_{k}\otimes {\vec {g}}^{j}\\=&\Gamma _{ij}^{k}{\vec {g}}_{k}\otimes {\vec {g}}^{j}\end{aligned}}}

Mit g r a d ( f i ) = f i = f , j i g j {\displaystyle \mathrm {grad} (f^{i})=\nabla f^{i}=f_{,j}^{i}{\vec {g}}^{j}} lautet der Gradient schließlich

g r a d ( f i g i ) = f , j i g i g j + f i Γ i j k g k g j = f , j i g i g j + f k Γ k j i g i g j = f i | j g i g j {\displaystyle {\begin{aligned}\mathrm {grad} (f^{i}{\vec {g}}_{i})=&f_{,j}^{i}{\vec {g}}_{i}\otimes {\vec {g}}^{j}+f^{i}\Gamma _{ij}^{k}{\vec {g}}_{k}\otimes {\vec {g}}^{j}=f_{,j}^{i}{\vec {g}}_{i}\otimes {\vec {g}}^{j}+f^{k}\Gamma _{kj}^{i}{\vec {g}}_{i}\otimes {\vec {g}}^{j}\\=&\left.f^{i}\right|_{j}{\vec {g}}_{i}\otimes {\vec {g}}^{j}\end{aligned}}}

Darin ist f i | j = f , j i + Γ k j i f k {\displaystyle \left.f^{i}\right|_{j}=f_{,j}^{i}+\Gamma _{kj}^{i}f^{k}} die sogenannte kovariante Ableitung der Komponente f i {\displaystyle f^{i}} .[2]:341[7]:61

Kovariantes Vektorfeld

Bei einem kovarianten Vektorfeld[2]:146 f = f i g i {\displaystyle {\vec {f}}=f_{i}{\vec {g}}^{i}} wird die Ableitung des kontravarianten Basisvektors benötigt, eine Ableitung, die auch mit Christoffelsymbolen ausgedrückt werden kann:

δ i , j k = ( g k g i ) , j = g , j k g i + g k g i , j = g , j k g i + Γ i j k = 0 g , j k = ( g , j k g i ) g i = Γ i j k g i {\displaystyle {\begin{aligned}\delta _{i,j}^{k}=&({\vec {g}}^{k}\cdot {\vec {g}}_{i})_{,j}={\vec {g}}_{,j}^{k}\cdot {\vec {g}}_{i}+{\vec {g}}^{k}\cdot {\vec {g}}_{i,j}={\vec {g}}_{,j}^{k}\cdot {\vec {g}}_{i}+\Gamma _{ij}^{k}=0\\\rightarrow {\vec {g}}_{,j}^{k}=&({\vec {g}}_{,j}^{k}\cdot {\vec {g}}_{i}){\vec {g}}^{i}=-\Gamma _{ij}^{k}{\vec {g}}^{i}\end{aligned}}}

Der Gradient eines kontravarianten Basisvektors schreibt sich damit

g r a d ( g k ) = ( g k ) = g , j k g j = Γ i j k g i g j {\displaystyle \mathrm {grad} ({\vec {g}}^{k})=(\nabla \otimes {\vec {g}}^{k})^{\top }={\vec {g}}_{,j}^{k}\otimes {\vec {g}}^{j}=-\Gamma _{ij}^{k}{\vec {g}}^{i}\otimes {\vec {g}}^{j}}

Die #Produktregel liefert analog zum kontravarianten Vektor

g r a d ( f i g i ) = g i g r a d ( f i ) + f k g r a d ( g k ) = f i , j g i g j f k Γ i j k g i g j = f i | j g i g j {\displaystyle {\begin{aligned}\mathrm {grad} (f_{i}{\vec {g}}^{i})=&{\vec {g}}^{i}\otimes \mathrm {grad} (f_{i})+f_{k}\mathrm {grad} ({\vec {g}}^{k})=f_{i,j}{\vec {g}}^{i}\otimes {\vec {g}}^{j}-f_{k}\Gamma _{ij}^{k}{\vec {g}}^{i}\otimes {\vec {g}}^{j}\\=&\left.f_{i}\right|_{j}{\vec {g}}^{i}\otimes {\vec {g}}^{j}\end{aligned}}}

mit der kovarianten Ableitung f i | j = f i , j Γ i j k f k {\displaystyle \left.f_{i}\right|_{j}=f_{i,j}-\Gamma _{ij}^{k}f_{k}} der Komponente f i {\displaystyle f_{i}} .

Eigenschaften

Es ist die hier vereinbarte #Konvention ( h ) f = g r a d ( f ) h {\displaystyle ({\vec {h}}\cdot \nabla ){\vec {f}}=\mathrm {grad} ({\vec {f}})\cdot {\vec {h}}} zu beachten.

Zusammenhang mit dem totalen Differenzial

Betrachtet wird eine infinitesimale Verschiebung in einem Vektorfeld:

F ( r + d r ) = F ( r ) + g r a d ( F ) d r = F ( r ) + ( d r ) F = F ( r ) + d F {\displaystyle {\vec {F}}({\vec {r}}+\mathrm {d} {\vec {r}})={\vec {F}}({\vec {r}})+\mathrm {grad} ({\vec {F}})\cdot \mathrm {d} {\vec {r}}={\vec {F}}({\vec {r}})+(\mathrm {d} {\vec {r}}\cdot \nabla ){\vec {F}}={\vec {F}}({\vec {r}})+\mathrm {d} {\vec {F}}}

Das vollständige oder totale Differenzial eines Vektorfeldes F ( r ) {\displaystyle {\vec {F}}({\vec {r}})} ist:

d F = g r a d ( F ) d r {\displaystyle \mathrm {d} {\vec {F}}=\mathrm {grad} ({\vec {F}})\cdot \mathrm {d} {\vec {r}}}   bzw. in Indexschreibweise   d F i = j F i x j d x j {\displaystyle \mathrm {d} F_{i}=\sum _{j}{\frac {\partial F_{i}}{\partial x_{j}}}\mathrm {d} x_{j}}

Das totale Differenzial eines Skalarfeldes und eines Vektorfeldes haben somit (formal) dieselbe Form. Beim totalen Differenzial eines Skalarfeldes wird der Gradient mit dem Differenzial skalar multipliziert. Beim totalen Differenzial eines Vektorfeldes ist die Multiplikation zwischen dem Gradient (Matrixform) mit dem Differenzialvektor als Matrix-Vektor-Produkt durchzuführen.

Zusammenhang mit der Richtungsableitung

Mit dem Vektorgradient kann die Richtungsableitung in Richtung eines Vektors h {\displaystyle {\vec {h}}} berechnet werden:

( h ) f = h ( f ) = ( f ) h = g r a d ( f ) h {\displaystyle ({\vec {h}}\cdot {\vec {\nabla }}){\vec {f}}={\vec {h}}\cdot ({\vec {\nabla }}\otimes {\vec {f}})=({\vec {\nabla }}\otimes {\vec {f}})^{\top }\cdot {\vec {h}}=\mathrm {grad} ({\vec {f}})\cdot {\vec {h}}}

Das hochgestellte bedeutet eine Transponierung. In der Strömungsmechanik wird die linke Darstellung mit dem Nabla-Operator gegenüber der rechten bevorzugt, die in der Kontinuumsmechanik üblich ist. Die mithilfe des Vektorgradienten berechnete Richtungsableitung entspricht der Richtungsableitung, die man durch Grenzwertbildung bekommt:

g r a d ( f ) h = d d s f ( x + s h ) | s = 0 = lim s 0 f ( x + s h ) f ( x ) s {\displaystyle \mathrm {grad} ({\vec {f}})\cdot {\vec {h}}=\left.{\frac {\mathrm {d} }{\mathrm {d} s}}{\vec {f}}({\vec {x}}+s{\vec {h}})\right|_{s=0}=\lim _{s\rightarrow 0}{\frac {{\vec {f}}({\vec {x}}+s{\vec {h}})-{\vec {f}}({\vec {x}})}{s}}} für alle x , h {\displaystyle {\vec {x}},{\vec {h}}}

Interessiert diejenige Richtung n {\displaystyle {\vec {n}}} , in der die Richtungsableitung maximalen Betrag hat, ergibt sich das Eigenwertproblem

g r a d ( f ) g r a d ( f ) n + λ n = 0 {\displaystyle \mathrm {grad} ({\vec {f}})^{\top }\cdot \mathrm {grad} ({\vec {f}})\cdot {\vec {n}}+\lambda {\vec {n}}={\vec {0}}}

Der Tensor g r a d ( f ) g r a d ( f ) =: C {\displaystyle \mathrm {grad} ({\vec {f}})^{\top }\cdot \mathrm {grad} ({\vec {f}})=:\mathbf {C} } ist symmetrisch und positiv semidefinit, sodass alle Eigenwerte reell und nicht negativ sind. Der zum größten Eigenwert gehörende Eigenvektor liefert die Richtung, in der die Richtungsableitung den größten Betrag hat.

Denn die Zielgröße ist

| g r a d ( f ) n | 2 = ( g r a d ( f ) n ) ( g r a d ( f ) n ) = n C n {\displaystyle |\mathrm {grad} ({\vec {f}})\cdot {\vec {n}}|^{2}={\big (}\mathrm {grad} ({\vec {f}})\cdot {\vec {n}}{\big )}\cdot {\big (}\mathrm {grad} ({\vec {f}})\cdot {\vec {n}}{\big )}={\vec {n}}\cdot \mathbf {C} \cdot {\vec {n}}}

Ein Extremum unter der Nebenbedingung | n | = 1 {\displaystyle |{\vec {n}}|=1} berechnet sich mit einem Lagrange-Multiplikator λ:

Π ( n , λ ) := n C n + λ ( n n 1 ) extr. {\displaystyle \Pi ({\vec {n}},\lambda ):={\vec {n}}\cdot \mathbf {C} \cdot {\vec {n}}+\lambda ({\vec {n}}\cdot {\vec {n}}-1)\to {\text{extr.}}}

Im Extremum müssen die Ableitungen nach allen Variablen verschwinden. Die Ableitung nach dem Lagrange-Multiplikator

λ Π ( n , λ ) = n n 1 = 0 {\displaystyle {\frac {\partial }{\partial \lambda }}\Pi ({\vec {n}},\lambda )={\vec {n}}\cdot {\vec {n}}-1=0}

bedeutet, dass wie gewünscht die Nebenbedingung notwendig eingehalten wird. Die Ableitung nach n {\displaystyle {\vec {n}}} in Richtung h {\displaystyle {\vec {h}}} liefert

s Π ( n + s h , λ ) | s = 0 = s [ ( n + s h ) C ( n + s h ) + λ ( ( n + s h ) ( n + s h ) 1 ) ] s = 0 = [ h C ( n + s h ) + ( n + s h ) C h + λ ( h ( n + s h ) + ( n + s h ) h ) ] s = 0 = h C n + n C h + 2 λ n h = 2 ( C n + λ n ) h = ! 0 {\displaystyle {\begin{aligned}\left.{\frac {\partial }{\partial s}}\Pi ({\vec {n}}+s{\vec {h}},\lambda )\right|_{s=0}=&{\frac {\partial }{\partial s}}\left[({\vec {n}}+s{\vec {h}})\cdot \mathbf {C} \cdot ({\vec {n}}+s{\vec {h}})+\lambda {\big (}({\vec {n}}+s{\vec {h}})\cdot ({\vec {n}}+s{\vec {h}})-1{\big )}\right]_{s=0}\\=&{\Big [}{\vec {h}}\cdot \mathbf {C} \cdot ({\vec {n}}+s{\vec {h}})+({\vec {n}}+s{\vec {h}})\cdot \mathbf {C} \cdot {\vec {h}}\\&\quad +\lambda {\big (}{\vec {h}}\cdot ({\vec {n}}+s{\vec {h}})+({\vec {n}}+s{\vec {h}})\cdot {\vec {h}}{\big )}{\Big ]}_{s=0}\\=&{\vec {h}}\cdot \mathbf {C} \cdot {\vec {n}}+{\vec {n}}\cdot \mathbf {C} \cdot {\vec {h}}+2\lambda {\vec {n}}\cdot {\vec {h}}\\=&2(\mathbf {C} \cdot {\vec {n}}+\lambda {\vec {n}})\cdot {\vec {h}}{\stackrel {!}{=}}0\end{aligned}}}

weil C symmetrisch ist. Da dies für alle h {\displaystyle {\vec {h}}} gelten soll, ist das gleichbedeutend mit dem oben angegebenen Eigenwertproblem.

Zusammenhang mit Rotation und Divergenz

Der Vektorgradient beinhaltet alle partiellen Ableitungen der Komponenten eines Vektorfeldes, die bei der Rotation und Divergenz eines Vektorfeldes gebraucht werden. Es ist zu vermuten, dass diese Operatoren aus dem Gradient eines Vektorfeldes ableitbar sind. Tatsächlich ist[9]

[ g r a d ( v ) g r a d ( v ) ] c = r o t ( v ) × c {\displaystyle [\mathrm {grad} ({\vec {v}})-\mathrm {grad} ({\vec {v}})^{\top }]\cdot {\vec {c}}=\mathrm {rot} ({\vec {v}})\times {\vec {c}}}

für alle konstanten Vektoren c {\displaystyle {\vec {c}}} . Der Tensor in der eckigen Klammer ist schiefsymmetrisch und dessen dualer axialer Vektor (·)× ist die Rotation. Der duale axiale Vektor ist die negative Hälfte der Vektorinvariante i {\displaystyle {\vec {i}}} , bei der das dyadische Produkt ⊗ durch das Kreuzprodukt × ersetzt ist:

g r a d ( v ) × = 1 2 i ( g r a d ( v ) ) = 1 2 i ( ( v ) ) = 1 2 i ( v ) = 1 2 × v = 1 2 r o t ( v ) {\displaystyle {\begin{aligned}\mathrm {grad} ({\vec {v}})_{\times }=&-{\frac {1}{2}}{\vec {i}}(\mathrm {grad} ({\vec {v}}))=-{\frac {1}{2}}{\vec {i}}\left((\nabla \otimes {\vec {v}})^{\top }\right)={\frac {1}{2}}{\vec {i}}(\nabla \otimes {\vec {v}})\\=&{\frac {1}{2}}\nabla \times {\vec {v}}={\frac {1}{2}}\mathrm {rot} ({\vec {v}})\end{aligned}}}

Die Spur des Vektorgradienten liefert die Divergenz:

S p ( g r a d v ) = S p ( ( v ) ) = S p ( v ) = v = d i v ( v ) {\displaystyle \mathrm {Sp(grad} \,{\vec {v}})=\mathrm {Sp} \left((\nabla \otimes {\vec {v}})^{\top }\right)=\mathrm {Sp} {\big (}\nabla \otimes {\vec {v}}{\big )}=\nabla \cdot {\vec {v}}=\mathrm {div} ({\vec {v}})}

Rechenregeln

Für alle Konstanten c R {\displaystyle c\in \mathbb {R} } , C R n × n {\displaystyle \mathbf {C} \in \mathbb {R} ^{n\times n}} , total differenzierbaren Skalarfelder f , g R {\displaystyle f,\,g\in \mathbb {R} } und Vektorfelder f , g R n {\displaystyle {\vec {f}},\,{\vec {g}}\in \mathbb {R} ^{n}} gilt mit der vereinbarten #Konvention ( h ) f = g r a d ( f ) h {\displaystyle ({\vec {h}}\cdot \nabla ){\vec {f}}=\mathrm {grad} ({\vec {f}})\cdot {\vec {h}}} :

Linearität
g r a d ( c f ) = c g r a d ( f ) {\displaystyle \mathrm {grad} (c{\vec {f}})=c\mathrm {grad} ({\vec {f}})}
g r a d ( C f ) = C g r a d ( f ) {\displaystyle \mathrm {grad} (\mathbf {C} \cdot {\vec {f}})=\mathbf {C} \cdot \mathrm {grad} ({\vec {f}})}
g r a d ( f + g ) = g r a d ( f ) + g r a d ( g ) {\displaystyle \mathrm {grad} ({\vec {f}}+{\vec {g}})=\mathrm {grad} ({\vec {f}})+\mathrm {grad} ({\vec {g}})}
Produktregel
g r a d ( f g ) = g g r a d ( f ) + f g r a d ( g ) {\displaystyle \mathrm {grad} (fg)=g\,\mathrm {grad} (f)+f\,\mathrm {grad} (g)}
g r a d ( f g ) = g g r a d ( f ) + f g r a d ( g ) {\displaystyle \mathrm {grad} (f{\vec {g}})={\vec {g}}\otimes \mathrm {grad} (f)+f\,\mathrm {grad} ({\vec {g}})}
g r a d ( f g ) = g g r a d ( f ) + f g r a d ( g ) = g r a d ( f ) g + g r a d ( g ) f {\displaystyle \mathrm {grad} ({\vec {f}}\cdot {\vec {g}})={\vec {g}}\cdot \mathrm {grad} ({\vec {f}})+{\vec {f}}\cdot \mathrm {grad} ({\vec {g}})=\mathrm {grad} ({\vec {f}})^{\top }\cdot {\vec {g}}+\mathrm {grad} ({\vec {g}})^{\top }\cdot {\vec {f}}}
In drei Dimensionen ist speziell[2]:367
g r a d ( f g ) = g r a d ( f ) g + g r a d ( g ) f + f × r o t ( g ) + g × r o t ( f ) {\displaystyle \mathrm {grad} ({\vec {f}}\cdot {\vec {g}})=\mathrm {grad} ({\vec {f}})\cdot {\vec {g}}+\mathrm {grad} ({\vec {g}})\cdot {\vec {f}}+{\vec {f}}\times \mathrm {rot} ({\vec {g}})+{\vec {g}}\times \mathrm {rot} ({\vec {f}})}
Integralsätze[6]:45
a b g r a d ( f ( x ) ) d x = f ( b ) f ( a ) {\displaystyle \int _{\vec {a}}^{\vec {b}}\mathrm {grad} {\big (}{\vec {f}}({\vec {x}}){\big )}\cdot \mathrm {d} {\vec {x}}={\vec {f}}({\vec {b}})-{\vec {f}}({\vec {a}})}
Dabei ist der Integrationsweg von a {\displaystyle {\vec {a}}} nach b {\displaystyle {\vec {b}}} beliebig. Diese Wegunabhängigkeit zeichnet Gradientenfelder aus[2]:433.
V g r a d ( f ) d V = A f n ^ d A {\displaystyle \int _{V}\mathrm {grad} ({\vec {f}})\,\mathrm {d} V=\int _{A}{\vec {f}}\otimes {\hat {n}}\,\mathrm {d} A}
Hier ist f {\displaystyle {\vec {f}}} ein zweimal stetig differenzierbares Feld und n ^ {\displaystyle {\hat {n}}} der nach außen gerichtete Normaleneinheitsvektor auf der geschlossenen Oberfläche A des Volumens V.

Anwendungen

Es ist die hier vereinbarte #Konvention ( h ) f = g r a d ( f ) h {\displaystyle ({\vec {h}}\cdot \nabla ){\vec {f}}=\mathrm {grad} ({\vec {f}})\cdot {\vec {h}}} zu beachten.

Verformungen

Abb. 2: Verlagerung von materiellen Linien

Der schon angesprochene Deformationsgradient ist die grundlegende Größe zur Beschreibung von Verformungen von Körpern. Lokal stellen sich bei einer Verformung Längenänderungen und Winkeländerungen zwischen materiellen Linienelementen ein, die man sich in das Material eingeritzt denken kann, siehe Bild. Die Längenänderungen korrespondieren mit Dehnungen und die Winkeländerungen mit Scherungen im Material.

In der Kontinuumsmechanik gibt die Bewegungsfunktion x = χ ( X , t ) {\displaystyle {\vec {x}}={\vec {\chi }}({\vec {X}},t)} den Ort x {\displaystyle {\vec {x}}} an, an dem zur Zeit t ein Partikel ist, das zu einer definierten Zeit t0 am Ort X {\displaystyle {\vec {X}}} war. Der Deformationsgradient F kann aus

F ( X , t ) d X = lim s 0 χ ( X + s d X , t ) χ ( X , t ) s =: d x {\displaystyle \mathbf {F} ({\vec {X}},t)\cdot \mathrm {d} {\vec {X}}=\lim _{s\to 0}{\frac {{\vec {\chi }}({\vec {X}}+s\;\mathrm {d} {\vec {X}},t)-{\vec {\chi }}({\vec {X}},t)}{s}}=:\mathrm {d} {\vec {x}}}

berechnet werden, was seine Transformationseigenschaften der Linienelemente im undeformierten Zustand ( d X {\displaystyle \mathrm {d} {\vec {X}}} ) in den deformierten ( d x {\displaystyle \mathrm {d} {\vec {x}}} ) verdeutlicht.

Substanzielle Beschleunigung

In der Fluidmechanik wird die Eulersche Betrachtungsweise eingenommen, die das Vektorfeld der Geschwindigkeit v ( x , t ) {\displaystyle {\vec {v}}({\vec {x}},t)} als Funktion des Ortes x {\displaystyle {\vec {x}}} und der Zeit t benutzt. Der Impulssatz eines Kontinuums besagt, dass eine volumenverteilte Kraft, wie die Schwerkraft eine ist, die Partikel des Körpers beschleunigt. Um das darzustellen, wird die Geschwindigkeit des Partikels mittels der Bewegungsfunktion x = χ ( P , t ) {\displaystyle {\vec {x}}={\vec {\chi }}({\mathcal {P}},t)} eingeführt, die den Ort angibt, an dem sich das Partikel P {\displaystyle {\mathcal {P}}} zur Zeit t befindet:

v ( x , t ) = v ( χ ( P , t ) , t ) := χ ˙ ( P , t ) {\displaystyle {\vec {v}}({\vec {x}},t)={\vec {v}}{\big (}{\vec {\chi }}({\mathcal {P}},t),t{\big )}:={\dot {\vec {\chi }}}({\mathcal {P}},t)}

Der Überpunkt bildet hier die Substanzielle Zeitableitung. Für den Impulssatz kann nun die Substanzielle Beschleunigung als Zeitableitung der Geschwindigkeit bei festgehaltenem Partikel P {\displaystyle {\mathcal {P}}} berechnet werden:

v ˙ ( x , t ) := d d t v ( χ ( P , t ) , t ) | P fest = v t + v x χ ˙ ( P , t ) := v t + g r a d ( v ) v {\displaystyle {\dot {\vec {v}}}({\vec {x}},t):=\left.{\frac {\mathrm {d} }{\mathrm {d} t}}{\vec {v}}({\vec {\chi }}({\mathcal {P}},t),t)\right|_{{\mathcal {P}}\,{\text{fest}}}={\frac {\partial {\vec {v}}}{\partial t}}+{\frac {\partial {\vec {v}}}{\partial {\vec {x}}}}\cdot {\dot {\vec {\chi }}}({\mathcal {P}},t):={\frac {\partial {\vec {v}}}{\partial t}}+\mathrm {grad} ({\vec {v}})\cdot {\vec {v}}}

Der zweite Summand stellt einen konvektiven Anteil dar, der physikalisch daraus resultiert, dass das Partikel auch dadurch beschleunigt werden kann, dass es von einem schneller oder langsamer fließenden Stromfaden mitgenommen wird. Der Geschwindigkeitsgradient[10]:42 ff.[6]:230 ff. g r a d ( v ) {\displaystyle \mathrm {grad} ({\vec {v}})} hat eine fundamentale Bedeutung in der Fluidmechanik.

Objektive Zeitableitung

Hauptartikel: Euklidische Transformation

Ein Insasse eines fahrenden Zuges wird die Geschwindigkeit eines vorbeifliegenden Vogels anders beurteilen als ein in der Nähe befindlicher Fußgänger. Die Geschwindigkeit ist demnach vom Standpunkt abhängig, sie ist genauer nicht bezugssysteminvariant oder kürzer nicht objektiv.

Für die Formulierung eines Materialmodells, in dem die Raten konstitutiver Variablen auftreten, wie beispielsweise beim newtonschen Fluid, werden jedoch objektive Zeitableitungen dieser Variablen benötigt. Denn es entspricht nicht der Erfahrung, dass ein bewegter Beobachter ein anderes Materialverhalten misst als ein ruhender.

Geschwindigkeitsfeld mit Stromlinien (blau). Wo die roten Linien nahe beieinander liegen ist die Geschwindigkeit v {\displaystyle {\vec {v}}} hoch, andernorts gering.

Ein Newtonsches Fluid besitzt Viskosität, bei der zur Aufrechterhaltung einer Scherströmung eine Kraft erforderlich ist. Scherströmungen weisen unterschiedliche Geschwindigkeiten von benachbarten Fluidelementen auf, d. h. es treten Geschwindigkeitsgradienten[10]:12[6]:83 auf wie im unteren Teil des Bildes. Weil die Geschwindigkeit selbst nicht objektiv ist, siehe Hauptartikel, ist es ihr Gradient ebenfalls nicht[10]:37 f. und letzterer ist deshalb für die Modellierung von viskosen Fluiden ungeeignet. Der symmetrische Anteil des Geschwindigkeitsgradienten ist aber objektiv und wird bei der Modellierung von newtonschen Fluiden benutzt, was auf die Navier-Stokes-Gleichungen führt, die auf diese Weise invariant gegenüber einer Galilei-Transformation sind.

Tensorgradient

Mit dem skalaren Operator h {\displaystyle {\vec {h}}\cdot \nabla } kann auch der Gradient eines Tensorfeldes T gebildet werden, wobei ein Tensorgradient[2]:356 entsteht:

g r a d ( T ) [ h ] = ( h ) T {\displaystyle \mathrm {grad} (\mathbf {T} )[{\vec {h}}]=({\vec {h}}\cdot \nabla )\mathbf {T} }

In krummlinigen Koordinaten y i {\displaystyle y_{i}} und dem Nabla-Operator = g k y k {\displaystyle \nabla ={\vec {g}}^{k}{\tfrac {\partial }{\partial y_{k}}}} (Notation siehe #Allgemein krummlinige Koordinaten) wird daraus:

g r a d ( T ) [ h ] = ( h g k ) T , k = h ( g k T , k ) = ( T , k g k ) h {\displaystyle \mathrm {grad} (\mathbf {T} )[{\vec {h}}]=({\vec {h}}\cdot {\vec {g}}^{k})\mathbf {T} _{,k}={\vec {h}}\cdot ({\vec {g}}^{k}\otimes \mathbf {T} _{,k})=(\mathbf {T} _{,k}\otimes {\vec {g}}^{k})\cdot {\vec {h}}}

Soll das Argument wie beim Vektorgradient rechts vom Operator stehen, siehe #Konvention, dann lautet der Tensorgradient

g r a d ( T ) = T , k g k {\displaystyle \mathrm {grad} (\mathbf {T} )=\mathbf {T} _{,k}\otimes {\vec {g}}^{k}}

Für einen Tensor zweiter Stufe gibt es in krummlinigen Koordinaten vier Darstellungen:

T = T i j g i g j = T i j g i g j = T i . j g i g j = T . j i g i g j {\displaystyle \mathbf {T} =T_{ij}{\vec {g}}^{i}\otimes {\vec {g}}^{j}=T^{ij}{\vec {g}}_{i}\otimes {\vec {g}}_{j}=T_{i}^{.j}{\vec {g}}^{i}\otimes {\vec {g}}_{j}=T_{.j}^{i}{\vec {g}}_{i}\otimes {\vec {g}}^{j}}

Mit den Ableitungen der Basisvektoren

g n , k = Γ n k l g l , g , k n = Γ l k n g l {\displaystyle {\vec {g}}_{n,k}=\Gamma _{nk}^{l}{\vec {g}}_{l},\quad {\vec {g}}_{,k}^{n}=-\Gamma _{lk}^{n}{\vec {g}}^{l}}

ergibt sich in der ersten Ausführung:

g r a d ( T i j g i g j ) = ( T i j g i g j ) , k g k = ( T i j , k g i g j + T i j g , k i g j + T i j g i g , k j ) g k = ( T i j , k g i g j T i j Γ l k i g l g j T i j g i Γ l k j g l ) g k = ( T i j , k T l j Γ i k l T i l Γ j k l ) g i g j g k = T i j | k g i g j g k {\displaystyle {\begin{aligned}\mathrm {grad} (T_{ij}{\vec {g}}^{i}\otimes {\vec {g}}^{j})=&(T_{ij}{\vec {g}}^{i}\otimes {\vec {g}}^{j})_{,k}\otimes {\vec {g}}^{k}\\=&(T_{ij,k}{\vec {g}}^{i}\otimes {\vec {g}}^{j}+T_{ij}{\vec {g}}_{,k}^{i}\otimes {\vec {g}}^{j}+T_{ij}{\vec {g}}^{i}\otimes {\vec {g}}_{,k}^{j})\otimes {\vec {g}}^{k}\\=&(T_{ij,k}{\vec {g}}^{i}\otimes {\vec {g}}^{j}-T_{ij}\Gamma _{lk}^{i}{\vec {g}}^{l}\otimes {\vec {g}}^{j}-T_{ij}{\vec {g}}^{i}\otimes \Gamma _{lk}^{j}{\vec {g}}^{l})\otimes {\vec {g}}^{k}\\=&(T_{ij,k}-T_{lj}\Gamma _{ik}^{l}-T_{il}\Gamma _{jk}^{l}){\vec {g}}^{i}\otimes {\vec {g}}^{j}\otimes {\vec {g}}^{k}\\=&\left.T_{ij}\right|_{k}{\vec {g}}^{i}\otimes {\vec {g}}^{j}\otimes {\vec {g}}^{k}\end{aligned}}}

mit der kovarianten Ableitung der Tensorkomponente

T i j | k = T i j , k Γ i k l T l j Γ j k l T i l {\displaystyle \left.T_{ij}\right|_{k}=T_{ij,k}-\Gamma _{ik}^{l}T_{lj}-\Gamma _{jk}^{l}T_{il}}

Analog ergibt sich in den anderen Darstellungen:[2]:348, 356 f.

g r a d ( T i j g i g j ) = T i j | k g i g j g k , T i j | k = T , k i j + Γ l k i T l j + Γ l k j T i l g r a d ( T i . j g i g j ) = T i . j | k g i g j g k , T i . j | k = T i , k . j Γ i k l T l . j + Γ l k j T i . l g r a d ( T . j i g i g j ) = T . j i | k g i g j g k , T . j i | k = T . j , k i + Γ l k i T . j l Γ j k l T . l i {\displaystyle {\begin{aligned}\mathrm {grad} (T^{ij}{\vec {g}}_{i}\otimes {\vec {g}}_{j})=&\left.T^{ij}\right|_{k}{\vec {g}}_{i}\otimes {\vec {g}}_{j}\otimes {\vec {g}}^{k},\quad \left.T^{ij}\right|_{k}\!\!\!\!\!\!\!\!\!\!\!\!&=T_{,k}^{ij}+\Gamma _{lk}^{i}T^{lj}+\Gamma _{lk}^{j}T^{il}\\\mathrm {grad} (T_{i}^{.j}{\vec {g}}^{i}\otimes {\vec {g}}_{j})=&\left.T_{i}^{.j}\right|_{k}{\vec {g}}^{i}\otimes {\vec {g}}_{j}\otimes {\vec {g}}^{k},\quad \left.T_{i}^{.j}\right|_{k}\!\!\!\!\!\!\!\!\!\!\!\!&=T_{i,k}^{.j}-\Gamma _{ik}^{l}T_{l}^{.j}+\Gamma _{lk}^{j}T_{i}^{.l}\\\mathrm {grad} (T_{.j}^{i}{\vec {g}}_{i}\otimes {\vec {g}}^{j})=&\left.T_{.j}^{i}\right|_{k}{\vec {g}}_{i}\otimes {\vec {g}}^{j}\otimes {\vec {g}}^{k},\quad \left.T_{.j}^{i}\right|_{k}\!\!\!\!\!\!\!\!\!\!\!\!&=T_{.j,k}^{i}+\Gamma _{lk}^{i}T_{.j}^{l}-\Gamma _{jk}^{l}T_{.l}^{i}\end{aligned}}}

siehe auch die Anwendung der Christoffelsymbole bei Tensorfeldern.

Beispiele

Sei r {\displaystyle {\vec {r}}} der Ortsvektor und r sein Betrag. Dann ist mit dem Einheitstensor 1:

grad r = ( r ) = 1 {\displaystyle \operatorname {grad} {\vec {r}}=(\nabla \otimes {\vec {r}})^{\top }=\mathbf {1} }
grad r = | r | = r r {\displaystyle \operatorname {grad} r=\nabla |{\vec {r}}|={\frac {\vec {r}}{r}}}
grad r n = | r | n = n r n 1 r r = n r n 2 r , n R , 0 {\displaystyle \operatorname {grad} r^{n}=\nabla |{\vec {r}}|^{n}=nr^{n-1}{\frac {\vec {r}}{r}}=nr^{n-2}{\vec {r}},\quad n\in \mathbb {R} ,\neq 0}

siehe Gradient (Mathematik)#Nützliche Formeln. Mit der #Produktregel berechnet sich damit

g r a d ( r r 3 ) = r g r a d ( r 3 ) + 1 r 3 g r a d ( r ) = 3 r 5 r r + 1 r 3 1 = 1 r 5 ( 3 r r r 2 1 ) {\displaystyle \mathrm {grad} \left({\frac {\vec {r}}{r^{3}}}\right)={\vec {r}}\otimes \mathrm {grad} (r^{-3})+{\frac {1}{r^{3}}}\mathrm {grad} ({\vec {r}})=-{\frac {3}{r^{5}}}{\vec {r}}\otimes {\vec {r}}+{\frac {1}{r^{3}}}\mathbf {1} =-{\frac {1}{r^{5}}}(3{\vec {r}}\otimes {\vec {r}}-r^{2}\mathbf {1} )}

Die beiden letzten Formeln werden z. B. bei der kartesischen Multipolentwicklung verwendet.

Als weiteres Beispiel wird das Vektorfeld

v ( ( x y ) ) = ( x + a y + a ( x + 2 a y ) 2 y ( x + 2 a y ) 2 ) {\displaystyle {\vec {v}}\left({\begin{pmatrix}x\\y\end{pmatrix}}\right)={\begin{pmatrix}x+ay+a(x+2ay)^{2}\\y-(x+2ay)^{2}\end{pmatrix}}}

angeführt, wo a eine beliebige Konstante ist. Der Gradient wird mit der vereinbarten #Konvention wie folgt aus der Richtungsableitung berechnet:

g r a d ( v ) ( p q ) = d d s v ( ( x + s p y + s q ) ) | s = 0 = d d s ( x + s p + a ( y + s q ) + a ( x + s p + 2 a ( y + s q ) ) 2 y + s q ( x + s p + 2 a ( y + s q ) ) 2 ) | s = 0 = ( p + a q + 2 a ( x + 2 a y ) ( p + 2 a q ) q 2 ( x + 2 a y ) ( p + 2 a q ) ) = ( 1 + 2 a ( x + 2 a y ) a + 4 a 2 ( x + 2 a y ) 2 ( x + 2 a y ) 1 4 a ( x + 2 a y ) ) g r a d ( v ) ( p q ) {\displaystyle {\begin{aligned}\mathrm {grad} ({\vec {v}})\cdot {\begin{pmatrix}p\\q\end{pmatrix}}=&\left.{\frac {\mathrm {d} }{\mathrm {d} s}}{\vec {v}}\left({\begin{pmatrix}x+sp\\y+sq\end{pmatrix}}\right)\right|_{s=0}\\=&\left.{\frac {\mathrm {d} }{\mathrm {d} s}}{\begin{pmatrix}x+sp+a(y+sq)+a{\big (}x+sp+2a(y+sq){\big )}^{2}\\y+sq-{\big (}x+sp+2a(y+sq){\big )}^{2}\end{pmatrix}}\right|_{s=0}\\=&{\begin{pmatrix}p+aq+2a(x+2ay)(p+2aq)\\q-2(x+2ay)(p+2aq)\end{pmatrix}}\\=&\underbrace {\begin{pmatrix}1+2a(x+2ay)&a+4a^{2}(x+2ay)\\-2(x+2ay)&1-4a(x+2ay)\end{pmatrix}} _{\mathrm {grad} ({\vec {v}})}\cdot {\begin{pmatrix}p\\q\end{pmatrix}}\end{aligned}}}

Abb. 3: Bei a=3/2 auf gleich großes Urbild skalierte Abbildungen des Kreises, die sich der Ellipse (blau) bei Radien 0,1, 0,01 und 0,001 annähern, sowie Eigenvektoren 1 (grün) und 2 (rot) mit ihren Bildern (türkis bzw. magenta).

Im Ursprung nimmt der Gradient die Form

g r a d ( v ) = ( 1 a 0 1 ) {\displaystyle \mathrm {grad} ({\vec {v}})={\begin{pmatrix}1&a\\0&1\end{pmatrix}}}

an. Die maximale Richtungsableitung ergibt sich aus dem Eigensystem des Tensors

g r a d ( v ) g r a d ( v ) = ( 1 a a 1 + a 2 ) {\displaystyle \mathrm {grad} ({\vec {v}})^{\top }\cdot \mathrm {grad} ({\vec {v}})={\begin{pmatrix}1&a\\a&1+a^{2}\end{pmatrix}}}

Er hat bei a = 3 2 {\displaystyle a={\tfrac {3}{2}}} die Eigenwerte und Eigenvektoren

λ 1 = 1 4 , v ^ 1 = 1 5 ( 2 1 ) {\displaystyle \lambda _{1}={\frac {1}{4}},\,{\hat {v}}_{1}={\frac {1}{\sqrt {5}}}{\begin{pmatrix}2\\-1\end{pmatrix}}}
λ 2 = 4 , v ^ 2 = 1 5 ( 1 2 ) {\displaystyle \lambda _{2}=4,\,{\hat {v}}_{2}={\frac {1}{\sqrt {5}}}{\begin{pmatrix}1\\2\end{pmatrix}}}

Die größte Richtungsableitung ist in Richtung v ^ 2 {\displaystyle {\hat {v}}_{2}} , die durch den Gradient auf 1 5 ( 4 2 ) {\displaystyle {\frac {1}{\sqrt {5}}}{\begin{pmatrix}4\\2\end{pmatrix}}} abgebildet wird.

Siehe auch

Literatur

  1. Bedeutungsübersicht: Gradient. Duden online, abgerufen am 28. Oktober 2020. 
  2. a b c d e f g h i j k Wolfgang Werner: Vektoren und Tensoren als universelle Sprache in Physik und Technik. Tensoralgebra und Tensoranalysis. Band 1. Springer Vieweg Verlag, Wiesbaden 2019, ISBN 978-3-658-25271-7, doi:10.1007/978-3-658-25272-4. 
  3. Hugo Sirk: Einführung in die Vektorrechnung: Für Naturwissenschaftler, Chemiker und Ingenieure. Springer-Verlag, 2013, ISBN 3-642-72313-6, Kap. 5.4 "Das Vektorfeld und der Vektorgradient". 
  4. a b C. B. Lang, N. Pucker: Mathematische Methoden in der Physik. Springer Spektrum, Berlin, Heidelberg 2016, ISBN 978-3-662-49312-0. 
  5. a b M. E. Gurtin: The Linear Theory of Elasticity. In: S. Flügge (Hrsg.): Handbuch der Physik. Band VI2/a, Bandherausgeber C. Truesdell. Springer, 1972, ISBN 3-540-05535-5, S. 10. 
  6. a b c d e Holm Altenbach: Kontinuumsmechanik. Einführung in die materialunabhängigen und materialabhängigen Gleichungen. Springer-Verlag, Berlin, Heidelberg 2012, ISBN 978-3-642-24118-5, S. 43, doi:10.1007/978-3-642-24119-2. 
  7. a b c P. Haupt: Continuum Mechanics and Theory of Materials. Springer, 2002, ISBN 3-540-43111-X. 
  8. J. Betten: Kontinuumsmechanik. Elastisches und inelastisches Verhalten isotroper und anisotroper Stoffe. 2. erw. Auflage. Springer, Berlin, Heidelberg u. a. 2001, ISBN 978-3-642-62645-6, doi:10.1007/978-3-642-56562-5. 
  9. Johannes Wandinger: Gradient, Divergenz und Rotation. (Pdf) 13. November 2017, abgerufen am 2. November 2020. 
  10. a b c Ralf Greve: Kontinuumsmechanik. Springer, 2003, ISBN 978-3-642-62463-6, S. 4, doi:10.1007/978-3-642-55485-8 (eingeschränkte Vorschau in der Google-Buchsuche).