[Section 1][Section 2][Section 3]

본 내용은 Brooks/Cole 출판사의 "Numerical Linear Algebra  by Biswa Nath Datta" 의 교재를 중심으로 이상구교수의 Matrix Analysis(행렬이론) 강의록의 내용과 합하여 성대에서 실제 강의를 하면서 만들어진 콘텐츠입니다. 디자인 및 자바프로그램 삽입과 타자, 정리는 백명국조교와 김덕선 조교가 하고 이상구교수 sglee@skku.edu 가 수정하여 마무리 하였습니다.

square65_blue.gif 1.1 Introduction

    NLA의 문제를 접근하기 위하여 필요한 여러 가지 Linear Algebra상에서 필요한 기본적인 개념들을 소개하고자 한다.

bar01_dot1x1_black.gif

square65_green.gif 1.2 Vector

    • Vector : 실수들을 순서대로 배열한 집합
      • : vector의 component라고 부른다.
      • 실제로 Linear Algebra상에서 Vector의 표기는 으로 표기한다. 이러한 vector를 column vector라고 하고 이것의 transpose를 취한 row vector라 한다.
    • 위와 같은 개의 실수 component를 가지는 vector를 모두 모아둔 것을 이라 하며 이것은 (n 차원) vector space over 이라 한다.
    • 여기서의 vector sum은 다음과 같은 component 끼리의 합으로 정의하자.
      • 가  scalar 라면
    • 내적(Inner Product)는 다음과 같이 정의하자.
      • vector의 길이 :   : 이것을 Euclidean length라 한다.
    • 에  있는 vector들의  부분집합 linearly independent 집합이라는 의미는 을  만족하는 0 이 아닌 scalar들인  이 존재한다는 것과 동치이다. linearly independent가 아니라면 linearly dependent 라고 한다. 그리고 linearly independent인 vector들의 1차 결합들을 모두 모은 집합을 span 이라 하고 span이라고 한다.

bar03_dot3x3_black.gif

    dia_bluve.gif Example 1.2.1

    단위 벡터 ()  들의 집합은 linearly independent이다. 이유는 이므로 모든 스칼라는 이어야만 한다.  따라서  정의에 의해 linearly independent 집합이다.

bar03_dot3x3_blue.gif

    dia_bluve.gif Example 1.2.2

    Vector 은 linearly dependent 이다.   이라고 하면,   ,

    라는 0이 아닌 해가 존재하므로 이들은 linearly dependent이다.

bar03_dot3x3_darkyellow.gif

    임의의 두 vector ,  가 있을 때 두 vector 사이의 각 는 다음과  같은 식으로 정리할 수 있다.

     만일 라면 이 되며 이 경우 두 vector는 orthogonal하다고 하며 표시는  로 한다.

    집합 안의 vector들의 부분집합이라고 하자.  만일 가 다음과 같은 조건을 만족하면 이 집합을 subspace라고 한다.

      • (, 는 임의의 scalar)

    당연히 은  자신의 subspace 이기도 하다.

    또한 집합 의 vector들 중 linearly independent하고 그 vector들의 span이 가 되는 집합중에 가장 적은 원소를 가지는 집합을 의 basis라 하고 (즉, minimal spanning set) 그 원소의 개수를 dim로 표기하고, 차원(Dimension) 이라고 한다.

    집합 , 의 subspace라고 하자.  두 집합 안의  임의의 원소 , 들이 의 관계를 가진다면 , 가 orthogonal하다고 하고, 또한 로 표시한다.

    bar01_dot1x1_blue.gif

square65_orange.gif 1.3 Matrices

    임의의 차원 vector들을 개의 column vector로 생각하여 아래와 같이 나열한 것을 matrix라고 한다.

    이 경우 이 행렬은 의 크기를 가진다고 말한다. 만일 row와 column의 개수가 같으면 이 행렬을 square matrix라 하고, 주대각선 성분이 모두 1이고 그 이외의 값이  모두 0인 행렬을 특별히 항등행렬(단위 행렬, identity matrix)라고 한다.

    행렬 상의 (벡터) sum과  scalar 곱은 아래와 같이 정의된다.

    행렬의 크기를 이라 하고  행렬의 크기를 라 하자. 이 경우 두 행렬의 곱을 라 할 때 이 행렬의 크기는 가 되며 이 연산은 아래와 같이 정의된다.

    • , ,

    만일 가 column vector라면  또한 column vector가 된다. 또한 가 모두 column vector라면 는 행렬을 만들 수 있다.

bar03_dot3x3_black.gif

    dia_bluve.gif Example 1.3.1

    , 라고 하면, outer product , inner product는 가 된다.

bar03_dot3x3_blue.gif

    행렬 의 transpose는   로 표시하고, 행렬 의 크기를 으로 표시하면, 크기의 행렬로서, 대각성분을 중심으로 행과 열을 바꾼 행렬로서, 다음과 같이 표기한다.

    또한 행렬의 연산에서는 교환법칙(commutative rule)이 성립하지 않는다. 따라서 임의의 행렬 ,  에 대해서 일반적으로 을 만족한다.

bar03_dot3x3_darkyellow.gif

    dia_brown.gif Tips

    임의의 행렬 , 에 대하여

    이다.

 

 

 

A Review of Required  Linear Algebra Concepts 

 

patrn04c.gif 1.1 Introduction

 

patrn04c.gif  1.2 Vectors

  =    ; v의 length

 linearly independent,   if  implies   

1.2.1 Orthogonality of Vectors and Subspace

  

  Two vectors u and v are orthogonal     if = 0 ( · = 0)

  S : subspace of      if        and scalars c_1 , c_2

  dimension, basis

 

 

patrn04c.gif 1.3 Matrices

 1.3.1 Basic Concept

  •   outer product,   inner product
  •    : transpose of A
  •   A  is called symmetric if = A
  •    : we can perform addition, scalar multiplication, and matrix multiplication in the usual way
  •   block diagonal matrix

 

 Cofactor expansion :

   detA = + + •••+ 

 

radial02_blue.gif Theorem 1.3.1

  1. det(A)=det( )

  3.  det(AB)=det(A)det(B)

  4. If any rows or column of A are identical, then det(A) = 0

  5. If B is a matrix obtained from A by interchanging two rows or two columns, then det(B) = -det(A)

  6. The determinant of a triangle matrix is the product of its diagonal entries

  •   characteristic polynomial = det
  •   eigelvalue :   The zero of ()=0

 

radial02_blue.gif Theorem 1.3.2

   is an eigenvalue of A iff nonzero vector x(called eigenvector) s.t Ax=x

  •   defective matrix, if nn matrix A having fewer than n linearly independent eigenvector

 

 1.3.2 Range and Null Space

  R(A)={ b b = Ax for some x }, range of A

  N(A)={ x Ax = 0}, null space of A

   = { , where S is a subspace of } : orthogonal complement of S

  nullity of A : dimension of N(A)  =: null(A)

 

 1.3.3 Rank of a Matrix

radial02_blue.gif Theorem 1.3.3

  The rank of a matrix  m*n matrix A is the dimension of the column space of A

  1. rank(A) = rank( )

  2.   rank(A) + null(A) = n

(Ex)    is rank(A) = 1, null(A) = 1

 

 1.3.4 The Inverse of Matrix

radial02_blue.gif Theorem 1.3.4

  For nn matrix A, the following are are equivalent

   1. A is nonsingular

   2. det(A) is nonzero

   3. rank(A) = rank( ) = n

   4. N(A) = {0}

   5.  

   6.A has all linearly independent rows and columns

   7.The eigenvalues of A are all nonzero

  

 1.3.5 Similar Matrices

  A, B : similar   if   T st  = B

 1.3.6 Orthogonality and Projections

  V={ } are called orthonormal, if set V is · = 0 (orthogonal),  and  · = 1

radial02_blue.gif Theorem 1.3.5

  V={ } , where V is an orthonormal basis for S. Then is the unique orthogonal projection onto S

 

 1.3.7 Projection of a Vector onto the Range and Null Space of a Matrix

  Let S be a subspace of . then any vector b can be written as mal

 

patrn04c.gif  1.4 Some Special Matrices

 1.4.2 Orthogonal Matrix

  U is (real) orthogonal if

The following two proprties of orthogonal matrices are attractive for numerical compuations

1. The inverse of an orthogonal matrix  is just its transpose :  =

2. The product of two orthogonal matrices is an orthogonal matrix

 

 1.4.3 Permutation Matrix

  A nonzero square matrix P is called a permutation  matrix if there is exactly one nonzero entry   

 in each row and column that is 1 and if the rest are all zero

1. The inverse of permutation matrix P is its transpose, and the transpose is also permutation matrix.

2. The product of two orthogonal matrices is a permutation matrix and is, therfore,  orthogonal.

     

 1.4.4 Hessenberg (almost triangular) Matrix

  A square matrix A is called an upper Hessenberg, if = 0 for i >j+1,  

 

 An  upper Hessenberg matrix is called unreduced, if   for j = 2,3, ... n

 Some Useful Properties

   1. Every square matrix A can be transformed to an upper(or lower) Hessenberg matrix by means of n orthogonal similarity ; that is, given a real matrix A, there exist an orthogonal matrix U s.t   A = H (where H is an Hessenberg matrix)

   2. If A is symmetric, then the transformed Hessenberg matrix as obtained 1 is symmetric tridiagonal

   3. An aribitary Hessenberg matrix can always be partition into block s.t each diagonal block is an unreduced Hessenberg matrix

 

 1.4.5 Companion Matrix

  An unreduced Hessenberg matrix of the form C =

  is called an upper compainion matrix

 1.4.6 Nonderogatory Matrix

  A matrix A is nondegratory if A is Similar to a compainion matrix; that is, A is   nonderogatory

if there exists a nonsingular T st  TA  is a companion matrix.

 1.4.7 Diagonally Dominant Matrix

     

  strictly diagonally dominant matrix

 1.4.8 Positive Definite Matrix

  A symmetric matrix A is positive definite if A >0

   A : Quadratic form ()

  A : positive definite iff 1. all eigenvalues are positive

                                      2. all leading principal mininors  are positive

                           6. A symmetric diagonally dominant matrix with positive diagonal entries is positive definite

 

 

patrn04c.gif  1.5 The Cayley-Hamilton Theorem

 

radial02_blue.gif Example 1.5.1

 Let

 

  = 0

 

 

patrn04c.gif  1.6 Singular Values

 Eigenvalue of nn symmetric matrix A are real, positive. This eigenvalues are called the singular values of A

  Every  mn matrix A can be decomposed into

    A = UD

 where and   are orthogonl and D is an mn "diagonal" matrix.

 This decomposition is called the singular value decomposition

 

 

patrn04c.gif  1.7 Vector and Matrix Norms

 1.7.1 Vector Norm

  Vector norm is real valued continuous function of the components ,, ... of x, it has the following proprerties:

                     1. > 0  for all nonzero vector x. = 0 if x is a zero vector.

                     2. < x on ,   scalars .

                     3.    x, y in .

 

  Holder norm is defined by

  Cauchy - Schwarz inequality :

1.7.2 Matrix Norm

  Subordinate Matrix Norm :

  The Frobenius Norm :

  The spectral Norm :

 

patrn04c.gif  1.8 Norm Invariant properties of Orthogonal Matrices

 

radial02_blue.gif Theorem 1.8.1

 Let O be (real) orthogonal matrix. Then = 1

 

radial02_blue.gif Theorem 1.8.2

 

 

radial02_blue.gif Theorem 1.8.3

 

 

 

patrn04c.gif  1.9 Review and Summary

  1. Special matrices : Diagonal, trianglular, orthogonal, permutation, Hessenberg, diagonally dominant, and positive definite matrices and their important properties were discussed

 2. Vector and matrix norms: Some important matrix are row-sum norm, column-sum norm, Frobenius norm, and spectral norm. The relationship between different norms is stated. Of special importance is the norm property of orthogonal matrices(THM 1,2,3)

 The results say that

  (a) the spectral norm an orthogonal matrix is 1, and

  (b) the spectral and the Frobenius norms remain invariant under matrix multiplication

 

 

 

LA Review for Matrix Analysis(행렬이론)

by Sang-Gu Lee

 

  Chapter 0  Review and miscellanes (복습) --  여기서 복습할 내용

            0.0  Introduction (서론)

            0.1  Vector spaces (벡터공간)

            0.2  Matrices (행렬)

            0.3  Determinents (행렬식)

            0.4  Rank (계수)

            0.5  Nonsingularity (가역행렬)

            0.6  The usual inner product (내적)

            0.7  Partitioned matrices (block 행렬)

            0.8  Determinents again (행렬식)

            0.9  Special types of matrices (특수행렬)

            0.10 Change of basis (기저변환)


 < 아래는  Horn 과 Johnson 교수의 MA 책  목차>

 

    Chapter 1.  Eigenvalues, eigenvector, and similarity (고유값, 고유벡터, 닮음변환)

            1.0  Introduction (서론)

            1.1  The eigenvalue-eigenvector equation  (고유값, 특성방정식)

            1.2  The characteristic polynomial (특성다항식)

            1.3  Similarity (닮음변환)

            1.4  Eigenvectors (고유벡터)


 

   Chapter 2. Unitary equivalence and normal matrices (유니타리 동치와 정규행렬)

            2.0  Introduction (서론)

            2.1  Unitary matrices (유니타리 행렬)

            2.2  Unitary equivalence (유니타리 동치)

            2.3  Schur's unitary triangularization (Schur 정리)

            2.4  Some implications of Schur's theorem (Schur정리의 의미)

            2.5  Normal matrices (정규행렬)

            2.6  QR factorization and algorithm (QR분해와 알고리즘)


 

   Chapter 3. Canonical forms (표준형)

            3.0  Introduction (서론)

            3.1  The Jordan canonical form: a proof (Jordan 표준형:증명)

            3.2  The Jordan canonical form: some observations and applications (Jordan 표준형의 응용)

            3.3  Polynomials and matrices: the minimal polynomial (다항식과 행렬: minimal 다항식)

            3.4  Other canonical forms and factorizations (다양한 표준형과 행렬분해)

            3.5  Triangular factorizations (삼각화분해)



   Chapter 4. Hermitian and symmetric matrices (Hermite 행렬과 대칭행렬)

            4.0  Introduction (서론)

            4.1  Definition, properties,and characterizations of Hermitian matrices (Hermite 행렬의 정의, 성질, 특징)

            4.2  Variational characterizations of eigenvalues of  Hermitian matrices (Hermite 행렬의 고유값의 성질)

            4.3  Some applications of the variational characterizations

            4.4  Complex symmetric matrices (복소대칭행렬)

            4.5  Congruence and simultaneous diagonalization of Hermitian and symmetric matrices

            4.6  Consimilarity and condiagonalization


 

  Chapter 5. Norms for vectors and matrices (벡터와 행렬의 노름)

            5.0  Introduction (서론)

            5.1  Defining properties of vector norms and inner products (노름벡터의 성질과 내적)

            5.2  Examples of vector norms (벡터노름의 예)

            5.3  Algebraic properties of vector norms (벡터노름의 대수적성질)

            5.4  Analytic properties of vector norms (벡터노름의 해석학적성질)

            5.5  Geometric properties of vector norms (벡터노름의 기하학적성질)

            5.6  Matrix norms (행렬노름)

            5.7  Vector norms on matrices (행렬에 대한 벡터노름)

            5.8  Error in inverses and solution of linear systems (역행렬과 선형연립방정식의 해의 오차)


 

  Chapter 6. Location and perturbation of eigenvalues (고유값의 위치와 perturbation)

            6.0  Introduction (서론)

            6.1  Gershgorin discs (Gersgoren 원판)

            6.2  Gershgorin discs - a closer look (Gershgorin 원판:)

            6.3  Perturbation theorems

            6.4  Other inclusion regions


 

  Chapter 7. Positive definite matrices (양의 정부호행렬)

            7.0  Introduction (서론)

            7.1  Definitions and properties (정의와 성질)

            7.2  Characterizations (특성)

            7.3  The polar form and the singular value decomposition (극형식과 SVD)

            7.4  Examples and applications of the singular value decomposition (SVD의 예와 응용)

            7.5  The Schur product theorem (Schur의 행렬곱정리)

            7.6  Congruence: products and simultaneous diagonalizations (합동:곱과 동시대각화)

            7.7  The positive semidefinite ordering (양의 반정부호의 배열)

            7.8  Inequalities for positive definite matrices  (양의 정부호행렬의 부등식)


 

  Chapter 8. Nonnegative matrices (음이 아닌행렬)

            8.0  Introduction (서론)

            8.1  Nonnegative matrices - inequalities and generalities (음이 아닌 행렬-부등식과 일반화)

            8.2  Positive matrices (양 행렬)

            8.3  Nonnegative matrices (음이 아닌 행렬)

            8.4  Irreducible nonnegative matrices (기약인 음이 아닌 행렬)

            8.5  Primitive matrices - 별도 자료

            8.6  A general limit theorem (일반 극한정리)

            8.7  Stochastic and doubly stochastic matrices


  Appendices (부록)

            A  Complex numbers (복소수)

            B  Convex sets and functions (볼록집합과 함수)

            C  The fundamental theorem of algegra (대수학의기본정리)

            D  Continuous dependence of the zeroes of a  polynomial on

                its coefficients (다항식의계수가 영인것에 관한 종속적연속)

            E  Weierstrass's theprem (Weierstrass의 정리)



  References (참고문헌)

   Notation (표기법)

   Index (찾아보기)

 

 

Chapter 0. Review and miscellanea

patrn04c.gif  0.1  Vector space

  0.1-a 서론                                        - MA    Johnson 111 p.

         기하학적으로 벡터 v는 원점 O를 시점으로, 끝을 p점으로 향하는 선분  유일하게 표시된다.

         만일 v가 평면벡터이고 점 P의 좌표가 (a,b)이면, 에서는 V를 다음과 같이 나타낸다.

                              

         마찬가지로 v가 공간의 벡터이고 점 p의 좌표가 (a, b, c)이면, 에서는 v를 다음과같이 나타낸다.

                               

  0.1-b 벡터공간으로서의 의 성질

         은 성분이 실수인 차원 벡터들의 집합이다. 즉,

                    ,

          만일 의 원 x와 y가

                           

          와 같으면, x+y는 다음과 같이 정의된다.

                            

          또 가 실수이면 벡터 는 다음과 같이 정의된다.

                                   

 

radial02_blue.gif 정리 0.1.1

만일 x, y, z가 의 벡터이고 a, b가 스칼라이면 다음이 성립한다.        

      (닫힘 성질- 기본 법칙)

         c1) x+y는 의 원소이다.(+에 닫혀 있다)

         c2) ax는 의 원소이다.(스칼라 곱에 닫혀 있다)

      (벡터 덧셈에 관한 성질- 연산법칙 일부)

         a1) x + y = y + x (+에 교환법칙 성립)

         a2) x + (y + z) = (x + y) + z (+에 결합법칙 성립)

 

 

                                          ( I.L.A;Introductory Linear Algebra )

        Vector space란?

         이                                              

          2개의 기본법칙과 8개의 연산법칙이 성립할 때 Vector space 라 한다. 즉,

            1. 덧셈에 관한 가환군 (5가지 조건)

            2. Scalar 곱셈에 closed

              곱셈 identity 존재

              3개의 분배법칙

          

          어떤 원소의 집합 V와 스칼라의 집합 S가 있어서 V에는 가법이 정의되어 있고, 또 V의 원소에 S의 원소를 곱하는 스칼라곱이 정의되는 것.

            

radial02_blue.gif 정리 0.1.2

 만일 x, y, z가 의 벡터이고 a, b가 스칼라이면 다음이 성립한다.       

       (닫힘 성질)

          c1) x+y는 의 원이다.

          c2) ax는 의 원이다.

       (가법에 관한 성질)

          a1) x + y = y + x

          a2) x + (y + z) = (x + y) + z

          a3) 은 영벡터 를 포함하고 의 임의의 원 x에 대하여

                         x + = x 이다.

          a4) 의 모든 벡터 x 에 대하여 x + (-x) = 인 벡터 -x가 존재한다.

        (스칼라곱에 관한 성질)

          m1) a(bx) = (ab)x

          m2) a(x + y) = ax + ay

          m3) (a +b)x = ax +bx

          m4) 의 모든 x 에 대하여 1x = x 이다.

 

 0.1.1 Scalar field (스칼라체)

          Scalar field란?

             1. 가 가환군

             2. 가 가환군

             3. 분배법칙

 0.1.2 Vector spaces (벡터공간)

 

 0.1.3 Subspaces and span (부분공간과 생성)

          subspace S of vector space V : S ∈ V

          span of S = <S>

          spanning sets (생성집합):I.L.A 142p.

 0.1.4 Linear dependence and independence (일차종속과 독립)            

          Linear dependence: A set of vectors in a vector space is said to be

          if there exist coefficient , not all 0, in the underlying scalar field F such that

                                      

         Linear independence: A set of V that is not linear dependent over F is said to be

 

         m차원 벡터의 집합 이 있을 때 모두가 0이 아닌 스칼라 가 존재하여 를 만족하면, 이 벡터의 집합은 일차종속이라고 한다.

         집합 가 일차종속이 아닐 때, 이 집합은 일차독립이라고 한다.  다시 말하면 를 만족하는 스칼라가 오직

         인 경우일뿐일 때 , 이 집합은 일차독립이다.

                                                                                                                                                                                                            - add 75p

radial02_blue.gif Example 0.1.1

 은 일차종속이다.

   (풀이1)

  

    위식을 연립하여 풀면     ∴비자명해를 가지므로 일차종속.

   는 자유변수 이므로 예를들어 =1 이라하면 이므로 일차결합으로 표시하면 이다.

   (풀이2)

   의 전치행렬을 취할 때

  =(-2+30)-(20+8)=28-28=0  이므로 일차종속.

 

radial02_blue.gif Example 0.1.2

 은 일차독립이다.

  (풀이1)

 

   위식을 연립하여 풀면 ∴자명해를가지므로 일차독립

               

  (풀이2) 의 전치행렬을 취할 때

  =(-3-1+8)-(-2-6+2)=4+6=10≠0 이므로 일차독립.

 

         S가 무한일 경우 ∀⊂S,     such that                       

 

 0.1.5 Basis (기저)

         W를 의 영아닌 부분공간이라고 하자. 이때 일차독립인 W의 생성집합을 W의 기저라고 한다.

 0.1.6 Extension to a basis (기저의 확장)

         Vector space V의 모든 Linear independent set은 V의 basis로 extend 될 수있다.

         i.e finite 인 경우는 induction으로 쉽게 증명, infinite 인 경우는 다소 제한적

 0.1.7 Dimension (차원)

         vector space V의 어떤 basis 가 finite 원 set 이면 모든 다른 basis도 같은수의 원을 갖는다. 이수를 V의 dimension 이라한다.

         만일 그 basis가 유한개가 아니면 무한차원 이라 한다.

         ex: ,    ,  SOB. 

 0.1.8 Isomorphism (동형사상)

         동형사상 는 1-1이고 위로 대응하는 준동형사상(homomorphism)이다.

         일반적 기호는 이다.

         1-1, onto. homo:

        : Any n-차원 V.S over 스칼라 fied F is isomorphic to .

 

patrn04c.gif  0.2 Matrices (행렬)

 0.2.1 Rectangular arrays (직사각배열)

         A is an -by- array of scalars from a field F.

         If , the matrix is said to be square.

        The set of all -by- matrices over F is denoted by , and is abbreviated to .

        

 0.2.2 Linear transformation (1차변환)

         :    ⇒ =

         Matrix 와 linear transformation : 과의 관계는  iff .

 0.2.3 Vector spaces associated with a given matrix or linear taansformation

          (행렬과 1차변환의 벡터공간결합)

         matrix와 vector space 사이의 관계: :

         range of

         nullspace of 그러면,

 

radial02_blue.gif Theorem 0.2.1 Rank-Nullity Theorem 

 n = dim(null space of A) + dim(range of A)

    = nullity of A + rank of A

 

 (증명) Exs

 

        * If A is an matrix, then

        = rank(A) + nullity(A).    Johnson 353p

                

 0.2.4 Matrix operation (행렬연산)

       + : 가환   

       ?: 비가환→ (sylvester 1851 notation 소개)

                        (cayley 1855 용어 notation 연산정의)

 0.2.5 The transpose and Hermitian adjoint (전치와 Hermitian 수반)

              

     

 0.2.6 Metamechanics of matrix multiplication (행렬곱셈의 초역학)

     

     ①

     ②

     ③ :

           Let then  

           즉 의 column 들은 의 column space 안에 있다.

          (∵ 의 column 들의 1차결합이다.)

               Similarly, 의 row들은 의 row space 안에 있다.

             

     Notation

       : { {1,2, ..., m} 의 모든 strictly increasing subsequence of length r }

       개수는

       Let

       : 의 α-rows 와 β-col‘s 로 이루어진 submatrix of

       : 의 α-rows 와 β-col‘s를 제외한 나머지 rows 와 col's 로  이루어진 size 의 의submatrix

       :

       :

 

patrn04c.gif  0.3 Determinents (행렬식)

 0.3.1 Laplace expension (Laplace 전개)

     

             

       성립 : .              

                .               (기타는 Det Fact ref)

 0.3.2 Alternating sum (교대합)

       Alternating sum으로의 determinent

     

    

 0.3.3 Elementary operation (기본연산)

     ① rows 의 change

     ② row  에 상수 c배

     ③ 한 row 에 다른 row 의 상수배를 더하는것

     ④ RREF

     ⑤ multiplicative

     ⑥ 의 함수적 성격분석

          (ⅰ) multilinear(다중선형)

          Alternating 가 sign변화)

          Normalized : 인 유일한 함수

      : RREF(A) 의 non zero row 들이 A의 row space에 대한 basis를 form 한다.

 0.3.4 Row-reduced echelon form (사다리꼴형 행축소) : RREF

 0.3.5 Multiplicativity (곱셈,승법)

 0.3.6 Funtional characterization of the determinent (행렬식의 함수특성) 

 

patrn04c.gif  0.4 Rank (계수)

 0.4.1 Definition (정의)

      rank(A)는 A의 maximal Linear independent rows(or col's)의 수

 0.4.2 Rank and linear systems (계수와 선형연립방정식)

    는 0,1 또는 무한히 많은 수의 해를 가질수 있다.

     해가존재할 경우 위의 연립방정식 system이 consistent 하다고 한다.

    가 consistent   ?   rank[A:b]=rankA

     [A:b] : augment matrix

 0.4.3 RREF and rank (RREF 와 계수)

      RREF(A) 의 nonzero rows의 수가 rank 이다.

 0.4.4 Characterizations of rank (계수의특성)

 0.4.5 Rank inequalities (계수부등식)

                                                                                                                                                                         참고서적: Marvin Marcus and Minc

      a) Let

      b) Let then

          (rank(A) + rank(B))-k ≤ rank(AB) ≤ min{rankA, rankB}

      c) ⇒ rank(A+B) ≤ rankA + rankB

      d) (Frobenius)

         그러면

          rankAB + rankBC ≤ rankB +rankABC 증명하여라.

 0.4.6 Rank equalities (계수등식)

      a) If 이면 rank = rank = rank = rank 증명하여라.

      b) , 가 nonsingular 이고 이면

           rankAB = rankB = rankBC = rankABC.

      c) If then rankA = rankB

          iff ∃ nonsingular , → B = XAY.

          (증명) ⇒)

                    ←) rank(XAY) ≤ min{ rank(X), rank(AY)}

                                          =  min{ m , rank(AY)}

                                         ≤ rank(AY)

                                         ≤ min{ rank(A), rank(Y)}

                                         ≤  rank(A)

                                         =  rank((XAY))

                                         ≤ rank(XAY)

     d) 만일 ⇒ rank() = rank(A)

         * rank (PQ) + rank (QR) ≤ rank (Q) +rank (PQR)

           Recall: dimF(K)=dimK-dim(Ker F∩K)

 

radial02_blue.gif Lemma 0.4.1

 dimB[kerAB] = rank (B) - rank (AB)

       pf) dim(kerB) = η - rank (B)

            dim(kerAB) = η - rank (AB)

            since kerB ⊆ kerAB,

            dimB[kerAB] = dim(kerAB) - dim(kerB)

                                 = [η - rank(AB)] - [η - rank(B)]

                                 = rank(B) - rank(AB)

            Main proof 는

               ① dimQ[kerPQ] = rank(Q) - rank(PQ)

               ② dimQR[kerPQR] = rank(QR) - rank(PQR)을 이용하여

      

      Show that dimQR[kerPQR] ≤ dimQ[kerPQ]

           pf) Q[kerPQ] = {Q: kerPQ} ⊇ {QR: R ∈ kerPQ}

                                = {QR: ∈ kerPQR}에 의하여

               dimQR[kerPQR] ≤ dimQ[kerPQ] 임을 알게된다.

               즉 rank(QR) - rank(PQR) ≤ rank(Q) - rank(PQ)

               rank(QR) + rank(QR) ≤ rank(Q) + rank(PQR)

      

      Show that rank(A) = rank()

           pf) [Show ker(A) = ker()]

                pf)

 

patrn04c.gif  0.5 singularity (비특이한)

 

patrn04c.gif  0.6 The usual inner product (내적)

    0.6.1 Definition (정의)

    0.6.2 Orthogonality (직교성)

    0.6.3 The Cauchy-Schwarz inequality (Cauchy-Schwarz 부등식)

    0.6.4 Gram-Schmidt orthonomalization (Gram-schmidt 정규직교화)

    0.6.5 Orthonomal bases (정규직교기)

    0.6.6 Orthogonal complements (직교보공간)

 

patrn04c.gif  0.7 Partitioned matrices (블록행렬)

    0.7.1 Submatrices (부분행렬)

    0.7.2 Partition and multiplication (블록행렬과 행렬 곱셈)

    0.7.3 The inverse of a patitioned matrix (블록행렬의 역행렬)

    0.7.4 The inverse of a small-rank adjustment (작은계수 조정이 역행렬에 미치는 영향)

 

patrn04c.gif  0.8 Determinants again (행렬식)

    0.8.1 Compound matrices

    0.8.2 The classical adjoint and the inverse (adjoint와 역행렬)

    0.8.3 Cramer's rule (Cramer의 공식)

    0.8.4 Minors of the inverse (역행렬의 minor)

    0.8.5 Schur complements and determinantal formula (schur보수와 행렬식공식)

    0.8.6 Sylvester's identity (Sylvester의 항등식)

    0.8.7 Cauchy-Binet formular (Cauchy-Binet 공식)

    0.8.8 Relations among minors (소행렬식 사이의 관계)

 

patrn04c.gif  0.9 Special types of matrices (특수행렬)

     0.9.1 Diagonal matrices (대각행렬)

     0.9.2 Block diagonal matrices (블록대각행렬)

     0.9.3 Triangular matrices (삼각행렬)

     0.9.4 Block triangular matrices (블록삼각행렬)

     0.9.5 Permutation matrices (치환행렬)

     0.9.6 Circulant matrices (순환행렬)

     0.9.7 Toeplitz matrices (Toeplitz 행렬)

     0.9.8 Hankel matrices (Hankel 행렬)

     0.9.9 Hessenberg matrices (Hessenberg 행렬)

     0.9.10 Tridiagonal matrices (삼중대각행렬)

     0.9.11 Matrices and Lagrange interpolation (행렬과 Lagrange 보간법)

 

patrn04c.gif  0.10 Change of basis (기저의 변화)

 

            <별도 강의록>

Copyright © 2002, Made by SML(Sungkyunkwan Univ. Linear algebra Lab.), All rights reserved.