Linear Algebra (22) 썸네일형 리스트형 Complex eigenvalues - conjugation, linear transformation Complex eigenvalues에는 매우 특이한 성질이 있다. 1. Eigenvalues간의 conjugation이 있다. 2. Eigenvectors간의 conjugation이 있다. 따라서 하나의 eigenvalues, eigenvectors를 구한다면, 다른 eigenvalue, eigenvector를 구할 수 있다. C라는 matrix가 linear transformation 중 rotation을 하는 역할이라고 생각해보자. 이때 C=P-1AP라고 할 때, C는 eigenvalues = a - bi의 형태에서 a와 b로 이루어진 matrix 형태가 된다. 그리고 A와 C는 similar한 matrix이다. C의 모습과 eigenvalue의 크기에 따라서 Ax의 형태를 무한히 linear tra.. Diagonalization Diagonalization 1. A = PDP-1 로 표현되는 것을 말한다. 2. P는 invertible하고 linearly independent한 n개의 eigenvectors들이 columns에 위치한다. 3. D는 diagonal matrix로 diagonal term이 eigenvalues이다. The charateristics equation - similarity Similarity의 정의는 A = PBP-1로 표현되는 matrix A와 B가 서로 같은 eigenvalues를 가진다는 것이다. 이것을 바로 similar라고 표현한다. 단 eigenvectore가 같진 않다!! 5차 방정식 이상에서는 charateristics equation을 구하는 것이 매우나 어려운 일이라고 한다. 그렇기 때문에 eigenvalue를 구하고, eigenvalues를 가지고 charaterisrics eqution을 구하는 순서로 많이 진행된다고 하는데, 여기서 근사하게 eigenvalues를 구하는 algorithm이 QR이다. 수치해석학 부분에서 자세하게 배운다고 한다. Eigenvectors and Eigenvaules Eigenspace는 zero vector를 포함하고 있는 것이다. 따라서 zero vector가 안되는 eigenvector와는 다른개념이다! Triangular matrix의 경우, diagonal term이 eigenvalues이다. 왜냐하면, charateristics equation을 만들 때 그 형태가 nontrivial solution이어야 하기 때문이다. Cramer's Rule and Linear Transformation Cramer's Rule로 linear equation을 푸는 방법! 이걸 보고나서, 매우 놀랐던 기억이 난다..ㅎㅎ Cramer's Rule를 적용해서, Cofactor를 이용한 determinant 계산 방법이다. 시험문제에서 자주 나온다(?) 어떤 특정한 도형의 넓이를 구할 때, 간단히 determinats의 성질을 이용해서 바로 넓이를 계산할 수 있다. 이건 매우 유용한 것 같다. Linear Transformation을 이용하여서 변환된 도형의 넓이를 구하는 방식인데, 매우 간단하다. T(x)라는 transformation function에 이용되는 matrix A가 있다면 위와 같이 detAB로 표현이 되므로, detAB = (detA)(detB) = (detA)*(area of S)가 된다... Properties of Determinats 개인적으로 가장 중요한 성질이라고 생각하는 부분 중 하나다. Determinants를 구할 때, matrix A를 echelon form으로 만든 후, diagonal의 성질을 이용해서 구한 determinants와 A로 부터 바로 계산한 detA의 값이 같다는 성질!! Introduction to Determinants Cofactor의 정의이다. 나중에 Invertible matrix를 이용할때나 다른 곳에 이용되므로 잘 기억하자. (그렇게 효율적인 방법은 아니지만 알면 좋다) elementary row operations과 matrix A를 이용해서 determinant를 구하는 것이다. 기본 invertible 정의에 의해서 det(AB) = detA * detB 이렇게 생각할 수도 있지만, 상당히 이 부분이 중요하다. Dimension and Rank - Dimension, Rank, B-coordinates * 본 글은 선형대수학 복습을 상기시키기 위한 글로, 설명이 매우 부족할(?) 수 있습니다. B-coordinates는 Basis의 좌표계를 의미하는 것이다. 즉 상대적인 좌표계의 의미라고 생각하면 된다. (Basis space 안에서) 위의 예제를 보면 x라는 항목은 basis를 구성하는 v1, v2의 벡터에 의해서 상대적인 좌표 (2,3)을 갖는다. -> 이런 의미로 해석 가능 Rank는 pivot의 개수! Dimension은 차원의 개수(?) dim Nul A의 경우는 null space를 구성하는 벡터의 개수를 의미하기 때문에, free variables의 개수가 된다! 앞의 부분의 inverse matrix와 이어진다. (추가적인 성질) Subspaces - Col A, Nul A, Basis * 본 글은 선형대수학 복습을 상기시키기 위한 글로, 설명이 매우 부족할(?) 수 있습니다. Col A: column space의 linear combination으로 나타낼 수 있는 공간(집합) Nul A: Ax = 0 꼴의 homogeneous equation의 해로 나타낼 수 있는 공간(집합) 예전 수업에서 배울 때, Span과 Basis 개념이 헷갈려서 죽을 것 같았던(?) 기억이 난다. Span과 Basis는 vector들의 집합으로 이루어진 공간을 의미하는건 맞다! 근데 큰 차이점이 있다. Span을 구성하는 벡터들은 linearly dependent해도 된다! (possible) 그러나 Basis를 구성하는 벡터들은 linearly independent해야한다! (must) 이것이 가장 큰 .. Matrix Factorization - LU Factorization * 본 글은 선형대수학 복습을 상기시키기 위한 글로, 설명이 매우 부족할(?) 수 있습니다. L: a unit lower triangular matirx U: echelon form LU factorizaiton을 수행하면 매우 간편하다. LUx = b 연산에서, Ux를 y로 치환한다면, Ly = b와 Ux = y의 방정식을 푸는 꼴이 된다. 알고리즘을 설명하면, 먼저 A를 elementary row operations을 통해서 echelon form으로 만들어준다. 이 form이 U가 된다. 그리고, elementary row operations을 수행하기 위해 곱해준 여러 E matrices를 inverse를 취하면 L이 된다. 밑에 예제를 보면 더욱 이해가 편하다. Elementary row ope.. Partition matrix (block matrix) * 본 글은 선형대수학 복습을 상기시키기 위한 글로, 설명이 매우 부족할(?) 수 있습니다. Block matrix가 만약 upper triangular 모양이라면, inverse matrix 연산을 수행할 수 있다. Characterization of Invertible Matrix * 본 글은 선형대수학 복습을 상기시키기 위한 글로, 설명이 매우 부족할(?) 수 있습니다. 1. A가 Invertible 하다 2. CA = I 3. Ax = 0은 trivial solution이다. (A는 n pivot positions을 가짐) 4. A has n pivot positions. 5. A is row equivalenet to the I. 6. AD = I 7. Ax = b has at least one solution for each b. (unique solution을 가진다고 표현하는게 더 정확) 8. The columns of A span Rn. 9. Linear transformation onto.(n pivor position) 10. The columns of A form.. 이전 1 2 다음