본문 바로가기

MATH

(28)
Introduction to Determinants Cofactor의 정의이다. 나중에 Invertible matrix를 이용할때나 다른 곳에 이용되므로 잘 기억하자. (그렇게 효율적인 방법은 아니지만 알면 좋다) elementary row operations과 matrix A를 이용해서 determinant를 구하는 것이다. 기본 invertible 정의에 의해서 det(AB) = detA * detB 이렇게 생각할 수도 있지만, 상당히 이 부분이 중요하다.
Dimension and Rank - Dimension, Rank, B-coordinates * 본 글은 선형대수학 복습을 상기시키기 위한 글로, 설명이 매우 부족할(?) 수 있습니다. B-coordinates는 Basis의 좌표계를 의미하는 것이다. 즉 상대적인 좌표계의 의미라고 생각하면 된다. (Basis space 안에서) 위의 예제를 보면 x라는 항목은 basis를 구성하는 v1, v2의 벡터에 의해서 상대적인 좌표 (2,3)을 갖는다. -> 이런 의미로 해석 가능 Rank는 pivot의 개수! Dimension은 차원의 개수(?) dim Nul A의 경우는 null space를 구성하는 벡터의 개수를 의미하기 때문에, free variables의 개수가 된다! 앞의 부분의 inverse matrix와 이어진다. (추가적인 성질)
Subspaces - Col A, Nul A, Basis * 본 글은 선형대수학 복습을 상기시키기 위한 글로, 설명이 매우 부족할(?) 수 있습니다. Col A: column space의 linear combination으로 나타낼 수 있는 공간(집합) Nul A: Ax = 0 꼴의 homogeneous equation의 해로 나타낼 수 있는 공간(집합) 예전 수업에서 배울 때, Span과 Basis 개념이 헷갈려서 죽을 것 같았던(?) 기억이 난다. Span과 Basis는 vector들의 집합으로 이루어진 공간을 의미하는건 맞다! 근데 큰 차이점이 있다. Span을 구성하는 벡터들은 linearly dependent해도 된다! (possible) 그러나 Basis를 구성하는 벡터들은 linearly independent해야한다! (must) 이것이 가장 큰 ..
Matrix Factorization - LU Factorization * 본 글은 선형대수학 복습을 상기시키기 위한 글로, 설명이 매우 부족할(?) 수 있습니다. L: a unit lower triangular matirx U: echelon form LU factorizaiton을 수행하면 매우 간편하다. LUx = b 연산에서, Ux를 y로 치환한다면, Ly = b와 Ux = y의 방정식을 푸는 꼴이 된다. 알고리즘을 설명하면, 먼저 A를 elementary row operations을 통해서 echelon form으로 만들어준다. 이 form이 U가 된다. 그리고, elementary row operations을 수행하기 위해 곱해준 여러 E matrices를 inverse를 취하면 L이 된다. 밑에 예제를 보면 더욱 이해가 편하다. Elementary row ope..
Partition matrix (block matrix) * 본 글은 선형대수학 복습을 상기시키기 위한 글로, 설명이 매우 부족할(?) 수 있습니다. Block matrix가 만약 upper triangular 모양이라면, inverse matrix 연산을 수행할 수 있다.
Characterization of Invertible Matrix * 본 글은 선형대수학 복습을 상기시키기 위한 글로, 설명이 매우 부족할(?) 수 있습니다. 1. A가 Invertible 하다 2. CA = I 3. Ax = 0은 trivial solution이다. (A는 n pivot positions을 가짐) 4. A has n pivot positions. 5. A is row equivalenet to the I. 6. AD = I 7. Ax = b has at least one solution for each b. (unique solution을 가진다고 표현하는게 더 정확) 8. The columns of A span Rn. 9. Linear transformation onto.(n pivor position) 10. The columns of A form..
The inverse of a matrix - Invertible, nonsingular, singular * 본 글은 선형대수학 복습을 상기시키기 위한 글로, 설명이 매우 부족할(?) 수 있습니다. 수업에서 들을 땐, 이 부분이 잘 이해가 안되서 외우는 형식으로 문제를 풀곤 했는데, 복습을 하니 명확하게 이해가 되었다. (Elementary row operations을 왜 하지? 이게 따로 필요한 개념인가? 싶었다) 이 개념은, 뒤에서 나올 LU Factorization에도 매우 유용하다. I라는 identity matrix를 이용해서 표현하는 것인데, A라는 matrix에 수행한 연산을 여러 matrix의 곱으로 표현할 수 있다는 것이 가장 큰 이점이다. 이것이 왜 이점이냐!! 위의 예제를 보면, elementary row operations을 수행하면서 나온 여러 E1, ... ,Ep의 matrix들은 ..
Matrix operations * 본 글은 선형대수학 복습을 상기시키기 위한 글로, 설명이 매우 부족할(?) 수 있습니다.
The matrix of Linear Transformation * 본 글은 선형대수학 복습을 상기시키기 위한 글로, 설명이 매우 부족할(?) 수 있습니다. T가 만약 one-to-one transformation이면, T(x)=0은 trivial solution을 갖는다. 왜냐하면 one-to-one이기 때문에, Rm에 mapping되는 Rn의 좌표는 한개씩 가지게 된다. 따라서, T(x) = 0인 x는 exactly one solution이다. T가 onto이면 standard matrix A의 column은 span Rm이다. onto라는 것은, Rn에서 Rm으로 mapping 될 때, Rm의 원소는 최소 한개 이상의 Rn의 원소와 mapping이 된다. 즉 trivial solution을 가지는 것이 아니라, nontrivial solution을 가지게 되는 ..
Introduction to Linear Transformation * 본 글은 선형대수학 복습을 상기시키기 위한 글로, 설명이 매우 부족할(?) 수 있습니다. Image: T(x) Range: 치역 Domain: 정의역 Codomain: 공역 Linear Transformation의 중요한 특징!!! 1. T(u+v) = T(u) + T(v) 2. T(cu) = cT(u) 를 만족해야 한다.
Linear Independence - Independent, Dependent * 본 글은 선형대수학 복습을 상기시키기 위한 글로, 설명이 매우 부족할(?) 수 있습니다. Theorem 7. Characterization of Linearly Dependent Sets 2개 이상의 vector가 linearly dependent라면, 적어도 하나의 벡터는 다른 벡터들의 linear combination으로 표현된다. U, V라는 vector가 linear independent이고, W in Span{U, V}이면, {U, V, W}는 linear dependent이다.
Solutions Sets of Linear Algebra - homogeneous, nonhomogenous * 본 글은 선형대수학 복습을 상기시키기 위한 글로, 설명이 매우 부족할(?) 수 있습니다. Nonhomogeneous systems의 solution은 Particular solution과 Homogeneous solution으로 표현이 가능하다. Ax = b의 solution을 p라고 하고, Ax = 0의 solution을 Vh라고 하자. 이때 Ap = b가 되고, AVh = 0이다. Matrix의 성질에 의해서, A(p + Vh) = Ap + AVh = b + 0 = b가 된다. ∴ p는 Particular solution, Vh는 homogeneous solution이다.

반응형