본문 바로가기

LINEAR

(3)
[Mamba 논문 리뷰 2] - LSSL: Combining Recurrent, Convolutional, and Continuous-time Models with Linear State-Space Layers *Mamba 논문 리뷰 시리즈2 입니다! 궁금하신 점은 댓글로 남겨주세요!시리즈 1: Hippo시리즈 2: LSSL시리즈 3: S4시리즈 4: Mamba시리즈 5: Vision MambaLSSL paper: [2110.13985] Combining Recurrent, Convolutional, and Continuous-time Models with Linear State-Space Layers (arxiv.org)  Combining Recurrent, Convolutional, and Continuous-time Models with Linear State-Space LayersRecurrent neural networks (RNNs), temporal convolutions, and neural d..
Complex eigenvalues - conjugation, linear transformation Complex eigenvalues에는 매우 특이한 성질이 있다. 1. Eigenvalues간의 conjugation이 있다. 2. Eigenvectors간의 conjugation이 있다. 따라서 하나의 eigenvalues, eigenvectors를 구한다면, 다른 eigenvalue, eigenvector를 구할 수 있다. C라는 matrix가 linear transformation 중 rotation을 하는 역할이라고 생각해보자. 이때 C=P-1AP라고 할 때, C는 eigenvalues = a - bi의 형태에서 a와 b로 이루어진 matrix 형태가 된다. 그리고 A와 C는 similar한 matrix이다. C의 모습과 eigenvalue의 크기에 따라서 Ax의 형태를 무한히 linear tra..
Cramer's Rule and Linear Transformation Cramer's Rule로 linear equation을 푸는 방법! 이걸 보고나서, 매우 놀랐던 기억이 난다..ㅎㅎ Cramer's Rule를 적용해서, Cofactor를 이용한 determinant 계산 방법이다. 시험문제에서 자주 나온다(?) 어떤 특정한 도형의 넓이를 구할 때, 간단히 determinats의 성질을 이용해서 바로 넓이를 계산할 수 있다. 이건 매우 유용한 것 같다. Linear Transformation을 이용하여서 변환된 도형의 넓이를 구하는 방식인데, 매우 간단하다. T(x)라는 transformation function에 이용되는 matrix A가 있다면 위와 같이 detAB로 표현이 되므로, detAB = (detA)(detB) = (detA)*(area of S)가 된다...

반응형