Kyujinpy (154) 썸네일형 리스트형 What is difference between Explicit view and Implicit view? 캡스톤(졸업 프로젝트)을 준비하면서 NeRF와 관련된 논문들을 수없이 살펴보고 있는데, 자꾸 거슬리는 단어가 있었다. 바로 Explicit와 Implicit이다. 그리고 더 나아가서 Explicit view와 Implicit view 이런식으로 많이 논문에서 표현이 되는데 확실하게 이해하지 않으면 추후에 힘들어질 것 같아서 정리를 해야겠다고 생각이 들었다!! Some Example Meanings Explicit: 명시적, 명쾌하게, 분명히 Implicit: 암묵적, 암시된, 내포된 각각의 논문들을 살펴보면, Explicit view와 Implicit view에 대해서 서술한 논문들이 정말 많은데, 각각에 대해서 공통된 점을 발견하였다!! 1. Explicit view라고 하면 images안에 명확한 객.. [Relevance-CAM 논문 리뷰] - Relevance-CAM: Your Model Already Knows Where to Look *Relevance-CAM를 위한 논문 리뷰 글입니다! 궁금하신 점은 댓글로 남겨주세요! Relevance-CAM paper: Relevance-CAM: Your Model Already Knows Where To Look (thecvf.com) Relevance-CAM github: GitHub - mongeoroo/Relevance-CAM: The official code of Relevance-CAM GitHub - mongeoroo/Relevance-CAM: The official code of Relevance-CAM The official code of Relevance-CAM. Contribute to mongeoroo/Relevance-CAM development by creating an.. [Grad-CAM++ 논문 리뷰] - Grad-CAM++: Improved Visual Explanations for Deep Convolutional Networks *Grad-CAM++ 논문 리뷰 글입니다. 궁금하신 점은 댓글로 남겨주세요. *수식 많음 주의!!(어렵지는 않아요!) Grad-CAM++ paper: [1710.11063] Grad-CAM++: Improved Visual Explanations for Deep Convolutional Networks (arxiv.org) Grad-CAM++: Improved Visual Explanations for Deep Convolutional Networks Over the last decade, Convolutional Neural Network (CNN) models have been highly successful in solving complex vision problems. However, these .. [Grad-CAM 논문 리뷰] - Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization *Grad-CAM 논문 리뷰 글입니다. 궁금하신 점은 댓글로 남겨주세요. Grad-CAM paper: [1610.02391] Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization (arxiv.org) Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization We propose a technique for producing "visual explanations" for decisions from a large class of CNN-based models, making them more transparent. Our approac.. [CAM 논문 리뷰] - Learning Deep Features for Discriminative Localization *XAI에서 가장 대표적으로 쓰이는 CAM 논문 리뷰입니다. 궁금하신 점은 댓글로 남겨주세요. CAM paper: [1512.04150] Learning Deep Features for Discriminative Localization (arxiv.org) Learning Deep Features for Discriminative Localization In this work, we revisit the global average pooling layer proposed in [13], and shed light on how it explicitly enables the convolutional neural network to have remarkable localization ability despit.. [Saliency Map 논문 리뷰] - Deep Inside Convolutional Networks: Visualising Image Classification Models and Saliency Maps *eXplainable AI의 기초가 되는 논문입니다. 질문이 있다면 댓글로 남겨주세요. Deep Inside Convolutional Networks paper: [1312.6034] Deep Inside Convolutional Networks: Visualising Image Classification Models and Saliency Maps (arxiv.org) Deep Inside Convolutional Networks: Visualising Image Classification Models and Saliency Maps This paper addresses the visualisation of image classification models, learnt using deep Convo.. Complex eigenvalues - conjugation, linear transformation Complex eigenvalues에는 매우 특이한 성질이 있다. 1. Eigenvalues간의 conjugation이 있다. 2. Eigenvectors간의 conjugation이 있다. 따라서 하나의 eigenvalues, eigenvectors를 구한다면, 다른 eigenvalue, eigenvector를 구할 수 있다. C라는 matrix가 linear transformation 중 rotation을 하는 역할이라고 생각해보자. 이때 C=P-1AP라고 할 때, C는 eigenvalues = a - bi의 형태에서 a와 b로 이루어진 matrix 형태가 된다. 그리고 A와 C는 similar한 matrix이다. C의 모습과 eigenvalue의 크기에 따라서 Ax의 형태를 무한히 linear tra.. Diagonalization Diagonalization 1. A = PDP-1 로 표현되는 것을 말한다. 2. P는 invertible하고 linearly independent한 n개의 eigenvectors들이 columns에 위치한다. 3. D는 diagonal matrix로 diagonal term이 eigenvalues이다. The charateristics equation - similarity Similarity의 정의는 A = PBP-1로 표현되는 matrix A와 B가 서로 같은 eigenvalues를 가진다는 것이다. 이것을 바로 similar라고 표현한다. 단 eigenvectore가 같진 않다!! 5차 방정식 이상에서는 charateristics equation을 구하는 것이 매우나 어려운 일이라고 한다. 그렇기 때문에 eigenvalue를 구하고, eigenvalues를 가지고 charaterisrics eqution을 구하는 순서로 많이 진행된다고 하는데, 여기서 근사하게 eigenvalues를 구하는 algorithm이 QR이다. 수치해석학 부분에서 자세하게 배운다고 한다. Eigenvectors and Eigenvaules Eigenspace는 zero vector를 포함하고 있는 것이다. 따라서 zero vector가 안되는 eigenvector와는 다른개념이다! Triangular matrix의 경우, diagonal term이 eigenvalues이다. 왜냐하면, charateristics equation을 만들 때 그 형태가 nontrivial solution이어야 하기 때문이다. [SSL Swin UNETR 논문 리뷰] - Self-Supervised Pre-Training of Swin Transformersfor 3D Medical Image Analysis *Self-Supervised learning을 이용한 Swin UNETR 논문 리뷰 글입니다. 궁금하신 점은 댓글로 남겨주세요! SSL Swin UNETR paper: [2111.14791] Self-Supervised Pre-Training of Swin Transformers for 3D Medical Image Analysis (arxiv.org) Self-Supervised Pre-Training of Swin Transformers for 3D Medical Image Analysis Vision Transformers (ViT)s have shown great performance in self-supervised learning of global and local representation.. [Swin UNETR 논문 리뷰] - Swin UNETR: Swin Transformers for Semantic Segmentation of Brain Tumors in MRI Images *해당 글은 Swin UNETR 논문 리뷰를 위한 글입니다. 궁금하신 점은 댓글로 남겨주세요. Swin UNETR: [2201.01266] Swin UNETR: Swin Transformers for Semantic Segmentation of Brain Tumors in MRI Images (arxiv.org) Swin UNETR: Swin Transformers for Semantic Segmentation of Brain Tumors in MRI Images Semantic segmentation of brain tumors is a fundamental medical image analysis task involving multiple MRI imaging modalities that can as.. 이전 1 ··· 6 7 8 9 10 11 12 13 다음 목록 더보기