본문 바로가기

Kyujinpy

(152)
[VDE 논문 리뷰] - Vehicle Distance Estimation from a Monocular Camera for Advanced Driver Assistance Systems *VDE 논문 리뷰를 위한 글 입니다! 궁금하신 점이 있다면 댓글로 달아주세요! *이 논문에서는 Self-driving car에서 Distance estimation을 수행하는 딥러닝을 제시합니다. VDE(ODD) paper: https://www.mdpi.com/2073-8994/14/12/2657 Vehicle Distance Estimation from a Monocular Camera for Advanced Driver Assistance Systems The purpose of this study is to propose a framework for accurate and efficient vehicle distance estimation from a monocular camera. The pr..
[GLPDepth 논문 리뷰] - Global-Local Path Networks for Monocular Depth Estimation with Vertical CutDepth *GLPDepth 논문 리뷰를 위한 글입니다! 궁금한 점이 있다면 댓글로 질문주세요! GLPDepth paper: [2201.07436] Global-Local Path Networks for Monocular Depth Estimation with Vertical CutDepth (arxiv.org) Global-Local Path Networks for Monocular Depth Estimation with Vertical CutDepth Depth estimation from a single image is an important task that can be applied to various fields in computer vision, and has grown rapidly with the ..
[DETR 논문 리뷰] - End-to-End Object Detection with Transformers *DETR 논문 리뷰를 위한 글입니다! 궁금하신 점이 있다면 댓글로 남겨주세요. DETR paper: [2005.12872] End-to-End Object Detection with Transformers (arxiv.org) End-to-End Object Detection with Transformers We present a new method that views object detection as a direct set prediction problem. Our approach streamlines the detection pipeline, effectively removing the need for many hand-designed components like a non-maximum supp..
[NeRF-Art 논문 리뷰] - Text-Driven Neural Radiance Fields Stylization *NeRF-Art 논문 리뷰 글입니다! 궁금하신 점이 있다면 댓글로 남겨주세요! NeRF-Art paper: [2212.08070] NeRF-Art: Text-Driven Neural Radiance Fields Stylization (arxiv.org) NeRF-Art: Text-Driven Neural Radiance Fields Stylization As a powerful representation of 3D scenes, the neural radiance field (NeRF) enables high-quality novel view synthesis from multi-view images. Stylizing NeRF, however, remains challenging, especially..
[NeRF++ 논문 리뷰] - NERF++: ANALYZING AND IMPROVING NEURAL RADIANCE FIELDS *NeRF++ 논문 리뷰 글입니다! 질문 사항이 있다면 댓글로 남겨주시길 바랍니다. *기본적으로 난이도가 있는 논문이기에, NeRF를 이해하지 못하셨다면 힘드실 것으로 예상됩니다. NeRF++ paper: [2010.07492] NeRF++: Analyzing and Improving Neural Radiance Fields (arxiv.org) NeRF++: Analyzing and Improving Neural Radiance Fields Neural Radiance Fields (NeRF) achieve impressive view synthesis results for a variety of capture settings, including 360 capture of bounded scenes a..
[CLIP 논문 리뷰] - Learning Transferable Visual Models From Natural Language Supervision *CLIP 논문 리뷰를 위한 글입니다. 질문이 있다면 댓글로 남겨주시길 바랍니다! CLIP paper: [2103.00020] Learning Transferable Visual Models From Natural Language Supervision (arxiv.org) Learning Transferable Visual Models From Natural Language Supervision State-of-the-art computer vision systems are trained to predict a fixed set of predetermined object categories. This restricted form of supervision limits their generality and..
[Barlow Twins 논문 리뷰] - Barlow Twins: Self-Supervised Learning via Redundancy Reduction *Barlow Twins 논문 리뷰를 코드와 같이 분석한 글입니다! SSL 입문하시는 분들께 도움이 되길 원하며 궁금한 점은 댓글로 남겨주세요. Barlow Twins paper: https://arxiv.org/abs/2103.03230 Barlow Twins: Self-Supervised Learning via Redundancy Reduction Self-supervised learning (SSL) is rapidly closing the gap with supervised methods on large computer vision benchmarks. A successful approach to SSL is to learn embeddings which are invariant to distor..
[Simsiam 논문 리뷰] - Exploring Simple Siamese Representation Learning *Simsiam 논문 리뷰를 코드와 같이 분석한 글입니다! SSL 입문하시는 분들께 도움이 되길 원하며 궁금한 점은 댓글로 남겨주세요. *Simsiam는 Non-contrastive learning입니다. Simsiam paper: https://arxiv.org/abs/2011.10566 Exploring Simple Siamese Representation Learning Siamese networks have become a common structure in various recent models for unsupervised visual representation learning. These models maximize the similarity between two augmentations o..
[BYOL 논문 리뷰] - Bootstrap your own latent: A new approach to self-supervised Learning *BYOL 논문 리뷰를 코드와 같이 분석한 글입니다! SSL 입문하시는 분들께 도움이 되길 원하며 궁금한 점은 댓글로 남겨주세요. *BYOL는 Non-contrastive learning입니다. BYOL paper: https://arxiv.org/abs/2006.07733 Bootstrap your own latent: A new approach to self-supervised Learning We introduce Bootstrap Your Own Latent (BYOL), a new approach to self-supervised image representation learning. BYOL relies on two neural networks, referred to as online and ..
Cramer's Rule and Linear Transformation Cramer's Rule로 linear equation을 푸는 방법! 이걸 보고나서, 매우 놀랐던 기억이 난다..ㅎㅎ Cramer's Rule를 적용해서, Cofactor를 이용한 determinant 계산 방법이다. 시험문제에서 자주 나온다(?) 어떤 특정한 도형의 넓이를 구할 때, 간단히 determinats의 성질을 이용해서 바로 넓이를 계산할 수 있다. 이건 매우 유용한 것 같다. Linear Transformation을 이용하여서 변환된 도형의 넓이를 구하는 방식인데, 매우 간단하다. T(x)라는 transformation function에 이용되는 matrix A가 있다면 위와 같이 detAB로 표현이 되므로, detAB = (detA)(detB) = (detA)*(area of S)가 된다...
Properties of Determinats 개인적으로 가장 중요한 성질이라고 생각하는 부분 중 하나다. Determinants를 구할 때, matrix A를 echelon form으로 만든 후, diagonal의 성질을 이용해서 구한 determinants와 A로 부터 바로 계산한 detA의 값이 같다는 성질!!
Introduction to Determinants Cofactor의 정의이다. 나중에 Invertible matrix를 이용할때나 다른 곳에 이용되므로 잘 기억하자. (그렇게 효율적인 방법은 아니지만 알면 좋다) elementary row operations과 matrix A를 이용해서 determinant를 구하는 것이다. 기본 invertible 정의에 의해서 det(AB) = detA * detB 이렇게 생각할 수도 있지만, 상당히 이 부분이 중요하다.

반응형