본문 바로가기

AI

(107)
[Diffusion Transformer 논문 리뷰1] - DDPM, Classifier guidance and Classifier-Free guidance *DiT를 한번에 이해할 수 있는(?) A~Z 논문리뷰입니다! *총 3편으로 구성되었고, 1편은 DiT를 이해하기 위한 지식들을 Preview하는 시간입니다! *궁금하신 점은 댓글로 남겨주세요! DiT paper: https://arxiv.org/abs/2212.09748 Scalable Diffusion Models with Transformers We explore a new class of diffusion models based on the transformer architecture. We train latent diffusion models of images, replacing the commonly-used U-Net backbone with a transformer that operates..
[SORA 설명] - OpenAI의 Video Generation AI (기술부분 번역 + 설명 이미지 추가) Technical Report: Video generation models as world simulators (openai.com) Video generation models as world simulators We explore large-scale training of generative models on video data. Specifically, we train text-conditional diffusion models jointly on videos and images of variable durations, resolutions and aspect ratios. We leverage a transformer architecture that oper openai.com SORA: https..
[AutoRAG 소개] - 자동으로 최적의 RAG 파이프라인을 찾아주는 자동화 툴 *RAG를 위한 모든 것! AutoRAG!! AutoRAG github: https://github.com/Marker-Inc-Korea/AutoRAG GitHub - Marker-Inc-Korea/AutoRAG: RAG AutoML Tool - Find optimal RAG pipeline for your own data. RAG AutoML Tool - Find optimal RAG pipeline for your own data. - GitHub - Marker-Inc-Korea/AutoRAG: RAG AutoML Tool - Find optimal RAG pipeline for your own data. github.com MarkrAI RAG Model: https://huggingface.co..
[ControlNet 논문 리뷰] - Adding Conditional Control to Text-to-Image Diffusion Models *ControlNet를 위한 논문 리뷰 글입니다! 궁금하신 점은 댓글로 남겨주세요! ControlNet paper: [2302.05543] Adding Conditional Control to Text-to-Image Diffusion Models (arxiv.org) Adding Conditional Control to Text-to-Image Diffusion Models We present ControlNet, a neural network architecture to add spatial conditioning controls to large, pretrained text-to-image diffusion models. ControlNet locks the production-ready large..
[MoE 논문 리뷰] - Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity *MoE를 위한 논문 리뷰 글입니다! 궁금하신 점은 댓글로 남겨주세요! MoE paper: https://arxiv.org/abs/2101.03961 Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity In deep learning, models typically reuse the same parameters for all inputs. Mixture of Experts (MoE) defies this and instead selects different parameters for each incoming example. The result is a sparsely-activated mode..
[NeRF-CAM 논문리뷰] - COORDINATE-AWARE MODULATION FOR NEURAL FIELDS 💰새해복 많이 받으세요!!💰 *NeRF-CAM를 위한 논문 리뷰 글입니다! 궁금하신 점은 댓글로 남겨주세요! NeRF-CAM paper: arxiv.org/pdf/2311.14993.pdf NeRF-CAM github: Coordinate-Aware Modulation for Neural Fields (maincold2.github.io) Coordinate-Aware Modulation for Neural Fields Neural fields, mapping low-dimensional input coordinates to corresponding signals, have shown promising results in representing various signals. Numerous methodo..
E: Unable to locate package ~~~ Error 해결방법: [Linux] E: Unable to locate package yum (tistory.com) [Linux] E: Unable to locate package yum * 해당 글을 작성하기 위해 새로운 인스턴스를 생성하여 IP가 노출됩니다. 게시 완료 후 인스턴스는 종료 예정입니다! 새로운 인스턴스 환경에는 yum이 없다는 걸 알고 설치를 하니 해당 에러가 integer-ji.tistory.com Vim 사용방법: [Linux] vi(vim)에디터 사용방법 (tistory.com) [Linux] vi(vim)에디터 사용방법 리눅스를 이용한 개발 혹은 리눅스서버를 운영하는 개발자라면 반드시 알아야 하는 것중에 한가지가 바로 텍스트 에디터를 사용하는 방법입니다. 윈도우의 경우 메모장이..
[DDPM 코드 리뷰] *DDPM을 이해하셔야 읽기 편하실 것 같습니다..! Study Github: https://github.com/KyujinHan/DDPM-study GitHub - KyujinHan/DDPM-study: Denoising Diffusion Probabilistic Models code study Denoising Diffusion Probabilistic Models code study - GitHub - KyujinHan/DDPM-study: Denoising Diffusion Probabilistic Models code study github.com DDPM github: https://github.com/lucidrains/denoising-diffusion-pytorch GitHub - luc..
[🌸Sakura-SOLAR] - SOLAR 10.7B 모델을 base로 하여 merge와 DPO 방법론을 활용한 LLM Github: https://github.com/KyujinHan/Sakura-SOLAR-DPO GitHub - KyujinHan/Sakura-SOLAR-DPO: Sakura-SOLAR-DPO: Merge, SFT, and DPO Sakura-SOLAR-DPO: Merge, SFT, and DPO. Contribute to KyujinHan/Sakura-SOLAR-DPO development by creating an account on GitHub. github.com 🌸Huggingface: https://huggingface.co/kyujinpy/Sakura-SOLAR-Instruct kyujinpy/Sakura-SOLAR-Instruct · Hugging Face Sakura-SOLAR-Instr..
[Upstage와 함께 하는 글로벌 OpenLLM 리더보드 1위 모델 리뷰 & LLM 모델 Fine-tuning] 강좌 링크: https://bit.ly/40NbECx Upstage와 함께 하는 글로벌 OpenLLM 리더보드 1위 모델 리뷰 & LLM 모델 Fine-tuning | 패스트캠퍼스 LLM 리더보드 세계 1위의 시각으로 배우는 논문 선별 노하우과 모델 파이프라인 구축 방법! fastcampus.co.kr 안녕하세요! Ko-LLM 리더보드에서 Ko-platypus 모델을 올렸던 kyujin입니다! 제가 이번에 좋은 기회를 얻게 되어서, upstage와 함께 LLM 강의를 준비하게 되었습니다..!!!! 훌륭하신 많은 분들과 함께 작업할 수 있어서 너무 영광이고, 좋은 기회인 만큼 정말 열심히 준비하고 있습니다 ㅎㅎ LLM의 여러 지식과 최근에 유행하는 PEFT 방법론 부터, fine-tuning 실습을 통해 ..
[Kosy🍵llama] - Noisy embedding 방식을 활용한 llama2 fine-tuning Github: https://github.com/Marker-Inc-Korea/KoNEFTune GitHub - Marker-Inc-Korea/KoNEFTune: Random Noisy Embeddings with fine-tuning 방법론을 한국어 LLM에 간단히 적용할 Random Noisy Embeddings with fine-tuning 방법론을 한국어 LLM에 간단히 적용할 수 있는 Kosy🍵llama - GitHub - Marker-Inc-Korea/KoNEFTune: Random Noisy Embeddings with fine-tuning 방법론을 한국어 LLM에 간단히 적용할 수 있는 github.com Huggingface: https://huggingface.co/kyujinpy/Ko..
[🐳KO-LLM 첫 50 돌파🥮] 안녕하세요! 최근 Ko-platypus와 Ko-openorca로 인사드렸던 kyujin 입니다😊 KoR-Orca-Platypus-13B 모델이 Open KO-LLM 리더보드에서 처음으로 average 점수 50을 돌파하였습니다🎉🎉 Ko-platypus와 Korean-OpenOrca를 훈련시키고 리더보드에 올리면서 많은 걸 느끼고 경험할 수 있었던 것 같습니다 ㅎㅎ 해당 모델에 관심 있으신 분들은 밑에 github 링크를 통해서 상세한 정보를 확인하실 수 있습니다! 감사합니다🤗🤗 Ko-platypus: https://github.com/Marker-Inc-Korea/KO-Platypus Ko-OpenOrca: https://github.com/Marker-Inc-Korea/Korean-OpenOrca

반응형