본문 바로가기

llm

(16)
[다양한 한국어 LLM 벤치마크 평가 코드🍚] - 단 하나의 코드로 N개의 LLM 벤치마크 구현하기 한국어 LLM 벤치마크 올인원 Github Link: https://github.com/Marker-Inc-Korea/KoLLM_Eval GitHub - Marker-Inc-Korea/KoLLM_Eval: 한국어 벤치마크 평가 코드 통합본(?)한국어 벤치마크 평가 코드 통합본(?). Contribute to Marker-Inc-Korea/KoLLM_Eval development by creating an account on GitHub.github.com Gukbap-Series-LLM: https://huggingface.co/collections/HumanF-MarkrAI/gukbap-series-llm-66d32e5e8da15c515181b071 Gukbap-Series-LLM - a HumanF-..
[Gukbap-LLM🍚] - 오픈소스 LLM으로 자체 데이터셋 생성해서 SOTA 달성하기 Gukbap Models🍚HumanF-MarkrAI/Gukbap-Qwen2-7BHumanF-MarkrAI/Gukbap-Mistral-7BHumanF-MarkrAI/Gukbap-Gemma2-9BIntroduction오픈소스 LLM만으로 데이터를 생성하여 GPT-4를 넘어 한국어 최고 레벨을 달성🔥안녕하세요! 오랜만에 LLM 프로젝트로 인사드리는 kyujinpy 입니다🤗작년에 무수히 많은 일들이 있었는데요..! 마커 AI는 자체 데이터셋과 LLM을 만드는데 집중을 하고 있는 중입니다!🤔저희가 가장 심각하게 보고 있는 문제는 바로, 'OpenAI 의존성' 입니다! 오늘날 수많은 여러 SOTA 모델들은 해왜/국내를 모두 포함하여 private model (ChatGPT, GPT4 등)을 활용하여 생성한 ..
[LLaVA 논문 리뷰] - Visual Instruction Tuning *LLaVA를 위한 논문 리뷰 글입니다! 궁금하신 점은 댓글로 남겨주세요!  LLaVA github: https://llava-vl.github.io/ LLaVABased on the COCO dataset, we interact with language-only GPT-4, and collect 158K unique language-image instruction-following samples in total, including 58K in conversations, 23K in detailed description, and 77k in complex reasoning, respectively. Pleasellava-vl.github.ioContents1. Simple Introduction2. Ba..
[AutoRAG 소개] - 자동으로 최적의 RAG 파이프라인을 찾아주는 자동화 툴 *RAG를 위한 모든 것! AutoRAG!! AutoRAG github: https://github.com/Marker-Inc-Korea/AutoRAG GitHub - Marker-Inc-Korea/AutoRAG: RAG AutoML Tool - Find optimal RAG pipeline for your own data. RAG AutoML Tool - Find optimal RAG pipeline for your own data. - GitHub - Marker-Inc-Korea/AutoRAG: RAG AutoML Tool - Find optimal RAG pipeline for your own data. github.com MarkrAI RAG Model: https://huggingface.co..
[MoE 논문 리뷰] - Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity *MoE를 위한 논문 리뷰 글입니다! 궁금하신 점은 댓글로 남겨주세요! MoE paper: https://arxiv.org/abs/2101.03961 Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity In deep learning, models typically reuse the same parameters for all inputs. Mixture of Experts (MoE) defies this and instead selects different parameters for each incoming example. The result is a sparsely-activated mode..
[🌸Sakura-SOLAR] - SOLAR 10.7B 모델을 base로 하여 merge와 DPO 방법론을 활용한 LLM Github: https://github.com/KyujinHan/Sakura-SOLAR-DPO GitHub - KyujinHan/Sakura-SOLAR-DPO: Sakura-SOLAR-DPO: Merge, SFT, and DPO Sakura-SOLAR-DPO: Merge, SFT, and DPO. Contribute to KyujinHan/Sakura-SOLAR-DPO development by creating an account on GitHub. github.com 🌸Huggingface: https://huggingface.co/kyujinpy/Sakura-SOLAR-Instruct kyujinpy/Sakura-SOLAR-Instruct · Hugging Face Sakura-SOLAR-Instr..
[Upstage와 함께 하는 글로벌 OpenLLM 리더보드 1위 모델 리뷰 & LLM 모델 Fine-tuning] 강좌 링크: https://bit.ly/40NbECx Upstage와 함께 하는 글로벌 OpenLLM 리더보드 1위 모델 리뷰 & LLM 모델 Fine-tuning | 패스트캠퍼스 LLM 리더보드 세계 1위의 시각으로 배우는 논문 선별 노하우과 모델 파이프라인 구축 방법! fastcampus.co.kr 안녕하세요! Ko-LLM 리더보드에서 Ko-platypus 모델을 올렸던 kyujin입니다! 제가 이번에 좋은 기회를 얻게 되어서, upstage와 함께 LLM 강의를 준비하게 되었습니다..!!!! 훌륭하신 많은 분들과 함께 작업할 수 있어서 너무 영광이고, 좋은 기회인 만큼 정말 열심히 준비하고 있습니다 ㅎㅎ LLM의 여러 지식과 최근에 유행하는 PEFT 방법론 부터, fine-tuning 실습을 통해 ..
[🐳KO-LLM 첫 50 돌파🥮] 안녕하세요! 최근 Ko-platypus와 Ko-openorca로 인사드렸던 kyujin 입니다😊 KoR-Orca-Platypus-13B 모델이 Open KO-LLM 리더보드에서 처음으로 average 점수 50을 돌파하였습니다🎉🎉 Ko-platypus와 Korean-OpenOrca를 훈련시키고 리더보드에 올리면서 많은 걸 느끼고 경험할 수 있었던 것 같습니다 ㅎㅎ 해당 모델에 관심 있으신 분들은 밑에 github 링크를 통해서 상세한 정보를 확인하실 수 있습니다! 감사합니다🤗🤗 Ko-platypus: https://github.com/Marker-Inc-Korea/KO-Platypus Ko-OpenOrca: https://github.com/Marker-Inc-Korea/Korean-OpenOrca
[🐳Korean-OpenOrca Model 등장🐳] 🐳Github🐳: https://github.com/Marker-Inc-Korea/Korean-OpenOrca GitHub - Marker-Inc-Korea/Korean-OpenOrca: OpenOrca-KO dataset을 활용하여 llama2를 fine-tuning한 Korean-OpenOrca OpenOrca-KO dataset을 활용하여 llama2를 fine-tuning한 Korean-OpenOrca - GitHub - Marker-Inc-Korea/Korean-OpenOrca: OpenOrca-KO dataset을 활용하여 llama2를 fine-tuning한 Korean-OpenOrca github.com 🐳HuggingFace🐳: https://huggingface.co/kyujinpy/K..
[Poly-platypus-ko] - Polyglot-ko + Ko-Platypus HuggingFace: https://huggingface.co/MarkrAI/kyujin-Poly-platypus-ko-12.8b Github1: https://github.com/Marker-Inc-Korea/KO-Platypus GitHub - Marker-Inc-Korea/KO-Platypus: [KO-Platy🥮] Korean-Open-platypus를 활용하여 llama-2-ko를 fine-tuning한 KO-platy [KO-Platy🥮] Korean-Open-platypus를 활용하여 llama-2-ko를 fine-tuning한 KO-platypus model - GitHub - Marker-Inc-Korea/KO-Platypus: [KO-Platy🥮] Korean-Open-platypus..
[9/28 오전 8시 리더보드 1등, 4등] Open KO-LLM 리더보드 후기 Leaderboard: Open Ko-LLM Leaderboard - a Hugging Face Space by upstage Open Ko-LLM Leaderboard - a Hugging Face Space by upstage huggingface.co KO-platypus: https://github.com/Marker-Inc-Korea/KO-Platypus GitHub - Marker-Inc-Korea/KO-Platypus: [KO-Platy🥮] Korean-Open-platypus를 활용하여 llama-2-ko를 fine-tuning한 KO-platy [KO-Platy🥮] Korean-Open-platypus를 활용하여 llama-2-ko를 fine-tuning한 KO-platypus model..
[KO-Platy🥮] - Korean-Open-platypus를 활용하여 llama-2-ko를 fine-tuning한 KO-platypus model 🥮Github🥮: https://github.com/Marker-Inc-Korea/KO-Platypus GitHub - Marker-Inc-Korea/KO-Platypus: [KO-Platypus] Korean-Open-Platypus 번역 데이터셋을 활용한fine-tuning Platypus [KO-Platypus] Korean-Open-Platypus 번역 데이터셋을 활용한fine-tuning Platypus - GitHub - Marker-Inc-Korea/KO-Platypus: [KO-Platypus] Korean-Open-Platypus 번역 데이터셋을 활용한fine-tuning Platypus github.com 🥮Huggingface🥮: https://huggingface.co/kyujinp..

반응형