SLT 2024에 소개된 Audio(ASR Task)와 LLM을 결합한 내용의 논문입니다.기존의 ASR 태스크에서 Rare word에 대한 인식 성능을 향상시키기 위해 Language Model을 사용했는데요,논문을 읽고 간단히 정리해보았습니다. 원문과 깃헙 코드는 아래 링크에서 확인할 수 있습니다. https://github.com/X-LANCE/SLAM-LLM GitHub - X-LANCE/SLAM-LLM: Speech, Language, Audio, Music Processing with Large Language ModelSpeech, Language, Audio, Music Processing with Large Language Model - X-LANCE/SLAM-LLMgithub.comhtt..
클론 폴더 경로 생성mkdir "폴더 이름"cd "폴더 이름" Git 저장소 초기화git init (1)에서 생성한 디렉토리를 git 저장소로 변환 Sparse Checkout 기능 활성화git config core.sparseCheckout true = git 저장소에서 특정 파일이나 디렉토리만을 선택적으로 체크아웃 할 수 있도록 해줌 Remote Repository 연결git remote add -f origin "remote repository url" Git Checkoutecho "remote repository 폴더 경로" >> .git/info/sparse-checkout 해당 폴더 경로만을 따와 sparse checkout을 진행해줍니다. Git Pullgit pull origin ma..
파이썬 백엔드를 구성하는 프레임워크중 가장 대표적인 것 중 하나 Django가 있죠. 항상 FastAPI로 API를 구성해오다가아직은 대중적으로 쓰이는 것이 Django라 하여 Udemy 강의를 듣고 정리해보았습니다. Django 설치 * conda 가상환경이 설치되어 있다는 가정 하에 진행됩니다. 우선 conda 가상환경을 설치해줍니다.conda create -n jango python=3.10 가상환경 설치시 python이 아닌 django를 먼저 설치 후 나중에 python을 설치하려고 하면기본적으로 python2가 설치됩니다.따라서 파이썬을 먼저 설치해주었습니다. 다음으로 가상환경 활성화 후 conda install을 통해 djnago를 설치합니다.conda activate jangoconda..
본 리뷰는 Jpub으로부터 도서를 제공받아 작성되었습니다.✏️ Jax / Flax를 들어보긴 들어봤는데.. 정확히 어떤 프레임워크인지, 뭐에 사용하는지 잘 몰랐다가 (llm 튜닝에 쓰인다고 해서)궁금해서 서평 신청을 했다가 운이 좋게 당첨되어 읽어보게 되었습니다! 덕분에 jax / flax 공부도 했고 ㅎㅎ 회사 점심시간에 짬짬히 읽었다! 우선 이 책은 '모두의 연구소'에서 활동하시는 jax/flax 랩에서 작성해주셨다.지난번 Google Build AI 컨퍼런스 들으러 갔을 때, 여기 랩짱 이영빈님께서 강연해주시면서 jax/flax에 대해 알게 되었는데 그분들이 작성하신 책이다..! 목차 우선 jax와 flax라는 프레임워크에 대해 소개하고, 이를 통해 직접 딥러닝 모델들을 실습해보는 구조로 되어 ..
파이썬 매직메서드로__str__, __repr__ 이 있습니다. 둘다 객체의 문자열 표현을 반환한다는 특징을 가지고 있죠. 같은 기능을 하는데 왜 구분해놨을까?차이를 한 번 살펴봅시다. __str__ 메서드객체의 "비공식적" 또는 사용자 친화적 문자열을 표현할 때 제공합니다.print() 함수나 str() 함수를 사용할 때 호출됩니다. 예제class Book(): def __init__(self, title, author, page): self.title = title self.author = author self.page = page book = Book("Deeplearing", "architectyou", 20)print(book)원래 파이썬 ..
Gemma2-ko-9B 모델을 법률 QA 셋에 대해 Fine-tuning 진행 해 보았습니다.허깅페이스의 trl, peft 라이브러리를 사용하여 LoRA, SFT Tuning을 진행하였습니다. LoRA에 대한 개념을 모르시는 분은 아래 게시물을 참고해주세요🙌2024.07.24 - [AI (인공지능) Paper Review/Gen AI (Large Model)] - [LoRA] Low-Rank Adaptation of Large Language Models 논문 리뷰 [LoRA] Low-Rank Adaptation of Large Language Models 논문 리뷰LLM의 대표적인 PEFT 방법인 LoRA입니다.기존의 Fine-tuning과는 달리 일부 parameter만 fine-tuning을 ..