Google Cloud Platform 에서 Docker hub에 존재하는 이미지라면도커파일없이도 손쉽게 Cloud Run을 통해 배포할 수 있습니다. qdrant 도커 이미지를 데이터베이스로 사용하기 위해 컨테이너를 배포해야 하는데 Dockerfile을 작성해서 하는 튜토리얼밖에 없어서🥲찾고 찾다가 GCP에서 이젠 바로 Docker hub의 이미지를 링크로 인식하여 컨테이너 배포가 가능하다고 하여 테스트 후 작성하였습니다 ㅎㅎ 🚨 테스트 결과 GCP 가입시 20만원 상당의 무료크레딧이 있더라도 Billing 정보가 등록되어있지 않다면 Cloud Run에서 리전을 설정 할 수 없다는 오류가 발생하게 됩니다!! Billing 정보 (카드가 연결되어있는지.. 등)이 먼저 잘 등록되어 있는지 확인하세요! ..
본 게시물은 길벗 출판사 24차 개발자 리뷰어로 선정되어 도서를 제공받아 작성하였습니다. 정말 운이 좋게도 23, 24차 연속으로 길벗 개발자 리뷰어로 선정되어 도서를 리뷰해 볼 수 있었습니다!🥺이번 도서는 e-book으로 제공받아 읽어보았습니다😄 본 도서는 아래 목차를 기반으로 설명이 이뤄집니다.가독성 높은 코드를 위한 요건과 주의점, 활용하기 쉬운 프로그래밍 원칙네이밍 방법 및 클래스간의 의존 관계까지 실무에서 어떻게 적용할지?코드 리뷰의 진행 방법과 가이드 제시나쁜 코드, 좋은 코드를 예시로 어떻게 개선하는지코틀린 위주의 설명이지만, 객체 지향 언어 사용 경험이 있다면 이해할 수 있도록 구성 파이썬을 이용한 어플리케이션 개발 서비스를 제작하는 프로젝트를 진행중에 있습니다.제대로 된 개발 프로젝..
안녕하세요!오늘은 지난 4월 27일 진행되었던 Google Developer Group의 Build with AI 2024 컨퍼런스 후기를 들고왔습니다🥹 평소에 LLM에 관심이 있고, 재밌는 세션들로 구성된 것 같아얼리버드로 참가신청하여 다녀왔습니다ㅎㅎ 위와 같이 Technical Talk과 Hands-on 세션으로 분류되어 진행되었는데요!저는 오전에 정처기 시험을 응시하고 후다닥 강남으로 넘어가야했기에 첫 번째 세션을 제외하고 들을 수 있었습니다🥲 처음에 테크톡 세션에서 시작해서 듣다보니, 주제들이 핸즈온세션보다 더 재밌을 것 같아 결국 끝까지 테크톡 세션에서 모든 강의를 듣게 되었습니다 ㅎㅎ; 핸즈온 세션들도 너무너무 재미있는 주제들이긴 하지만 사실 RAG나 앱 배포와 같은 내용들이 현재 진행하..
안녕하세요, 이번 논문리뷰는 BERT 리뷰입니다.BERT 모델도 Transformer architecture을 따르는 대표적이고 유명한 Encoder-only 모델 중 하나이죠.아직도 fine-tuning task에서 많이 쓰이고 있는 것 같아 프로젝트를 위해 fine-tuning을 진행해보면서함께 읽고 리뷰해보았습니다. 모르는 개념이나 문장은 claude.ai 와 함께 읽고 공부하였습니다.부족한 부분이 많을 수 있으니 논문 리뷰에 대한 오류나 오탈이 있다면 언제든 댓글로 정정해주시면 감사하겠습니다.🤗 본 논문은 Google AI Language 팀에서 발표하였으며,2018년 10월 발표되었습니다. 원문은 아래 링크에서 확인하실 수 있습니다. https://arxiv.org/abs/1810.04805..
MoE (Mixture of Expert) 기법을 Mistral 모델에 적용한 Mixtral 8*7B 모델을 소개한 논문입니다.최근 MoE 기법이 대두됨과 동시에 Mixture of Expert 에 대한 게시물을 작성해보면서 함께 읽고 정리해보았습니다.잘못 이해한 부분이 있다면 댓글을 통해 오류를 말씀해주시면 감사하겠습니다🤗 논문은 24년 1월 발표되었으며, 원문 링크는 아래에서 확인할 수 있습니다.https://arxiv.org/abs/2401.04088 Mixtral of ExpertsWe introduce Mixtral 8x7B, a Sparse Mixture of Experts (SMoE) language model. Mixtral has the same architecture as Mistra..
Encoder, Decoder, Encoder-Decoder 모델에 대한 정의가 헷갈려서 정리하기 위해 작성하였습니다.보시면서 오류가 있거나 잘못된 부분이 있다면 댓글을 통해 알려주시면 감사하겠습니다.🤗 Deeplearning.AI의 GenAI with LLM 강의를 통해 습득한 내용을 정리하였습니다. 본 게시물에서 의미하는 Encoder, Decoder의 의미는Transformer 논문 (Attention is all you need)에 소개된 Transformer 로직의 Encoder, Decoder를 의미합니다.즉, tranduction model에서의 Encoder, Decoder 입니다.Encoder Only = Auto Encoding Model을 의미합니다.주로 masked language..