여느날과 다름없이 링크드인을 탐색하던 중..가짜연구소에서 여러가지 프로젝트들을 진행할 예정이라는 것을 보고Agent를 비롯한 다양한 주제들을 선보이길래 후다닥 지원해보았다. 무려 300명이 넘는 인원이 지원했다고 했는데 한 2/3 정도의 인원이 함께 진행하시는 것 같다..! 회사 업무를 진행하면서 혼자 공부하기 특히 어려웠던 분야라고 생각되는 온디바이스 분야에 대한스터디를 진행하는 주제가 있어 해당 내용으로 참여해보았다.결국 AI를 하드웨어까지 진행하게 되면 온디바이스는 곧 필수불가결하지 않을까.. 싶다. 사실 또 온디바이스는도메인과 상관없이 최최최최종엔 다 적용되어 있지 않을까..?! https://github.com/Pseudo-Lab/On-Device-AI_On-The-AIr GitHub - Pse..
https://github.com/architectyou/prompt-tester.git GitHub - architectyou/prompt-tester: A local LLM prompt testing tool inspired by LangSmith playground. Built with streamlit, thiA local LLM prompt testing tool inspired by LangSmith playground. Built with streamlit, this tool allows you to compare two different prompt versions or test a single prompt multiple times. - archi...github.com왜 랭스미스를 안쓰..
개요에이전트는 상황이 변하는 것을 고려하여 최선의 수를 두어야 함.Agent의 상황 = State (현재 상태)눈 앞의 보상이 아니라 미래에 얻을 수 있는 보상의 총 합을 고려해야 함. (보상의 총합을 극대화)상태 $s_t$에서 행동 $a_t$를 취했을 때 얻을 수 있는 보상 $r_{t+1}$, 다음 상태 $s_{t+1}$ 마르코프 성질현재의 정보만 고려하는 성질 (어떤 상태들을 거쳐왔고, 어떤 행동들을 취해왔는지는 신경쓰지 않음.)MDP는 마르코프 성질을 만족한다고 가정하고 상태전이와 보상을 모델링 PolicyAgent가 행동을 결정하는 방식환경에 대해 필요한 정보는 모두 현재 상태에 있음. (MDP)결정적 정책 $\mu(s) = a$확률적 정책 $\pi(a|s)$ Agent는 정책에 따라 행동하며, ..
조금 늦은 감이 있지만 2024년 회고록 작성합니다.2024년은 정말 다사다난했습니다.마치 앞만 보고 달리는 경주마처럼 성장과 배움에 목말라있던 한 해 였습니다. 불안함과 긴장속에서 스스로를 마구 채찍질 해 온 것 같습니다.숙원사업이었던 취업도 했구요. 이제 드디어 사회에 한 발을 내딛은 것 같습니다.2023년 12월 인공지능연구원에서 연구원 전환이 되지 못하고 연장된 인턴신분으로 계약을 종료하게 되었을때, 2024년 앞으로가 막막했습니다.어떻게 시작해야할 지 몰랐거든요. 더 깊은 공부가 필요하다고 생각되어 대학원도 알아보기도 하고, 여기저기 취업 원서도 넣어봤습니다.제게 돌아온 건 서류 탈락…읽지 않은 메일..24년도 초반은 그렇게 어둡고 막막한 상반기를 보낸 것 같아요.연구원 재직 당시 팀장님께 들은..
로컬에서 오픈소스 모델을 사용하기 위해 종종 다양한 LLM 서빙 툴들을 사용합니다.가장 대중적이면서 접근하기 쉬운 것으로 Ollama가 있죠. Ollama 에서는 Docker와 같이 model 을 pull 하여 Ollama hub에 있는 모델을 로컬 환경에 다운받아 올 수 있습니다. 이 것이 아니라면 직접 로컬 환경에서 gguf 파일과 Modelfile을 이용하여 Ollama list에 업데이트 해줄 수 있습니다. (로컬 환경 제한적) 그럼 내가 학습하고 경량화 한 모델을 Push 하려면 어떻게 해야할까요? Ollama 사이트 회원 가입https://ollama.com/ OllamaGet up and running with large language models.ollama.com우선 Ollama 사이..
Audio샘플링 속도 (Sampling Frequency)1초 동안 수집된 샘플의 수로, 헤르츠(Hz) 단위로 측정됨음성 모델 학습에 주로 쓰이는 샘플링 속도는 16000Hz(16kHz)신호에서 얼마나 큰 주파수까지 캡쳐할 수 있는지를 결정하는데 큰 역할신호에서 캡쳐 가능한 최고 주파수의 한계는 샘플링 속도의 절반 = Nyquist Limit더 높은 샘플링 속도를 사용하여도 얻을 수 있는 추가 정보는 없을 것이며, 오히려 파일 처리에 대한 계산 비용만 증가시킴너무 낮은 샘플링 속도는 정보의 손실로 이어짐모든 예제가 동일한 샘플링 속도로를 가지고 있는지 확인하는 것이 중요Resampling : 서로 다른 샘플링 속도를 일치시켜주는 작업 ➡ 오디오 전처리 과정 중 하나Bit-Depth : 특정 시점의 오디오..