본문 바로가기

Programming36

임베딩, RAG, Lang chain 나도 할 수 있다 #2 구글에 랭체인 임베딩을 치면 상위에 아래 4개의 페이지가 나온다.(링크)오늘은 이 4개의 페이지에 나와 있는 임베딩 방법론을 좀 공부해보겠다.(openai 적용 가능 위주로, 중복은 제외하고) 1. 위키독스 - 랭체인 입문부터 응용 (링크) --> 글의 구조화가 잘 잡혀 있어서 도움이 되었다. --> 강추 --> 구글이 일을 잘한다고 느낌2. 알기쉽게 풀어쓴 랭체인-임베딩벡터의 기본 - 아카라이브 (링크) --> 쭉 보기에 괜찮은 글이었다. --> 추천    랭체인 적용 가능 text embedding(링크)3. 위키독스 - 랭체인 노트 (링크) --> 1번 글보다 더 자세했다.4. 8기 랭체인 (링크) --> 유료 글이었다.1. 위키독스 - 랭체인 입문부터 응용 (링크)임베딩을 요약하면 다음 한줄로 요.. 2024. 5. 12.
RAG, Lang chain, chatGPT (pdf를 읽고 답변) 나도 할 수 있다 #1 블로그 너무 오랜만이다........ 이직한다는 핑계로....이직성공했다는 핑계로.... 난 멈춰있었다....(참고한 코드 : https://github.com/lovelynrose/chatgpt/blob/main/pdfchat.ipynb) 일단 코드를 간단히 소개하면 input : 아무 pdf (여기서는 sk의 지속가능 경영보고서)  output : gpt api를 사용해서 pdf 내용을 질문하면 답해주는 선생님 아마도 코드 부분에서는 api key 값만 바꾸면 다 잘되실거에요. 또한 install 하라는 거 install 하시면 무리 없이 도실 겁니다. 다만, 아직 pdf의 구조를 잘 이해 못하는 거 같습니다. 그리하여 다음엔 라바 파서를 사용해보겠습니다. 123456789101112131415161.. 2024. 5. 8.
이중배열 얕은 깊은 복사_코테 복기_0815 이중배열은 앝은 복사 할때 c = [arr[:] for arr in a] 이런식으로 해야지 b = a[:] 이렇게 하면 아래와 같이 기존 배열 건들면 같이 변한다 다음에 같은 실수 안하면 되지 인생무상 화이팅하자 Be positive! Be rich! Live your life! 2023. 8. 15.
강화학습_7_0814 이번 연휴의 목표는 --> 세상에서 제일 간단한걸 강화학습을 적용해 코드를 짜본다. 보상의 3가지 특징 1. 보상은(reward) 행동(action)에 대해 얼마나 잘했는지 수치적으로 알려준다 2. 보상은 단일 값(숫자)이다 --> 어렵게 이야기하면 벡터가 아닌 스칼라이다 나의 인생 목표 = 0.6 부자 + 0.3 화목한 가정 + 0.1 기타 이렇게 단순화해서 하나의 수치 값을 보상으로 학습해야 한다. 3. 보상은 희소하고 지연될 수 있다. MDP 마르코프 결정 프로세스(Markov Decision Process) 1. MP = (S , P) Markov Process = MP S = State (가능한 상태들을 모아놓은 집합) P = Probability (전이 확률 --> 상태 s에서 다음 상태 s`.. 2023. 8. 15.