| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | ||||||
| 2 | 3 | 4 | 5 | 6 | 7 | 8 |
| 9 | 10 | 11 | 12 | 13 | 14 | 15 |
| 16 | 17 | 18 | 19 | 20 | 21 | 22 |
| 23 | 24 | 25 | 26 | 27 | 28 | 29 |
| 30 |
- 성적 입력받기
- 리스트와 차이점
- 차집합
- null # undefined
- prompt
- langchain
- 귀도 반 로섬
- html
- 파이썬
- insert()
- pop()
- 합집합
- 변할 수 있는
- 부스트캠프
- del()
- 그룹 # 그룹 해체 # 단축키 #figma #Figma
- input()
- 변수와 입출력
- 딥러닝
- 입출력
- 조지 불
- 정보를 담을 수 있는 그릇
- index()
- Python
- 불리안
- 조건문 큰 수부터 입력받아야하는 이유
- Java Script # == # === # difference # 차이
- a=1
- 변수
- append()
- Today
- Total
목록AI (20)
I about me
1. 명확성과 구체성2. 배경 정보를 포함3. 간결함4. 열린 질문 사용예/아니오 5. 명확한 목표 설정6. 언어와 문체대화의 맥락에 적합한 언어와 문제를 사용하는 것이 좋음. Templetefrom langchain_core.prompts import PromptTemplate# 'name'과 'age'라는 두 개의 변수를 사용하는 프롬프트 템플릿을 정의template_text = "안녕하세요, 제 이름은 {name}이고, 나이는 {age}살입니다."# PromptTemplate 인스턴스를 생성prompt_template = PromptTemplate.from_template(template_text)# 템플릿에 값을 채워서 프롬프트를 완성filled_prompt = prompt_template.for..
WHAT?언어 모델(Language Model)을 연결(Chain)하여 애플리케이션을 만들 수 있다! → Chain?기본 체인멀티 체인→ 체인을 실행하는 방법https://wikidocs.net/231187invoke: 주어진 입력에 대해 체인을 호출하고 결과를 반환함. 이 메소드는 단일 입력에 대해 동기적으로 작동batch: 입력 리스트에 대해 체인을 호출하고, 각 입력에 대한 결과를 리스트로 반환함.stream: 입력에 대해 체인을 호출하고, 결과의 조각들을 스트리밍함 → 실시간비동기 버전: ainvoke, abatch, astream 등 메소드는 각각의 동기 버전에 대한 비동기 실행을 지원함동기(同期): 같은 시간으로 작동한다. = 라면 끎이면서 아무것도 못함비동기(非同期): 같은 시간으로 작동하..
3개월 간 스타트업 인턴을 하며 집 - 회사 - 집 (가끔 헬스장...) 정말 이 삶이 반복이었다. 이제 학교 기숙사로 이사오면서 통근 시간이 줄어들었으니 공부 해볼까? 미뤄놓았던 공부들 좀 쭈왁 해보자구! 정의Retrieval (검색 단계)→ 사용자의 질문과 관련 있는 문서나 텍스트 조각들을 DB, 벡터DB 등에서 검색Augmentation (보강)→ 검색한 자료를 질문과 함께 언어모델에 제공Generation (생성)→ 모델이 그 자료를 바탕으로 더 정확하고 신뢰할 수 있는 답변 생성예시 - GPT는 어떻게 학습되나요?1. Retrieval (검색 단계)AI 시스템은 이 질문을 기반으로 내부의 지식 DB 또는 벡터 데이터베이스(예: 위키 문서, 논문 요약, 기술 블로그 등)에서 관련 문서를 검색한다...
TransformerBART도 transformer의 기본 아키텍처를 본 따 발전되어져 왔다.잠시 집고 넘어가보면, transformer 는 Encoder와 Decoder로 구성되며,예를 들어, "I am a student"라는 문장이 입력될 때, Encoder 는 이 문장의 의미를 벡터로 변환하고, Encoder 로부터 정보를 전달받아 Decoder 가 “쥬 스위 에튀디앙”의 결과가 도출하게 된다.BERT vs. GPT Encoder 와 Decoder 는 서로 분리되어 각자의 장점을 극대화시켜 별도의 모델들로 발전하게 되었다.대표적인 모델이 Encoder 구조의 BERT와 Decoder 구조의 GPT이다. 위 그림에서 알 수 있듯 이러한 장점이 있다.그러나 이것의 단점은 BERT는 생성을 잘하지 못하..
A = np.array([ [1, 2, 3], [4, 5, 6], [7, 8, 9]])B = np.array([ [0, 1, 2], [2, 0, 1], [1, 2, 0]])덧셈A + B# arrray([1, 3, 5]# [6, 5, 7]# [8, 10, 9])스칼라곱5 * A# arrray([5, 10, 15]# [20, 25, 30]# [35, 40, 45])두 행렬의 곱A @ B요소별 곱하기A * B# arrray([0, 2, 6]# [8, 0, 6]# [7, 16, 0])
행렬수를 직사각형의 형태로 나열한 것대문자 표기 import numpy as npA = np.array([ [1, 2, 3], [4, 5, 6], [7, 8, 9]])벡터행이 하나밖에 없거나 열이 하나밖에 없는 행렬소문자 표기
텍스트 분류고객 피드백을 여러 카테고리로 분류언어에 따라 고객 지원 요청 티켓을 전달 언어에 따라 그 요청을 적절한 담당자나 팀에 할당하는 과정 또는 시스템 기능이메일의 스팸 필터가 받음 메일함에서 정크 메일을 걸러냄텍스트의 감성분석 ex) 테슬라의 트위터 포스트 분석이 장에서는 BERT에 비견하는 DistilBERT를 사용함DistilBERT는 BERT보다 파라미터를 줄였음에도, 성능이 꿀리지 않아 실제로 BERT를 실생활에서 이용할 때, 속도와 메모리 때문에 DistilBERT이 사용됨 1. 데이터셋 불러오기 load_dataset() 함수로 emotion 데이터셋을 로드함from datasets import load_datasetemotions = load_dataset('emotion')2. To..
인코더 & 디코더NN입력층에서 출력층까지 정보가 한 방향으로 흐름중간에 있는 은닉층(hidden layer)을 통해 복잡한 패턴을 학습RNN시간적 순서를 고려한 네트워크 → 시계열 데이터각 시점의 출력은 현재 입력과 이전 시점의 출력을 기반으로 계산h에 대한 가중치(W_h)가 t번 곱해짐에 따라t > 1 → ∞ (Nan, inf) → exploding → 학습이 더 이상 불가능 → clipping로 해결t → 0 → vanishing → LSTM, GRU로 해결장기의존성 문제(the problems of long-term dependencies)입력과 출력 사이의 거리가 멀어질수록 연관 관계가 적어지는 문제LSTMRNN의 장기의존성 문제를 해결하고자 LSTM 모델 등장cell state를 추가하여 중요한..
먼저 V_1 = (1, 0), V_2 = (0, 1)일 때, 아래 사진처럼 (2, 1)를 만들 수 있다는 것을 알 수 있다. 그러나 V_1 = (1, 0), V_2 = (0, 1), V_3 = (1, 1)일 때도 (2, 1) 를 만들 수 있을까??→ 만들 수 있다. 그러나 굳이 굳이 V_3가 필요하다고 볼 수 있을까??그렇다.기저최소한의 벡터 집합으로, 굳이 불필요한 벡터를 포함시키지 않고, 꼭 필요한 벡터들만으로 벡터 공간을 설명할 수 있는 것을 말한다.[ 조건 ]기저는 주어진 벡터공간 V를 생성(span)한다.기저는 '선형독립'이다.[ 예시 ] 차원1차원(1D), 2차원(2D), 3차원(3D)주어진 벡터공간의 차원이 2이다.주어진 벡터공간의 기저의 크기는 2이다.
개념선형독립(Linearly Independent)어떤 벡터들의 모임이 하나를 집었을 때, 다른 것으로부터 만들 수 없는 상태 선형종속(Linearly Dependent)어떤 벡터들의 모임이 하나를 집었을 때, 다른 것으로부터 만들 수 있는 상태 문제선형 독립 문제선형 종속 문제더보기네이버 부스트캠프 들어가기 전, 현재 저는 선형독립과 종속의 기하학적 의미가 조금 헷갈립니다. 그리고 이것이 실무에 어떻게 쓰이길래 중요하다고 하는 것인지 알지 못합니다. 들어가서 이 부분에 대해 집요하게 공부해보도록 하겠습니다.