<- Back to projects and build log

시맨틱 청킹에 임베딩 모델을 바꿔보자

시맨틱 청킹에서 임베딩 모델은 RAG 답변 성능에 얼마나 중요할까?

AutoRAG / 시맨틱 청킹 / 임베딩 모델 / 청킹
시맨틱 청킹에 임베딩 모델을 바꿔보자 글 대표 일러스트
Jeffrey Kim의 SecondBrain 빌드 로그 아티클 커버

Quick context

First, this page captures one concrete build-log step, research note, or project lesson from Jeffrey Kim.

Next, use the tags, related reading, and home archive to move from this note to deeper material in the same topic cluster.

Finally, follow the RSS feed if you want the next experiment, retrospective, or paper review as soon as it ships.

(24년 12월 추가) 글 내용과 관련해 강의를 런칭하였습니다. 더 많은 정보가 필요하신 분들은 참고해주세요!!

▪ 쿠폰코드: PRDTEA241202_auto ▪ 할인액: 4만원 (~25/1/5 까지 사용가능) ▪ 강의링크: https://bit.ly/3BayH1F


제가 직접 작성한 것이 아닌 AutoRAG를 같이 만든 [김병욱](https://www.linkedin.com/in/autorag-bwook/) 연구원이 쓴 글입니다.

지난 시맨틱 청킹에 문장 분리기를 바꿔보자 실험에서 우리는 시맨틱 청킹의 원리를 알아봤다.

전혀 기억이 나지 않아도 괜찮다! 빠르게 다시 알아보도록 하자.

0. 시맨틱 청킹 원리

151a2ad3 3ffb 4461 9978 34e5b280cd90 article image

라마인덱스의 시맨틱 청킹은 크게 3가지 단계를 거친다

  1. 문장 분리기로 파싱된 텍스트를 문장으로 나눈다.
  2. 임베딩 모델로 문장을 벡터 임베딩 한다.
  3. 문장 간의 벡터 유사도 점수를 계산해서 기준보다 높으면 하나의 단락으로 합친다.

시맨틱 청킹에서는 문장 분리기임베딩 모델의 성능이 중요하겠는데? 🤔

그래서 다음 두 가지 실험을 해보기로 했었다.

  1. 문장 분리기를 바꿔가며, RAG 답변 성능 비교해보기
  2. 임베딩 모델을 바꿔가며, RAG 답변 성능 비교해보기

이번 글에서는 두 번째 실험인 임베딩 모델만 바꿔가며 RAG 답변 성능을 비교해보고자 한다.

1. 임베딩 모델 선정

어떤 임베딩 모델로 실험을 해볼까?

우리의 실험에서 좋은 성능을 보여준 임베딩 모델을 살펴보자.

가장 먼저, 업스테이지 임베딩 모델 solar-embedding-1-large이 Top-k에 상관 없이 가장 좋은 성능을 보여주었다.

다음으로, 부분적으로 좋은 모습을 보여준 모델을 살펴보자

여기에 첫 실험에 사용했던 openai_ada_002까지 해서 4가지의 임베딩 모델로 RAG 답변 성능을 비교해보도록 하자.

📌 실험 임베딩 모델 목록

  1. OpenAI: ada_002
  2. 업스테이지: solar-embedding-1-large
  3. paraphrase-multilingual-mpnet-base-v2
  4. multilingual-e5-large-instruct

무엇보다 좋은 성능을 보여준 업스테이지 임베딩 모델의 결과가 기대된다 🤔

10a3d145 57b5 4019 baf9 8c7cd7264eaf article image

2. RAG 답변 성능 비교

지난 실험들과 역시 동일한 조건에서 진행하였다

2-1. G-Eval Consistency

G-Eval Consistency가 같은 답변에도 0.15점씩은 점수가 튀었던 것을 감안했을 때, 별로 차이가 나지 않음을 알 수 있다

2-2. 정성평가

정성 평가 기준 역시 지난 실험들과 동일하다.

OpenAIUpstageparaphrasemultilingual
1점14131412
0.5점2222
0점0002
-1점0100
평균 (16개)0.93750.81250.93750.8125

3. 결론

문장분리기와 마찬가지로 임베딩 모델의 성능이 일정 수준 이상이면, RAG 답변 성능에는 크게 영향을 주지 않는다.

📌주의점

⭐ 마지막으로 AutoRAG 스타 한 번씩 부탁드립니다 ⭐

Related reading

같이 읽으면 좋은 프로젝트 로그와 연구 노트를 이어서 탐색해보세요.