<- Back to projects and build log

Maximum Likelihood

어떤 평균값을 갖는 확률밀도로 부터 이 샘플들이 추출되었을까? https://angeloyeo.github.io/2020/07/17/MLE.html 이 샘플링 된 값들은 어떤 확률 분포에서 추출되었을 가능성이 높을까? Likelihood Function (수학적 표현) $$ P(x|\theta) = \prod^n {k=1} P(x k|\theta) $$ 여기서 $x$는 관찰값, $\theta...

ai-ml / statistics / maximum-likelihood / likelihood-function
Maximum Likelihood 글 대표 일러스트
Jeffrey Kim의 SecondBrain 빌드 로그 아티클 커버

Quick context

First, this page captures one concrete build-log step, research note, or project lesson from Jeffrey Kim.

Next, use the tags, related reading, and home archive to move from this note to deeper material in the same topic cluster.

Finally, follow the RSS feed if you want the next experiment, retrospective, or paper review as soon as it ships.

Archive note

First, this imported note is intentionally compact. It acts as a pointer into the wider SecondBrain archive rather than a long-form standalone article.

Next, use the tags, related reading, and project sections to move toward deeper context. Those paths usually lead to fuller write-ups, experiments, or project retrospectives.

Finally, revisit this page together with the home archive and RSS feed when you want the follow-up posts that expand the same topic.

어떤 평균값을 갖는 확률밀도로 부터 이 샘플들이 추출되었을까?

https://angeloyeo.github.io/2020/07/17/MLE.html

이 샘플링 된 값들은 어떤 확률 분포에서 추출되었을 가능성이 높을까? Pasted%20image%2020250317134349

Likelihood Function (수학적 표현)

P(xθ)=k=1nP(xkθ)P(x|\theta) = \prod^n_{k=1} P(x_k|\theta)

여기서 xx는 관찰값, θ\theta는 어떠한 확률 분포 (혹은 모델?)이라고 생각하면 된다. 그니깐 주어진 θ\theta에 대해서, 실제로 관찰된 xkx_k의 관찰값들이 과연 θ\theta라는 확률분포에서 나왔을 가능성을 계산하는 것이다.

Log-Likelihood

주로 로그를 씌워서 likelihood를 표현한다.

L(θx)=logP(xθ)=i=1nlogP(xiθ)L(\theta|x) = log P(x|\theta) = \sum^n_{i=1}logP(x_i|\theta)

주목할 점은, log를 씌움으로써 \prod\sum 형태가 된 것이다. 훨씬 연산하기 쉬워진다는 것이다.

Negative Log-likelihodd

위의 log likelihood에 음수를 취한 값. 그러면 최대화가 아닌 최소화 문제가 되기 때문에, loss에서 이 negative log likelihood를 최소화하는 방향으로 학습이 진행된다.

Related reading

같이 읽으면 좋은 프로젝트 로그와 연구 노트를 이어서 탐색해보세요.

  • A Self-Supervised Reinforcement Learning Approach for Fine-Tuning Large Language Models Using Cross-Attention Signals 원문 들어가며 2015년 개봉한 어벤저스 : 에이지 오브 울트론의 한 장면이다. 토니 스타크에 의해 만들어진 초지능 자비스와 그것을 뛰어 넘는 울트론이 만들어진 장면이다. 10년 전, 공상 과학 영화의 일부였던 자비...
  • RepLLaMA - Fine-Tuning LLaMA for Multi-Stage Text Retrieval 논문의 목적 임베딩 모델이나 리랭커를 LLM을 기반으로 훈련시킬 수는 없을까? LLM은 완전 똑똑한데, 이것을 리랭커나 임베딩 모델로서 사용하고 싶다! 어떻게 했을까? Retriever 이전에는 주로 [[BERT]]...
  • KL Regularization 참고 : [[Regularization, Normalization, Standardization, Generalization]] [[VAE]]의 Regularization Error 라고 보면 된다. $$ L i(\...
  • PPO [[Search R1]]에서의 PPO 예시 (search engine과 함께 이용) 잘 설명해준 블로그 https://ai com.tistory.com/entry/RL %EA%B0%95%ED%99%94%ED%95%9...