<- Back to projects and build log

batch normalization

batch normalization — batch-normalization, deep-learning, neural-networks에 관한 Jeffrey Kim의 빌드 로그 글입니다.

batch-normalization / deep-learning / neural-networks
batch normalization 글 대표 일러스트
Jeffrey Kim의 SecondBrain 빌드 로그 아티클 커버

Quick context

First, this page captures one concrete build-log step, research note, or project lesson from Jeffrey Kim.

Next, use the tags, related reading, and home archive to move from this note to deeper material in the same topic cluster.

Finally, follow the RSS feed if you want the next experiment, retrospective, or paper review as soon as it ships.

Archive note

First, this imported note is intentionally compact. It acts as a pointer into the wider SecondBrain archive rather than a long-form standalone article.

Next, use the tags, related reading, and project sections to move toward deeper context. Those paths usually lead to fuller write-ups, experiments, or project retrospectives.

Finally, revisit this page together with the home archive and RSS feed when you want the follow-up posts that expand the same topic.

Pasted%20image%2020250331140153

Related reading

같이 읽으면 좋은 프로젝트 로그와 연구 노트를 이어서 탐색해보세요.

  • Auto Encoder 인풋을 latent로 보내는 인코더 latent에서 output을 다시 만드는 decoder input과 output이 비슷하도록 훈련됨
  • UNet https://wikidocs.net/148870 CNN 네트워크의 일종이다. 마치 오토인코더와 유사한 모습을 하고 있다.
  • Super Resolution Survey DL SR 서베이 논문 리뷰입니다.
  • Jeffrey's Blog 안녕하세요! 김동규라고 합니다. AI와 오픈소스를 좋아합니다. 옵시디언을 통하여 지식을 관리하고, 경험을 공유하고자 합니다.