Outstanding Pigeon

  • 홈
  • 태그
  • 방명록

mutual information 1

[Information Bottleneck] 1. Entropy

Information Bottleneck(IB)를 이해하는 데 있어 중요한 수식과 이론들을 먼저 짚어보자. 하나하나 모두 멋진 이야기를 해주고 있다 :) 1. Entropy : 데이터 $X$에 대해 기대할 수 있는 정보량/불확실성 $$ H(X)=E_{p(X)}[-\log p(X)]=\sum_{x} \left(-\log p(x)\right)p(x) $$ 이 표현의 기원에 대해서는 Shannon이 정의한 몇몇 공리들에 의해 만들어졌지만, 여기서는 간단히 수식만 살펴보며 의미를 되새기자 : (1) $\log p(X)$앞에 붙은 음수를 보자면 - 어떤 사건이 발생할 확률이 낮을수록 그 사건에 대한 정보량이 높다고 평가하는 역할을 한다. 자주 마주하고 익숙한 데이터일수록 우리가 파악해야 할 정보량이 적다는 걸 암..

인공지능-통계학의 다양한 주제 2023.07.18
이전
1
다음
더보기
프로필사진

Outstanding Pigeon

  • 분류 전체보기 (8)
    • 인공지능-통계학의 다양한 주제 (8)

Tag

정보이론, Maximum Likelihood Estimation, conditional entropy, minimal sufficient statistics, 지수족분포, 결론, 사랑, mutual information, Sufficient Statistics, 엔트로피, entropy, dpi, 십자가, markov chain, maximum entropy, 서론, Duality, information bottleneck,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바