RSSフィード:http://alpha-ralpha.com/diary/index.rdf
2008-11-19 AT&Tの贈り物、さらに。 [長年日記]
_ [統計学] 情報エントロピー。
これはシャノンが考案したものだが、フォン・ノイマンが、熱力学のエントロピーと似ているということを指摘して、このような名前がついたという。ある事象がとある確率で起こる場合、それが起こったと知らされた時に得られる情報の大きさを示す量とされており、それがおこる確率が小さいほど大きくなるように定義されている。
Wikipediaには、犬が人を噛んだということを知らされても情報はあまり増えないが(当たり前だから)、人が犬を噛んだと知らされた場合には(それは珍しい事象なので)得られる情報量は大きい、と考えるのだという。
このシャノンがやはりベル研にいたわけで、この量をヒントにして何かを考えようと思っている今の私は、ベル研の成果で飯を食おうとしているに他ならない。