Hoff解答例サイト、軽量化したら(?)検索順位が上がった話🚀

TL;DR (要約) 修士のときに作り、今もめちゃくちゃスローペースで更新している A First Course in Bayesian Statistical Methods/標準 ベイズ統計学 の章末問題解答サイト。 先日、サイトを少しアップデートだけで、 Google検索で全くヒットしなかった状態から上位に出てくるようになった ので、やったことをメモします📝 サイト改善のきっかけ: 「検索結果に全く出ない」 このサイト、修士時代に修士論文の次に力を入れて作ったもので、標準ベイズ統計学の読者からの需要はそこそこにあるんじゃないかと思っていました。 ところが どんなキーワードで検索しても、 全く ヒットしませんでした😭 例えば… hoff bayes exercise 標準ベイズ 解答 などでGoogle検索しても、検索結果の 最後のページ にすら出てこない…。 図1: Google検索結果のナビゲーションバー。oの数がページ数を表すっぽい…知らなかった 順位が低いならまだしも、候補にすら挙がらないのは流石におかしいのでは?と思い、「もしかしてサイトが重すぎる…?」 と仮説を立て、軽量化してみることにしました やったことリスト🛠️ 具体的にやったことは以下の通りです。 サイト構造の大幅変更 (軽量化) Before: トップページに全章(2~10章、当時54問!)の解答を掲載 After: 各演習問題ごとにページを分割 SEO基本対策 各ページに keyword, description を追加 robots.txt を設置 (クローラーに対する指示🤖) sitemap.xml を生成・設置 (サイトの地図🗺️) 結果発表!劇的ビフォーアフター✨ サイト改善の効果は、PageSpeed Insights のスコアに如実に現れました 指標 Before 😱 After 🚀 改善度 Performance 51 97 +46 ポイント Largest Contentful Paint 1....

5月 3, 2025 · 1 分 · Kaoru Babasaki

Hoffの解答例のサイトのソースコードを公開しました

Hoffの演習問題の解答例のソースコードを公開しました: GitHub このサイトはちょうど2年前に公開し、少しずつアップデートしてきたものです 今までは、間違いやtypoを見つけたらメールで連絡して欲しいとサイトに書いていましたが、結局そのような連絡は2年間で1度も来たことがありませんでした😭 (海外の研究者の方から感謝のメールをいただいたことはあり、それはとても嬉しかったです) なので、もしかしたらgithubのissueやPRだと気軽に連絡してもらえるかもしれないと思い、公開しました これからは 11章以降の演習問題の解答例を追加 日本語と英語が混在しているので、英語版と日本語版をちゃんと分ける julia で書いた教科書本文中のコードをrepoに追加 などをしていきたいと思います

1月 28, 2025 · 1 分 · Kaoru Babasaki

Hoff/標準ベイズ 演習問題 10-4 を更新しました

導入 Answers of exercises on Hoff, A first course in Bayesian statistical methods (標準ベイズ統計学の演習問題の解答例) を更新(10-4を追加)したので、このブログでもその内容をほんの少しだけ触れようと思います。 まず、この問題と教科書本文の関係について簡単に説明します。 以前 Hoff/標準ベイズのM-Hアルゴリズムがworkすることの証明でつまずいた話 という記事を書きましたが、Hoff (2009) では10章でM-Hアルゴリズムがうまくいくことの-証明を以下のステップで行っています。 M-Hアルゴリズムは、 irreducible (非可約), aperiodic (非周期的), positive recurrent (正再帰的) なマルコフ連鎖を生成する。 Ergodic Theoremより、\(s \to \infty\)で \(\mathrm{Pr}(x^{(s)} \in A) \to \pi(A)\) for any set \(A\); \(\frac{1}{S} \sum g(x^{(s)}) \to \int g(x) \pi(x) dx\). を満たす\(\pi\)が一意に存在する。 このような\(\pi\)は定常分布と呼ばれ、以下の性質を持つ If \(x^{(s)} \sim \pi\), and \(x^{(s+1)} \) is generated from the Markov chain starting at \(x^{(s)}\), then \(\mathrm{Pr}(x^{(s+1)} \in A) = \pi(A)\)....

11月 19, 2024 · 3 分 · Kaoru Babasaki

Hoff/標準ベイズのM-Hアルゴリズムがworkすることの証明でつまずいた話

はじめに Hoff (2009)およびHoff et al. (2022) 10.4.2 Why does the Metropolis-Hastings algorithm work? (メトロポリス・ヘイスティングスアルゴリズムはなぜうまくいくのか) で行われている証明について、つまずいた点があったので自分の中の整理がてら書いてみます。 Hoffの証明の流れ Hoff (2009)およびHoff et al. (2022)では、 M-Hアルゴリズムによって生成されたマルコフ連鎖が目標分布\(p_0\)を近似できる理由の証明が以下の流れで行われています。 M-Hアルゴリズムは、 irreducible (非可約), aperiodic (非周期的), positive recurrent (正再帰的) なマルコフ連鎖を生成する。 Ergodic Theoremより、\(s \to \infty\)で \(\mathrm{Pr}(x^{(s)} \in A) \to \pi(A)\) for any set \(A\); \(\frac{1}{S} \sum g(x^{(s)}) \to \int g(x) \pi(x) dx\). を満たす\(\pi\)が一意に存在する。 このような\(\pi\)は定常分布と呼ばれ、以下の 性質 を持つ If \(x^{(s)} \sim \pi\), and \(x^{(s+1)} \) is generated from the Markov chain starting at \(x^{(s)}\), then \(\mathrm{Pr}(x^{(s+1)} \in A) = \pi(A)\)....

11月 11, 2024 · 2 分 · Kaoru Babasaki