久保先生の"緑本"こと
「データ解析のための統計モデリング入門」
をベースに回帰分析の概要を紹介。
回帰のキモは線ではなく分布。
Data Science Hill Climb 2021 (東京海上) での講義 (~6時間) の演習無し抜粋バージョン (~2時間 x 2回)。
最尤推定: 推定値が真の値に近づいていく
ベイズ推定: 確率分布がどんどん尖り、確信が強まる
移項するだけでベイズの定理:
宴会場にビールが運ばれてきた。これはどこのブルワリーの?
$\text{Prob}(M \mid P)$ 真陽性率(検査陽性の人が実際に感染者である確率)は?
感染者を隔離するスクリーニング目的では使いものにならない性能。
🔰 同様に $\text{Prob}(\overline{M} \mid N)$ 真陰性率を計算してみよう
🔰 計算結果が検査性能だけでなく有病率にも依存することを確認しよう
モデル$M$に対する確信度合いをデータ$D$に基づいて更新する。
モデル$M$を仮説$H$やパラメータ$\theta$に置き換えてもいい。
周辺尤度は「確率分布の積分は1」を満たすための正規化定数とみなせる。
比例関係だけ抜き出してこう書くことが多い:
コイントスを繰り返して、表が出る確率pをベイズ推定したい。
事前分布にはベータ分布を採用(理由は後で分かる):
分布の形は $a,~b$ によって決まる。
ガンマ関数の部分は厳つく見えるけどただの正規化定数。
投げる前なのでとりあえず真っ平らを仮定 $\text{Beta}(p \mid a = 1, b = 1)$:
4回投げて表が1回だった、というデータで尤度を計算(二項分布):
これに事前分布を掛けて正規化したら事後分布になるはず。
なんと、事後分布もベータ分布になる。
ベータ分布の形パラメータ$a$が表、$b$が裏の回数分だけ増加。
さっきの事後分布を事前分布として、さらにデータを集める。
コイントス4回のうち表1回、に基づく事前分布: $\text{Beta}(p \mid 2,~4)$
さらに16回投げたら表が7回、の尤度: $\text{Binomial}(7 \mid 16,~p)$
事後分布はまた事前分布と同じ形になる:
データを加えるたびに更新していける:
事後分布が事前分布と同じ形なので計算しやすい、という組み合わせ。
尤度関数 | 共役事前分布 |
---|---|
二項分布 | ベータ分布 |
ポアソン分布 | ガンマ分布 |
正規分布 | ガンマ分布 |
正規分布 (分散既知) | 正規分布 |
共役事前分布を使うことが常に正しいとも限らない。
計算コストがかかっても無情報事前分布を使う風潮。
コイン投げモデルのベータ分布は美しい例。
→ 解析的(数学的)に解ける。
実践的なモデル・事後分布はもっと複雑。
→ コンピュータに頼って数値計算: MCMC
e.g., 半径1の円の面積
面積4の正方形に400個の一様乱数を打ち込んだら318個乗った:
$4 \times \frac {318} {400} = 3.18$
数学を知っていれば $\pi r ^ 2 \approx 3.14$
e.g., 確率密度分布に従って変数Xを集める(棄却サンプリング)。
でも、ハズレの値もけっこう引いてしまう。
(N次元球の体積 / N次元の立方体) はゼロに近づいていく。
パラメータが増えると計算量(≈乱数の無駄撃ち)が急増。
密度の高い「当たり」付近を効率よく探索したい。
「当たり」は「当たり」の近くにありがちだろう。
→ マルコフ連鎖が使えそう
尤度が高い方にただ向かうだけでなく、結構うろつく。
通ったパラメータ値を集めるといい感じの分布が得られる。
全体にばら撒く棄却サンプリングよりも効率よく集められる。
が、パラメータ1つの1次元ではご利益はわかりにくい。
パラメータが複数ある場合は?
パラメータが複数の場合「ほかを固定してひとつ更新」を繰り返す。
e.g., 二次元正規分布。(-2, 2) からスタート。
ここから、実行するにあたっての注意点を見ていく。
乱数や初期値によって偶々、じゃないことを確認したい。
e.g., chains = 3, iter = 600
。ほぼ同じところをうろうろ:
収束(convergence)の判定については後ほど。
定常分布の山に到達してからが本番。
e.g., iter = 600, warmup = 200
で灰色の部分を捨てる:
どれくらい長く捨てるべきかは場合による。
直前の値と似すぎていたら独立サンプルとして扱えないので。
e.g., thin = 5
で5回に1回だけサンプルする:
間引かなくても大丈夫な場合も、間引いても解決しない場合もある。
Warning: The largest R-hat is ***, indicating chains have not mixed.
Warning: Bulk Effective Samples Size (ESS) is too low, indicating posterior means and medians may be unreliable.
Warning: Tail Effective Samples Size (ESS) is too low, indicating posterior variances and tail quantiles may be unreliable.
Running the chains for more iterations may help. See
http://mc-stan.org/misc/warnings.html
採択率を高め、早く収束するように改良されてきている。
# install.packages("rstan")
library(rstan)
rstan_options(auto_write = TRUE)
# データ準備
mydata
# Stan言語で書いたモデルをコンパイル
model = rstan::stan_model(file = "model.stan")
# MCMCサンプリング
fit = rstan::sampling(model, data = mydata)
# 結果を眺める
print(fit)
rstan::stan_trace(fit)
rstan::stan_hist(fit)
rstan::stan_ac(fit)
表が出る確率 $p=0.7$ のイカサマコインをN回投げたデータを作る。
この $p$ をStanで推定してみよう。
true_p = 0.7
N = 40L
mydata = list(N = N, x = rbinom(N, 1, true_p))
print(mydata)
$N
[1] 40
$x
[1] 0 0 1 0 1 1 0 1 1 0 1 0 0 1 1 0 0 1 1 1 0 1 0 0 1 1 1 0 1 0 0 0 1 1 1 0 1 1 0 1
Rならlist型、Pythonならdict型にまとめてStanに渡す。
文字列として保持するか、別ファイルに書いておく:
data {
int<lower=0> N;
int x[N];
}
parameters {
real<lower=0,upper=1> p;
}
model {
x ~ binomial(1, p);
}
data
, 推定する parameter
, 本体の model
.int
, 実数型 real
, それらの配列がある。lower
, 上限 upper
を設定できる。順番厳守。よく使うのは太字のやつ。
functions {...}
data {...}
transformed data {...}
parameters {...}
transformed parameters {...}
model {...}
generated quantities {...}
https://mc-stan.org/docs/reference-manual/overview-of-stans-program-blocks.html
予め実行速度の速い機械語に翻訳(コンパイル):
model = rstan::stan_model("binom.stan")
これに結構時間がかかるので、変更が無ければ再利用するため先ほど
rstan_options(auto_write = TRUE)
しておいた。
モデルとデータを使ってMCMCサンプリング:
fit = rstan::sampling(model, data = mydata)
いろいろオプションはあるけどとりあえずデフォルトで:
chains = 4
, iter = 2000
, warmup = floor(iter/2)
, thin = 1
, …
問題があったら実行終了時に警告してくれるのでちゃんと読む。
$\hat R$ もほぼ1で $N_\text{eff}$ も大きいのでよさそう。
念のため trace plot も確認しておこう。
print(fit)
Inference for Stan model: binom.
4 chains, each with iter=2000; warmup=1000; thin=1;
post-warmup draws per chain=1000, total post-warmup draws=4000.
mean se_mean sd 2.5% 25% 50% 75% 97.5% n_eff Rhat
p 0.55 0.00 0.08 0.39 0.50 0.55 0.60 0.69 1651 1
lp__ -29.45 0.02 0.76 -31.61 -29.61 -29.16 -28.97 -28.92 1262 1
Samples were drawn using NUTS(diag_e) at Fri Oct 29 17:13:51 2021.
For each parameter, n_eff is a crude measure of effective sample size,
and Rhat is the potential scale reduction factor on split chains (at
convergence, Rhat=1).
乱数を使った計算なので(乱数シードを固定しない限り)毎回変わる。
どのchainも似た範囲を動いていて、しっかり毛虫っぽい:
rstan::stan_trace(fit)
2–3ステップくらいで自己相関がほぼ消えるので問題なし:
rstan::stan_ac(fit, pars = c("p"))
サンプルサイズNが小さいせいか裾野の広い推定結果。
真の$p$の値も含まれている:
rstan::stan_hist(fit, bins = 30)
次はもう少しだけ複雑な例を見てみよう。
Stan does not support NA
と怒られるので欠損値を取り除いておく:
List of 3
$ body_mass_g : int [1:342] 3750 3800 3250 3450 3650 3625 4675 3475 4250 3300 ...
$ flipper_length_mm: int [1:342] 181 186 195 193 190 181 195 193 190 186 ...
$ N : int 342
切片、傾き、ばらつきを推定する:
data {
int<lower=0> N;
vector<lower=0>[N] body_mass_g;
vector<lower=0>[N] flipper_length_mm;
}
parameters {
real intercept;
real slope;
real<lower=0> sigma;
}
model {
flipper_length_mm ~ normal(intercept + slope * body_mass_g, sigma);
}
予め実行速度の速い機械語に翻訳(コンパイル):
model = rstan::stan_model("penguins.stan")
モデルとデータを使ってMCMCサンプリング:
fit = rstan::sampling(model, data = data)
いろいろオプションはあるけどとりあえずデフォルトで:
chains = 4
, iter = 2000
, warmup = floor(iter/2)
, thin = 1
, …
問題があったら実行終了時に警告してくれるのでちゃんと読む。
$\hat R$ もほぼ1で $N_\text{eff}$ も大きいのでよさそう。
念のため trace plot も確認しておこう。
print(fit)
Inference for Stan model: penguins.
4 chains, each with iter=2000; warmup=1000; thin=1;
post-warmup draws per chain=1000, total post-warmup draws=4000.
mean se_mean sd 2.5% 25% 50% 75% 97.5% n_eff Rhat
intercept 136.76 0.05 1.97 132.89 135.40 136.75 138.04 140.67 1506 1
slope 0.02 0.00 0.00 0.01 0.01 0.02 0.02 0.02 1526 1
sigma 6.94 0.01 0.27 6.41 6.76 6.94 7.13 7.47 1198 1
lp__ -830.83 0.04 1.24 -834.08 -831.39 -830.51 -829.93 -829.43 1120 1
Samples were drawn using NUTS(diag_e) at Fri Oct 29 17:13:56 2021.
For each parameter, n_eff is a crude measure of effective sample size,
and Rhat is the potential scale reduction factor on split chains (at
convergence, Rhat=1).
どのchainも似た範囲を動いていて、しっかり毛虫っぽい:
rstan::stan_trace(fit)
どれもまあまあすぐ消えるので問題なし:
rstan::stan_ac(fit, pars = c("intercept", "slope", "sigma"))
正規分布っぽいきれいな形:
rstan::stan_hist(fit, bins = 30)
これらの値を使って点推定・区間推定も可能。
無事に最尤推定と似たような線が引けた。
coef = rstan::get_posterior_mean(fit)[, "mean-all chains"]
p_penweight +
geom_abline(intercept = coef["intercept"], slope = coef["slope"], size = 1, color = "#3366ff")
library(rstanarm)
library(tidybayes)
fit = rstanarm::stan_glm(flipper_length_mm ~ body_mass_g, family = gaussian(), data = penguins)
pred = penguins %>% tidyr::drop_na() %>% tidybayes::add_fitted_draws(fit)
p_penweight +
ggdist::stat_lineribbon(aes(y = .value), data = pred, color = "#3366ff", size = 0.4) +
scale_fill_brewer(palette = "Greys")
GLMのような書き味で書ける。
fit = rstanarm::stan_glm(flipper_length_mm ~ body_mass_g + species, family = gaussian(), data = penguins)
pred = penguins %>% tidyr::drop_na() %>% tidybayes::add_fitted_draws(fit)
p_penweight + aes(color = species, group = species) +
ggdist::stat_lineribbon(aes(y = .value), data = pred, size = 0.4) +
scale_color_manual(values = penguins_colors) +
scale_fill_brewer(palette = "Greys")
植物100個体から8個ずつ種子を取って植えたら全体で半分ちょい発芽。
親1個体あたりの生存数はn=8の二項分布になるはずだけど、
極端な値(全部死亡、全部生存)が多かった。個体差?
事前分布のパラメータに、さらに事前分布を設定するので階層ベイズ
お絵描きモデルとStanモデルを見比べてみよう。
data {
int<lower=0> N;
int y[N];
}
parameters {
real a; // mean ability
vector[N] r; // individual difference
real<lower=0> s; // sd of r
}
model {
y ~ binomial(8, inv_logit(a + r));
a ~ normal(0, 10);
r ~ normal(0, s);
s ~ exponential(0.01);
}
inv_logit(a + r)
が p に相当。
10
とか 0.01
とか、エイヤっと決めてるやつが超パラメータ。
Inference for Stan model: glmm.
4 chains, each with iter=2000; warmup=1000; thin=1;
post-warmup draws per chain=1000, total post-warmup draws=4000.
mean se_mean sd 2.5% 25% 50% 75% 97.5% n_eff Rhat
a 0.64 0.01 0.33 0.02 0.42 0.63 0.85 1.31 715 1.00
r[1] -1.14 0.01 0.83 -2.80 -1.67 -1.12 -0.58 0.39 3103 1.00
r[2] -4.21 0.03 1.66 -8.07 -5.11 -3.98 -3.03 -1.59 2501 1.00
r[3] 3.28 0.03 1.75 0.53 2.01 3.05 4.27 7.32 3607 1.00
r[4] -1.74 0.02 0.87 -3.55 -2.28 -1.70 -1.15 -0.11 3161 1.00
r[5] 3.32 0.03 1.79 0.50 2.01 3.09 4.35 7.55 3155 1.00
r[6] 3.34 0.03 1.81 0.53 2.03 3.11 4.42 7.55 3351 1.00
r[7] 3.29 0.03 1.79 0.50 2.01 3.05 4.33 7.41 3755 1.00
r[8] -1.73 0.02 0.87 -3.54 -2.28 -1.70 -1.12 -0.14 3211 1.00
r[9] 1.47 0.02 1.14 -0.51 0.70 1.37 2.13 4.00 3450 1.00
r[10] -4.23 0.03 1.73 -8.22 -5.21 -4.01 -2.99 -1.51 2901 1.00
r[11] -4.22 0.03 1.74 -8.43 -5.18 -3.94 -3.00 -1.50 3181 1.00
r[12] -1.75 0.02 0.93 -3.75 -2.33 -1.70 -1.12 -0.05 3312 1.00
r[13] -4.20 0.03 1.67 -8.08 -5.14 -3.94 -3.02 -1.61 3401 1.00
r[14] 1.48 0.02 1.16 -0.51 0.68 1.35 2.20 4.07 3648 1.00
r[15] -0.06 0.01 0.81 -1.65 -0.58 -0.07 0.47 1.54 3262 1.00
r[16] -1.76 0.02 0.91 -3.66 -2.33 -1.71 -1.15 -0.12 3090 1.00
r[17] 0.57 0.02 0.89 -1.05 -0.04 0.54 1.12 2.48 3339 1.00
r[18] -1.12 0.01 0.78 -2.70 -1.63 -1.12 -0.59 0.40 3214 1.00
r[19] -4.15 0.03 1.63 -7.95 -5.06 -3.93 -3.01 -1.62 3150 1.00
r[20] 0.58 0.01 0.91 -1.06 -0.05 0.55 1.16 2.52 3689 1.00
r[21] -2.58 0.02 1.10 -5.08 -3.22 -2.49 -1.83 -0.70 3230 1.00
r[22] 3.27 0.03 1.74 0.46 2.06 3.03 4.23 7.33 4449 1.00
r[23] -0.60 0.01 0.81 -2.22 -1.14 -0.58 -0.05 1.03 3225 1.00
r[24] 3.33 0.03 1.82 0.49 2.06 3.08 4.39 7.55 4216 1.00
r[25] 1.46 0.02 1.10 -0.44 0.70 1.38 2.11 3.86 3242 1.00
r[26] -2.57 0.02 1.07 -4.88 -3.23 -2.49 -1.82 -0.69 3177 1.00
r[27] 3.34 0.03 1.76 0.56 2.08 3.13 4.38 7.45 3473 1.00
r[28] 3.29 0.03 1.79 0.45 1.97 3.05 4.35 7.29 4532 1.00
r[29] 0.55 0.02 0.88 -1.06 -0.04 0.52 1.12 2.42 3429 1.00
r[30] 3.30 0.03 1.77 0.44 2.03 3.06 4.36 7.30 3878 1.00
r[31] 3.32 0.03 1.81 0.39 2.00 3.09 4.43 7.49 4289 1.00
r[32] -1.13 0.01 0.82 -2.81 -1.66 -1.11 -0.59 0.43 3146 1.00
r[33] -4.20 0.03 1.66 -7.91 -5.09 -3.96 -3.03 -1.62 3309 1.00
r[34] 1.47 0.02 1.14 -0.52 0.67 1.36 2.17 4.00 3491 1.00
r[35] -1.14 0.02 0.82 -2.79 -1.66 -1.11 -0.58 0.41 2846 1.00
r[36] 3.32 0.03 1.78 0.52 2.04 3.07 4.37 7.37 3656 1.00
r[37] 3.33 0.03 1.82 0.49 2.04 3.05 4.34 7.63 2878 1.00
r[38] 3.31 0.03 1.75 0.54 2.06 3.07 4.30 7.33 4249 1.00
r[39] -1.74 0.02 0.88 -3.57 -2.29 -1.68 -1.14 -0.13 3177 1.00
r[40] 3.34 0.03 1.82 0.52 2.06 3.07 4.35 7.55 3303 1.00
r[41] 1.48 0.02 1.09 -0.42 0.70 1.38 2.14 3.85 3730 1.00
r[42] 3.30 0.03 1.81 0.43 2.01 3.08 4.35 7.39 4420 1.00
r[43] 3.30 0.03 1.83 0.40 2.01 3.05 4.32 7.72 4425 1.00
r[44] 3.31 0.03 1.80 0.47 2.02 3.07 4.32 7.53 4103 1.00
r[45] -2.58 0.02 1.06 -4.91 -3.22 -2.48 -1.84 -0.76 3490 1.00
r[46] -0.62 0.01 0.78 -2.19 -1.12 -0.63 -0.11 0.97 3135 1.00
r[47] 3.35 0.03 1.83 0.54 2.03 3.10 4.39 7.54 3843 1.00
r[48] -4.17 0.03 1.63 -7.97 -5.08 -3.95 -3.00 -1.64 3222 1.00
r[49] -1.75 0.02 0.85 -3.51 -2.30 -1.71 -1.15 -0.22 2868 1.00
r[50] 3.35 0.03 1.80 0.49 2.02 3.11 4.42 7.47 4154 1.00
r[51] 3.29 0.03 1.74 0.56 2.05 3.05 4.29 7.33 3633 1.00
r[52] 1.45 0.02 1.13 -0.48 0.66 1.37 2.11 3.89 3494 1.00
r[53] -1.75 0.02 0.87 -3.57 -2.31 -1.70 -1.15 -0.14 2798 1.00
r[54] -1.74 0.01 0.85 -3.50 -2.30 -1.70 -1.16 -0.17 3373 1.00
r[55] 3.28 0.03 1.80 0.42 2.00 3.03 4.33 7.41 4110 1.00
r[56] 1.48 0.02 1.15 -0.49 0.67 1.37 2.16 4.02 3902 1.00
r[57] 0.58 0.02 0.92 -1.09 -0.03 0.53 1.16 2.52 3282 1.00
r[58] -0.07 0.01 0.79 -1.60 -0.60 -0.07 0.45 1.52 3475 1.00
r[59] -4.17 0.03 1.67 -8.09 -5.08 -3.93 -2.98 -1.59 3864 1.00
r[60] -0.06 0.01 0.78 -1.55 -0.59 -0.08 0.44 1.54 3064 1.00
r[61] -0.60 0.01 0.79 -2.15 -1.12 -0.61 -0.08 0.97 2960 1.00
r[62] -1.74 0.02 0.90 -3.68 -2.27 -1.68 -1.13 -0.10 3136 1.00
r[63] 3.30 0.03 1.79 0.52 1.98 3.09 4.32 7.43 4105 1.00
r[64] 1.44 0.02 1.08 -0.46 0.69 1.35 2.10 3.77 3982 1.00
r[65] 3.30 0.03 1.80 0.48 2.03 3.04 4.30 7.52 3822 1.00
r[66] -1.14 0.01 0.80 -2.74 -1.65 -1.11 -0.60 0.41 2886 1.00
r[67] 0.58 0.02 0.91 -1.08 -0.05 0.54 1.16 2.50 3257 1.00
r[68] 1.44 0.02 1.08 -0.45 0.69 1.36 2.10 3.87 3589 1.00
r[69] -4.16 0.03 1.60 -7.74 -5.12 -3.92 -3.01 -1.63 3384 1.00
r[70] -2.56 0.02 1.06 -4.86 -3.21 -2.46 -1.84 -0.74 4056 1.00
r[71] -4.19 0.03 1.67 -8.02 -5.17 -4.00 -2.98 -1.56 2914 1.00
r[72] -4.14 0.03 1.61 -7.83 -5.09 -3.93 -3.02 -1.57 3898 1.00
r[73] -0.06 0.01 0.83 -1.60 -0.61 -0.09 0.48 1.64 3389 1.00
r[74] 0.56 0.02 0.89 -1.03 -0.05 0.53 1.12 2.45 3455 1.00
r[75] 3.32 0.03 1.77 0.52 2.02 3.12 4.33 7.49 3877 1.00
r[76] 1.45 0.02 1.06 -0.38 0.71 1.35 2.10 3.80 4350 1.00
r[77] -2.59 0.02 1.10 -4.91 -3.26 -2.49 -1.81 -0.68 3702 1.00
r[78] 3.32 0.03 1.79 0.46 2.08 3.09 4.31 7.51 4059 1.00
r[79] -1.15 0.02 0.81 -2.77 -1.68 -1.13 -0.60 0.38 2749 1.00
r[80] 3.28 0.03 1.77 0.50 2.05 3.04 4.22 7.47 3877 1.00
r[81] -2.59 0.02 1.10 -5.05 -3.25 -2.49 -1.82 -0.64 3963 1.00
r[82] -0.07 0.01 0.83 -1.66 -0.63 -0.08 0.46 1.62 3331 1.00
r[83] -0.06 0.01 0.79 -1.58 -0.59 -0.05 0.45 1.53 3115 1.00
r[84] 0.57 0.02 0.89 -1.09 -0.03 0.53 1.13 2.35 3043 1.00
r[85] -0.06 0.02 0.81 -1.62 -0.60 -0.08 0.49 1.57 2857 1.00
r[86] 0.56 0.01 0.90 -1.14 -0.03 0.50 1.10 2.51 3650 1.00
r[87] -1.13 0.02 0.81 -2.85 -1.65 -1.11 -0.59 0.36 2735 1.00
r[88] -2.58 0.02 1.13 -5.18 -3.22 -2.46 -1.80 -0.71 3137 1.00
r[89] -4.22 0.03 1.69 -8.10 -5.20 -4.01 -2.99 -1.56 3726 1.00
r[90] -2.56 0.02 1.09 -4.92 -3.21 -2.47 -1.80 -0.73 3150 1.00
r[91] -1.14 0.01 0.81 -2.76 -1.68 -1.13 -0.59 0.34 2959 1.00
r[92] 3.29 0.03 1.76 0.54 2.00 3.06 4.36 7.26 4439 1.00
r[93] -4.16 0.03 1.69 -8.13 -5.10 -3.95 -2.96 -1.52 3633 1.00
r[94] 3.34 0.03 1.78 0.51 2.04 3.12 4.40 7.52 4070 1.00
r[95] -2.58 0.02 1.08 -4.98 -3.22 -2.45 -1.84 -0.74 3719 1.00
r[96] -4.19 0.03 1.64 -7.97 -5.15 -3.98 -3.02 -1.65 3574 1.00
r[97] -0.06 0.02 0.83 -1.66 -0.61 -0.07 0.47 1.67 3004 1.00
r[98] -1.74 0.02 0.87 -3.57 -2.30 -1.70 -1.16 -0.12 3103 1.00
r[99] -0.06 0.01 0.80 -1.60 -0.61 -0.09 0.46 1.62 3153 1.00
r[100] -1.14 0.01 0.79 -2.75 -1.65 -1.10 -0.58 0.34 2838 1.00
s 2.95 0.01 0.38 2.30 2.68 2.92 3.18 3.78 1096 1.01
lp__ -452.90 0.38 9.69 -473.84 -458.96 -452.20 -446.19 -435.36 639 1.01
Samples were drawn using NUTS(diag_e) at Fri Oct 29 17:14:22 2021.
For each parameter, n_eff is a crude measure of effective sample size,
and Rhat is the potential scale reduction factor on split chains (at
convergence, Rhat=1).
データ生成の真のパラメータ値は $a = 0.5,~s = 3.0$ だった。
とりあえず無情報事前分布 $[-\infty, \infty]$。Stanのデフォルト。
収束が悪かったら弱情報事前分布を試す。
事後分布を更新していったとき事前分布っぽさが残らないのが良い。
おすすめ: Student’s t分布、正規分布、指数分布など。
https://github.com/stan-dev/stan/wiki/Prior-Choice-Recommendations
Student’s $t(\nu=\nu_0, \mu = 0, \sigma = \sigma_0)$
正の値しか取らない場合は <lower=0>
として右半分だけ使うとか。
刺激強度xに対する応答強度yを20個体調査。
非対称なひと山。応答変数も説明変数も正の値。
data {
int<lower=1> N;
vector[N] x;
vector[N] y;
int id[N];
int<lower=1> Ninds;
}
parameters {
real a;
real d;
real<upper=a> c;
real<upper=d> b;
real shape;
vector[Ninds] intercept;
}
model {
vector[N] mu = a * exp(-b * x) - (a - c) * exp(-d * x) + intercept[id];
y ~ gamma(shape, shape ./ mu);
a ~ exponential(1);
b ~ exponential(1);
c ~ exponential(1);
d ~ exponential(1);
shape ~ exponential(0.001);
intercept ~ normal(0, 0.005);
}
より柔軟にモデルを記述できるようになった。計算方法も変化。