2017/11/2 Python-statistics4 Python で統計学を学ぶ (4) この内容は 杉澤 村井 (2008) R によるやさしい統計学 (
|
|
|
- りえ はかまや
- 6 years ago
- Views:
Transcription
1 Python で統計学を学ぶ (4) この内容は 杉澤 村井 (2008) R によるやさしい統計学 ( を参考にしています この講義では 統計的仮説検定 をとりあげます これは 統計的仮説検定の 順の理解と 語の習熟がねらいです また 代表的な統計的仮説検定 つまり標準正規分布を いた検定 t 分布を いた検定 無相関検定 カイ 乗検定について学びます 学習項 です : 統計的仮説検定の必要性統計的仮説検定の 順と 語標準正規分布を いた検定 (1 つの平均値の検定 : 分散が既知 ) t 分布を いた検定 (1 つの平均値の検定 : 分散が未知 ) 相関係数の検定 ( 無相関検定 ) 独 性の検定 ( カイ 乗検定 ) 関数のまとめ演習問題 統計的仮説検定の必要性 下の散布図を てください ( の円は 点の分布の状態を表すために描いたものです ): ( ( これをみると この2つの変数 a と bの間には相関関係がないようにみえます 実際 corrcoef(a, b) = 0.034なので相関なしといえます ところが a, bそれぞれから30 点ずつ無作為抽出したデータ xa, xb ( 下にその散布図を す ) は ときに という 弱い相関 を すことがあります 参考 : 無相関の 集団から相関するデータを作る次が無相関の 集団から相関するデータを作った 法です : 1/16
2 In [185]: import matplotlib.pyplot as plt fig = plt.figure() a = random.normal(50,10,500) b = random.normal(50,10,500) plt.scatter(a, b,c='w') plt.xlabel('a') plt.ylabel('b') ax = fig.add_subplot(111) # 中心 (50,50) で半径 25 の円を描画 circle = plt.circle((50,50),25, fill=false, color='b') ax.add_patch(circle) aspect = (ax.get_xlim()[1] - ax.get_xlim()[0]) / (ax.get_ylim()[1] - ax.get_ylim()[0]) ax.set_aspect(aspect) # 縦横の縮尺を調整 plt.show() In [34]: %matplotlib inline import matplotlib.pyplot as plt import numpy as np import numpy.random as random a = random.normal(50,10,500) b = random.normal(50,10,500) for _ in range(100): xa = random.choice(a,30) xb = random.choice(b,30) if (abs(np.corrcoef(xa,xb)[0,1]) > 0.30): break plt.scatter(xa, xb) plt.xlabel('xa') plt.ylabel('xb') x = np.linspace(10, 90, 10000) lm = np.polyfit(xa, xb, 1) plt.plot(x, lm[0]*x+lm[1],"g") print(np.corrcoef(xa,xb)[0,1]) これは 実際には作為的に作られたデータです しかし あなたが発明した機器の有効性を す論 や あなたが作った薬品の効果を す論 において 都合の良いデータだけを集めたのではないか もしくは作為がないとしても このデータは本当に偶然の結果であって多数のデータを取ればこのようなグラフにはならないのではないか という疑いがかけられることがあります そのような疑いや批判には ( 前の章で学んだように ) 標本抽出が無作為抽出であること ( 都合の良いデータを集めたわけではない ) そして ( 本章で学ぶように ) 集団に全く相関がないとしたら 抽出した標本からこのような結果が得られる可能性が 常に さいということ ( 多数のデータを集めても同じような結果が得られる確率が い ) を さなければなりません そして 統計的仮説検定は確率に基づき 後者の主張を うための 法です ( 前者の 無作為抽出 は 統計による分析の 前提です ) 統計的仮説検定の 順と 語 統計的仮説検定の 般的な 順を次の表に します : 順やること 1 集団に関する帰無仮説と対 仮説を設定 2 検定統計量を選択 3 有意 準 αの値を決定 4 データを収集した後 データから検定統計量の実現値を求める 5 結論 : 検定統計量の実現値が棄却域に れば帰無仮説を棄却し 対 仮説を採択する そうでなければ 帰無仮説を採択する 1. 帰無仮説と対 仮説 帰無仮説 : 提案する 法が従来の 法と 差がない 提案する 法は 効果がない という仮説 --- 本来主張したいこととは逆の仮説 この仮説が棄却されることを 標として仮説検定を う 具体的には 平均 μ = 0 ( 平均は0である ), 相関係数 ρ = 0 ( 相関がない ), 平均の差 μ 1 μ 2 = 0 ( 差がない ) というような仮説対 仮説 : 帰無仮説が棄却されたときに採択される仮説 --- 帰無仮説とは逆の仮説であり 実験などで したい 主張したいことを表したもの具体的には 平均 μ 0( 平均は0でない ), 相関係数 ρ 0 ( 相関がある ), 平均の差 μ 1 μ 2 0 ( 差がある ) というような仮説対 仮説の設定により 検定は次のどちらかで う ( 両側検定の がより厳しい条件であり 普通は両側検定で う ): 側検定 : 対 仮説が 平均 μ > 0( もしくは μ < 0 ) 相関係数 ρ > 0( もしくは ρ < 0 ) 平均の差 μ 1 > μ 2 ( もしくは μ 1 < μ 2 ) の場合 2/16
3 両側検定 : 対 仮説が 平均 μ 0 相関係数 ρ 0 平均の差 μ 1 - μ2 0の場合要するに 両側検定では 例えば 平均 μ 0を調べるには 平均 μ > 0 と μ < 0 の両 を調べなければならない帰無仮説が正しいものとして分析を う 実際に得られたデータから計算された検定統計量の値によって採択を判断する 帰無仮説が正しいとしたとき 検定統計量が ほぼ起こり得ない値 ( それほど極端な値 ) であれば 帰無仮説を棄却する ( つまり 本来の主張を表す対 仮説が採択される ) そうでなければ ( 確率的に 分起こりうるような値であれば 帰無仮説を採択する ( この場合は 本来主張したかった対 仮説が棄却されてしまう ) 2. 検定統計量 検定統計量 : 統計的仮説検定のために いられる標本統計量のこと 代表的な検定統計量の例 : t, χ 2 F 検定統計量の実現値 : 実際のデータ ( に った標本 ) を基に計算してえられる具体的な値のこと検定統計量の実現値は 対 仮説に合うほど 0から離れた値を す 3. 有意 準と棄却域 対 仮説を採択するか決定するときに基準になるのが有意 準 (α で表されます ) 有意 準は 5% または 1%(α=0.05 または α=0.01) に設定することが多い ( つまり 標本が 100 回に 5 回 (5% の場合 ) 以下にしか現れないデータであった --- こんなことは偶然では起こりえない --- だから帰無仮説が成り たないと考えて良いのではないか という判断基準 ) 帰無仮説が正しいものとして考えた時の標本分布を帰無分布という --- 帰無分布に基づいて確率計算される帰無仮説のもとで 常に じにくい検定統計量の値の範囲を棄却域という --- 帰無仮説が棄却される領域 ( だから この範囲に るのが 望ましい ) 採択域 : 棄却域以外の部分 --- 帰無仮説が採択される領域 臨界値 : 棄却域と採択域の境 の値棄却域に検定統計量の実現値が ったら 帰無仮説を棄却する --- 本来主張したかったことが採択される! ( 正規分布を帰無分布とした時の棄却域 4 & 5. 統計的仮説検定の結果の報告 検定統計量の実現値が棄却域に った場合 差がない という帰無仮説を棄却し 差がある という対 仮説を採択する 検定結果は 5% ( または 1%) 準で有意であるまたは p <.05 ( または p <.01 ) で有意差が られた と記述する 帰無仮説が棄却できない場合は 検定の結果 差が有意でなかった または 有意差が認められなかった と書く 課題 4-1 あなたはランダムに配置された対象物 ( 例えば地雷や 油や埋蔵 など ) を衛星からのセンサーデータを元に限定された時間 ( 例えば 1 時間 ) 内に検出する機器を作成した 100 個のデータに対し検出率は 0.70 であった そして その性能が従来の製品 ( 検出率は 0.60 と宣伝されている ) よりも優れていることを統計的仮説検定の 法により したい どのような帰無仮説と対 仮説をたてればよいか また検定 法は 側か両側か 有意 準はどのくらいに設定したらよいか 考えを述べよ In [ ]: p 値 p 値 : 帰無仮説が正しいという仮定のもとで 標本から計算した検定統計量の実現値以上の値が得られる確率 p 値が有意 準より さい時に帰無仮説を棄却する [ 参考 : p 値が さいことの意味 ] p 値の きさが対 仮説を採択する ( 帰無仮説を棄却する ) 決め となります p 値が さいということは 帰無仮説が正しいとすると 確率的にほとんど起こりえないことが起きた ( 有意 準が 5% なら 100 回中 5 回以下 1% なら 100 回中 1 回以下 ) ということを意味します 逆に p 値が きいということは 確率的にはよくあることが起きた ( だから この結果では差があるとはいえない ) ということになります 第 1 種の誤りと第 2 種の誤り 第 1 種の誤り α: 帰無仮説が真のとき これを棄却してしまう 誤りのことこの種の誤りを犯す確率が 有意 準 または 危険率 第 2 種の誤り β: 帰無仮説が偽のとき これを採択する ( 棄却できない ) 誤りのこと本当は差があるのに 差がない と判断してしまう誤り 検定 検定 : 帰無仮説が偽の場合 全体の確率 1 から第 2 種の誤りの確率 (1 - β) を引いた確率 第 2 種の誤りを犯さない確率 とも つまり間違っている帰無仮説を正しく棄却できる確率のこと 標準正規分布を いた検定 (1 つの平均値の検定 : 分散が既知 ) 3/16
4 正規 集団 N(μ, σ 2 ) から無作為に標本を抽出する ( サンプルサイズを n とする ) と 標本平均の分布も正規分布標本平均の平均は [ ア ] 分散は [ イ ] ( 問題 : ア イに当てはまる記号を書け--- 課題 4-2) これを標準化したものを検定統計量とする ( X は標本データの平均 ): Z = X μ σ/ n 課題 4-2 正規 集団 N(μ, σ 2 ) から無作為に標本を抽出したとき 理論的に標本平均の平均と 分散がそれぞれどのように表されるか 書きなさい ( つまり 上の [ ア ], [ イ ] の箇所を補うこと ) またこれを標準化して得られる検定統計量がZで表されている理由を答えなさい [ ヒント ] 標本分布を求める (Rstatistics-03.html#makingSample) の項を読みなおしてください また 標準化については標準化 (Rstatistics-01.html#RS01:normalization) の項を てください Type Markdown and LaTeX: α 2 In [36]: Python を使った実習 例題 : 理学テスト がN(12, 10) の正規分布に従うものとする 次のデータ ( 指導法データ と呼ぶ) はこの 集団から無作為抽出した標本と考えてよいかどうかを判定せよ from future import division import numpy as np SampleData = np.array([13,14,7,12,10,6,8,15,4,14,9,6,10,12,5,12,8,8,12,15]) 次のステップで う : 1. 帰無仮説と対 仮説をたてる : 帰無仮説は 無作為抽出した標本と考えて良い つまり μ = 12 対 仮説は 無作為抽出した標本ではない つまりμ 検定統計量の選択 : 標本データを標準化した値 (Zで表す) 3. 有意 準の決定 : 両側検定で 有意 準 5% つまりα = 検定統計量の実現値の計算 : In [38]: z = (np.mean(sampledata) - 12) / (10.0/len(SampleData))**0.5 z Out[38]: # 標準化 帰無仮説の棄却か採択かの決定 : 帰無仮説によればこの標本は正規分布に従う そこでscipy.statsモジュールのppf 関数で棄却の臨界値を求める もしくはcdf 関数でp 値を求める下側確率 : 標準正規分布に従う確率変数 Zを例にとると Zがある値 α以下となる確率 Prob(Z α) 上側確率 : 標準正規分布に従う確率変数 Zを例にとると Zがある値 αより きくなる確率 Prob(Z > α) In [45]: import scipy.stats as st st.norm.ppf(0.025) # 下側確率 0.05/2 = 0.025となるzの値を求める # 下側確率であるから この値よりもZ 値が小さければ棄却される Out[45]: In [46]: # 上側確率 /2 = となる z の値を求める st.norm.ppf(0.975) # 上側確率であるから この値よりも Z 値が大きければ棄却される Out[46]: In [4]: help(st.norm.ppf) Help on method ppf in module scipy.stats._distn_infrastructure: ppf(self, q, *args, **kwds) method of scipy.stats._continuous_distns.norm_gen instance Percent point function (inverse of `cdf`) at q of the given RV. q : array_like lower tail probability arg1, arg2, arg3,... : array_like The shape parameter(s) for the distribution (see docstring of the instance object for more information) loc : array_like, optional location parameter (default=0) scale : array_like, optional scale parameter (default=1) x : array_like quantile corresponding to the lower tail probability q. この結果 棄却域は Z < または Z > となるので Zの値は棄却域に る よって 結論 有意 準 5% において 指導法データは 理学テスト ( という 集団 ) から無作為抽出した標本とはいえない なお 関数 cdf を いて 直接 p 値を求めることもできる : In [47]: st.norm.cdf( ) # 下側確率 # 下側確率とすれば p 値は0.0023という小さな値 (< 0.05) Out[47]: In [48]: st.norm.cdf( ) Out[48]: # 上側確率 4/16
5 In [49]: # 両側検定なので 2 倍する 2*st.norm.cdf( ) # 両側検定であるから 2 倍した p 値は という小さな値 (< 0.05) Out[49]: In [3]: help(st.norm.cdf) Help on method cdf in module scipy.stats._distn_infrastructure: cdf(self, x, *args, **kwds) method of scipy.stats._continuous_distns.norm_gen instance Cumulative distribution function of the given RV. x : array_like quantiles arg1, arg2, arg3,... : array_like The shape parameter(s) for the distribution (see docstring of the instance object for more information) loc : array_like, optional location parameter (default=0) scale : array_like, optional scale parameter (default=1) cdf : ndarray Cumulative distribution function evaluated at `x` 課題 4-3 標準正規分布のグラフを書き 有意 準 5% の棄却域を で表し 例題の Z 値がどこに位置するかを重ね書きした図を作成せよ [ ヒント ] 前節正規分布 ( の 正規分布グラフに領域を表 する関数 で紹介した関数を拡張修正して いる Z 値以下の領域をオレンジ で表すと次のような図が得られる : ( t 分布を いた検定 (1 つの平均値の検定 : 分散が未知 ) 2 正規 集団からの無作為標本であっても 集団の分散 σ がわからない場合 先の 法が使えません--- 先の検定で いた検定統計量が計算できないからです そこで 分散の平 根 σ の代わりに 標本から求められる不偏分散の平 根 σ を使い を検定統計量とする これは 由度 (df) n 1 のt 分布に従う t = X μ σ / n t 分布 : 統計学でよく利 される 正規分布の形に似た左右対称 形の確率分布 由度 (df):t 分布の形状を決める ( 5/16
6 Python を使った実習例題 : 理学テスト が平均 12 の正規分布に従うものとする ( 分散は未知!) 前項にあげた 指導法データ (SampleData) が この 集団から無作為抽出した標本と考えてよいかどうかを判定せよ 次のステップで う : 1. 帰無仮説と対 仮説をたてる : 帰無仮説は 無作為抽出した標本と考えて良い つまり μ = 12 対 仮説は 無作為抽出した標本ではない つまりμ 検定統計量の選択 : 標本の不偏分散の平 根 σ を い t = X μ σ / n を検定統計量とする 3. 有意 準の決定 : 両側検定で 有意 準 5% つまりα = 検定統計量の実現値の計算 : t = (np.mean(sampledata) - 12) / (np.var(sampledata, ddof=1)/len(sampledata))**0.5 # 検定量 5. 帰無仮説の棄却か採択かの決定 : 帰無仮説によればこの検定統計量は 由度 df = n 1 = 19のt 分布に従う st.t.ppf(0.025,19) # df=19 下側確率 0.05/2 = 0.025となるtの値を求める (scipy.stats.tモジュールのppf 関数 # 下側確率であるから この値よりもt 値が小さければ棄却される ) st.t.ppf(0.975,19) # df=19 上側確率 /2 = 0.975となるtの値を求める (scipy.stats.tモジュールのppf 関数 # 上側確率であるから この値よりもt 値が大きければ棄却される この結果 棄却域は t < または t > となるので tの値は棄却域に る 関数 cdf を いて 直接 p 値を求めることもできる : st.t.cdf( ,19) # 下側確率 (scipy.stats.tモジュールのcdf 関数 ) # 下側確率とすれば p 値は という小さな値 (< 0.05) print(st.t.cdf( ,19)) # 上側確率 print(2*st.t.cdf( ,19)) # 両側検定なので2 倍する # 両側検定より2 倍したp 値は0.017という小さな値 (< 0.05) 6. よって 結論 有意 準 5% において 指導法データは 理学テスト ( という 集団 ) から無作為抽出した標本とはいえない In [186]: # 以上の実行 t = (np.mean(sampledata) - 12) / (np.var(sampledata, ddof=1)/len(sampledata))**0.5 print("t = %f" % t) t = # 検定量 In [187]: import scipy.stats as st st.t.ppf(0.025,19) # df=19 下側確率 0.05/2 = 0.025となるtの値を求める (scipy.stats.tモジュールのppf 関数 # 下側確率であるから この値よりもt 値が小さければ棄却される ) Out[187]: In [188]: st.t.ppf(0.975,19) # df=19 上側確率 /2 = 0.975となるtの値を求める (scipy.stats.tモジュールのppf 関数 # 上側確率であるから この値よりもt 値が大きければ棄却される Out[188]: In [189]: st.t.cdf( ,19) # 下側確率 (scipy.stats.t モジュールの cdf 関数 ) # 下側確率とすれば p 値は という小さな値 (< 0.05) Out[189]: /16
7 In [190]: print(st.t.cdf( ,19)) # 上側確率 print(2*st.t.cdf( ,19)) # 両側検定なので2 倍する # 両側検定より2 倍したp 値は0.017という小さな値 (< 0.05) In [5]: help(st.t.ppf) Help on method ppf in module scipy.stats._distn_infrastructure: ppf(self, q, *args, **kwds) method of scipy.stats._continuous_distns.t_gen instance Percent point function (inverse of `cdf`) at q of the given RV. q : array_like lower tail probability arg1, arg2, arg3,... : array_like The shape parameter(s) for the distribution (see docstring of the instance object for more information) loc : array_like, optional location parameter (default=0) scale : array_like, optional scale parameter (default=1) x : array_like quantile corresponding to the lower tail probability q. In [6]: help(st.t.cdf) Help on method cdf in module scipy.stats._distn_infrastructure: cdf(self, x, *args, **kwds) method of scipy.stats._continuous_distns.t_gen instance Cumulative distribution function of the given RV. x : array_like quantiles arg1, arg2, arg3,... : array_like The shape parameter(s) for the distribution (see docstring of the instance object for more information) loc : array_like, optional location parameter (default=0) scale : array_like, optional scale parameter (default=1) cdf : ndarray Cumulative distribution function evaluated at `x` Python で t 検定するための関数 : 以上のことをすべてやってくれる関数が scipy.stats モジュールの ttest_1samp 関数である 7/16
8 In [70]: import scipy.stats as st help(st.ttest_1samp) Help on function ttest_1samp in module scipy.stats.stats: ttest_1samp(a, popmean, axis=0, nan_policy='propagate') Calculates the T-test for the mean of ONE group of scores. This is a two-sided test for the null hypothesis that the expected value (mean) of a sample of independent observations `a` is equal to the given population mean, `popmean`. a : array_like sample observation popmean : float or array_like expected value in null hypothesis, if array_like than it must have the same shape as `a` excluding the axis dimension axis : int or None, optional Axis along which to compute test. If None, compute over the whole array `a`. nan_policy : {'propagate', 'raise', 'omit'}, optional Defines how to handle when input contains nan. 'propagate' returns nan, 'raise' throws an error, 'omit' performs the calculations ignoring nan values. Default is 'propagate'. statistic : float or array t-statistic pvalue : float or array two-tailed p-value Examples - >>> from scipy import stats >>> np.random.seed( ) # fix seed to get the same result >>> rvs = stats.norm.rvs(loc=5, scale=10, size=(50,2)) Test if mean of random sample is equal to true mean, and different mean. We reject the null hypothesis in the second case and don't reject it in the first case. >>> stats.ttest_1samp(rvs,5.0) (array([ , ]), array([ , ])) >>> stats.ttest_1samp(rvs,0.0) (array([ , ]), array([ , ])) Examples using axis and non-scalar dimension for population mean. >>> stats.ttest_1samp(rvs,[5.0,0.0]) (array([ , ]), array([ e-01, e-04])) >>> stats.ttest_1samp(rvs.t,[5.0,0.0],axis=1) (array([ , ]), array([ e-01, e-04])) >>> stats.ttest_1samp(rvs,[[5.0],[0.0]]) (array([[ , ], [ , ]]), array([[ e-01, e-01], [ e-03, e-04]])) 指導法データ (SampleData) を いてその使い を す : st.ttest_1samp( データ, μ) In [72]: Out[72]: st.ttest_1samp(sampledata,12.0) Ttest_1sampResult(statistic= , pvalue= ) この表 から t 値が p 値が ( 両側検定 ) であることが得られる 相関係数の検定 ( 無相関検定 ) 無相関検定 : 集団において相関が 0 である と設定して う検定 集団相関係数 ( 相関 ) に関する検定を うときは 標本相関係数 rから次を求めて検定統計量とする : t = r n 2 1 r 2 Python を使った実習 例題 : 以下で与えられる 統計学テスト 1 (StatTest1) と 統計学テスト 2 (StatTest2) の得点の相関係数の検定を え 有意 準は 5% とする In [73]: import numpy as np StatTest1 = np.array([6,10,6,10,5,3,5,9,3,3,11,6,11,9,7,5,8,7,7,9]) StatTest2 = np.array([10,13,8,15,8,6,9,10,7,3,18,14,18,11,12,5,7,12,7,7]) 次のステップで う : 1. 帰無仮説と対 仮説をたてる : 帰無仮説は ρ = 0 つまり 相関 = 0 対 仮説は ρ 0 つまり 相関 0 2. 検定統計量の選択 : t = r n 2 1 r 2 3. 有意 準の決定 : 両側検定で 有意 準 5% つまりα = 検定統計量の実現値の計算 : 8/16
9 SampleCorr = np.corrcoef(stattest1, StatTest2)[0,1] print("sample Correlation = %f" % SampleCorr) # 標本相関 Sample Correlation = SampleSize = len(stattest1) tdividend = SampleCorr * (SampleSize - 2.0)**0.5 tdivider = (1.0 - SampleCorr**2)**0.5 t = tdividend/tdivider t statistics = 帰無仮説の棄却か採択かの決定 : 帰無仮説によればこの検定統計量は 由度 df = n 2 = 18のt 分布に従う import scipy.stats as st print(st.t.ppf(0.025,18)) # df=18 下側確率 0.05/2 = 0.025となるtの値を求める # 下側確率であるから この値よりもt 値が小さければ棄却される print(st.t.ppf(0.975,18)) # df=18 上側確率 /2 = 0.975となるtの値を求める # 上側確率であるから この値よりもt 値が大きければ棄却される 6. この結果 棄却域は t < または t > 2.101となるので tの値は棄却域に る よって結論 統計学テスト1(StatTest1) と統計学テスト2(StatTest2) は有意 準 5% において強い相関 ( 相関係数 0.75) がある In [83]: from future import division import numpy as np SampleCorr = np.corrcoef(stattest1, StatTest2)[0,1] print("sample Correlation = %f" % SampleCorr) # 標本相関 SampleSize = len(stattest1) tdividend = SampleCorr * (SampleSize - 2.0)**0.5 tdivider = (1.0 - SampleCorr**2)**0.5 t = tdividend/tdivider print("t statistics = %f" % t) Sample Correlation = t statistics = In [86]: import scipy.stats as st print(st.t.ppf(0.025,18)) # df=18 下側確率 0.05/2 = 0.025となるtの値を求める # 下側確率であるから この値よりもt 値が小さければ棄却される print(st.t.ppf(0.975,18)) # df=18 上側確率 /2 = 0.975となるtの値を求める # 上側確率であるから この値よりもt 値が大きければ棄却される なお scipy.stats.t モジュールの cdf 関数を いて 直接 p 値を求めることもできる : In [93]: print(st.t.cdf(t,18)) # 上側確率 print( (1.0 - st.t.cdf(t,18))*2.0 ) # 両側検定なので 2 倍する # 両側検定により 2 倍した p 値は という小さな値 (< 0.05) Python で無相関検定するための関数 : scipy.stat.pearsonr In [92]: help(st.pearsonr) Help on function pearsonr in module scipy.stats.stats: pearsonr(x, y) Calculates a Pearson correlation coefficient and the p-value for testing non-correlation. The Pearson correlation coefficient measures the linear relationship between two datasets. Strictly speaking, Pearson's correlation requires that each dataset be normally distributed, and not necessarily zero-mean. Like other correlation coefficients, this one varies between -1 and +1 with 0 implying no correlation. Correlations of -1 or +1 imply an exact linear relationship. Positive correlations imply that as x increases, so does y. Negative correlations imply that as x increases, y decreases. The p-value roughly indicates the probability of an uncorrelated system producing datasets that have a Pearson correlation at least as extreme as the one computed from these datasets. The p-values are not entirely reliable but are probably reasonable for datasets larger than 500 or so. x : (N,) array_like Input y : (N,) array_like Input r : float Pearson's correlation coefficient p-value : float 2-tailed p-value References ( In [95]: import scipy.stats as st SampleCorr = st.pearsonr(stattest1, StatTest2) print(samplecorr) ( , ) pearsonr 関数の出 の第 要素は標本相関係数 (0.75) 第 要素は両側検定による p 値である 9/16
10 独 性の検定 ( カイ 乗検定 ) 2 つの質的変数が独 かどうかを確かめる --- 独 とは 2 つの質的変数に連関がない こと 独 性の検定 :2つの質的変数間の連関の有意性を調べる検定期待度数 :2つの変数の間に連関がない( 独 である ) という帰無仮説のもとで 帰無仮説が正しければ ( 連関がなければ ) これくらいの度数をとるだろうと期待される度数クロス集計表におけるセルの期待度数 = ( セルが属する の周辺度数 セルが属する列の周辺度数 ) 総度数 χ 2 ( カイ2 乗 ) という確率分布を利 するため カイ 乗 (2 乗 ) 検定ともいう 独 性の検定における検定統計量の式 χ 2 ( O = 1 E 1 ) 2 ( O + 2 E 2 ) 2 ( O + + k E k ) 2 E 1 E 2 E k O 1 O k は観測度数 E 1 E k は期待度数カイ 乗分布 : ( Python を使った実習 例題 :20 名の学 に対し数学 (Math) と統計学 (Stat) の好き嫌いをアンケート調査した結果が以下 このことから 般に数学と統計学の好き嫌いの間に有意な連関があるといえるかどうか 有意 準 5% で検定せよ Math = np.array([" 嫌い "," 嫌い "," 好き "," 好き "," 嫌い "," 嫌い "," 嫌い "," 嫌い "," 嫌い "," 好き "," 好き ", " 嫌い "," 好き "," 嫌い "," 嫌い "," 好き "," 嫌い "," 嫌い "," 嫌い "," 嫌い "]) Stat = np.array([" 好き "," 好き "," 好き "," 好き "," 嫌い "," 嫌い "," 嫌い "," 嫌い "," 嫌い "," 嫌い "," 好き ", " 好き "," 好き "," 嫌い "," 好き "," 嫌い "," 嫌い "," 嫌い "," 嫌い "," 嫌い "]) このクロス集計表は以下 : 統計学好き 統計学嫌い 合計 数学好き Expectation_11 Expectation_12 6 数学嫌い Expectation_21 Expectation_22 14 計 マスのことをセル セルに書かれた数値を観測度数 観測度数を各々 列 で合計したものを周辺度数 周辺度数の合計を総度数と呼ぶ 由度 df = ( の数 -1) ( 列の数 -1) In [144]: Math = np.array([" 嫌い "," 嫌い "," 好き "," 好き "," 嫌い "," 嫌い "," 嫌い "," 嫌い "," 嫌い "," 好き "," 好き ", " 嫌い "," 好き "," 嫌い "," 嫌い "," 好き "," 嫌い "," 嫌い "," 嫌い "," 嫌い "]) Stat = np.array([" 好き "," 好き "," 好き "," 好き "," 嫌い "," 嫌い "," 嫌い "," 嫌い "," 嫌い "," 嫌い "," 好き ", " 好き "," 好き "," 嫌い "," 好き "," 嫌い "," 嫌い "," 嫌い "," 嫌い "," 嫌い "]) import pandas as pd data = pd.dataframe({ 'Stat':Stat, 'Math':Math}) table = pd.crosstab(data.math,data.stat,margins=true) # クロス集計表を作る table Out[144]: Stat 好き嫌い All Math 好き 嫌い All 次のステップで う : 1. 帰無仮説と対 仮説をたてる : 帰無仮説 H0は 数学と統計学の2つの変数は独 ( 連関なし ) 対 仮説 H1は 数学と統計学の2つの変数は独 ( 連関なし ) 2. 検定統計量の選択 : χ 2 ( O = 1 E 1 ) 2 ( O + 2 E 2 ) 2 ( O + + k E k ) 2 E 1 E 2 E k 3. 有意 準の決定 : 5% とする ( 側検定 ---カイ 乗検定は棄却域が つしかない) 4. 検定統計量の実現値の計算 : 10/16
11 In [145]: Expectaion_11 = 8*6/20.0 Expectaion_12 = 12*6/20.0 Expectaion_21 = 8*14/20.0 Expectaion_22 = 12*14/20.0 ExpectedFrequency = np.array([expectaion_11, Expectaion_21,Expectaion_12,Expectaion_22]) ObservedFrequency = np.array([4,4,2,10]) ChiSqElements = (ObservedFrequency - ExpectedFrequency)**2 / ExpectedFrequency ChiSq = np.sum(chisqelements) # 検定統計量 print(chisq) In [104]: 5. 帰無仮説の棄却か採択かの決定 : 帰無仮説によればこの検定統計量は 由度 df = 1の χ 2 分布に従う import scipy.stats as st help(st.distributions.chi2.ppf) Help on method ppf in module scipy.stats._distn_infrastructure: ppf(self, q, *args, **kwds) method of scipy.stats._continuous_distns.chi2_gen instance Percent point function (inverse of `cdf`) at q of the given RV. q : array_like lower tail probability arg1, arg2, arg3,... : array_like The shape parameter(s) for the distribution (see docstring of the instance object for more information) loc : array_like, optional location parameter (default=0) scale : array_like, optional scale parameter (default=1) x : array_like quantile corresponding to the lower tail probability q. In [8]: st.distributions.chi2.ppf(0.95,1) # 自由度 1 のカイ二乗分布で確率 0.95 となる χ2 の値を求める # これが棄却域を定める --- この値よりも χ2 値が大きければ棄却される # カイ二乗分布は 上側 のみ Out[8]: この結果 棄却域は χ 2 > 3.84 となり この例題におけるχ 2 の値 (=2.54) は棄却域に っていない つまり帰無仮説は棄却されず 採択される よって結論 有意 準 5% において 数学と統計学の2つの変数は独 ではない ( 連関がない ) なお cdf 関数を いて 直接 p 値を求めることもできる : In [107]: help(st.distributions.chi2.cdf) Help on method cdf in module scipy.stats._distn_infrastructure: cdf(self, x, *args, **kwds) method of scipy.stats._continuous_distns.chi2_gen instance Cumulative distribution function of the given RV. x : array_like quantiles arg1, arg2, arg3,... : array_like The shape parameter(s) for the distribution (see docstring of the instance object for more information) loc : array_like, optional location parameter (default=0) scale : array_like, optional scale parameter (default=1) cdf : ndarray Cumulative distribution function evaluated at `x` In [108]: st.distributions.chi2.cdf(chisq,1) # 上側確率 # p 値が有意水準 0.05 よりも大きいので 帰無仮説は棄却されない Out[108]: Python でカイ 乗検定するための関数 chisquare(scipy.stats モジュール ): 11/16
12 In [109]: help(st.chisquare) Help on function chisquare in module scipy.stats.stats: chisquare(f_obs, f_exp=none, ddof=0, axis=0) Calculates a one-way chi square test. The chi square test tests the null hypothesis that the categorical data has the given frequencies. f_obs : array_like Observed frequencies in each category. f_exp : array_like, optional Expected frequencies in each category. By default the categories are assumed to be equally likely. ddof : int, optional "Delta degrees of freedom": adjustment to the degrees of freedom for the p-value. The p-value is computed using a chi-squared distribution with ``k ddof`` degrees of freedom, where `k` is the number of observed frequencies. The default value of `ddof` is 0. axis : int or None, optional The axis of the broadcast result of `f_obs` and `f_exp` along which to apply the test. If axis is None, all values in `f_obs` are treated as a single data set. Default is 0. chisq : float or ndarray The chi-squared test statistic. The value is a float if `axis` is None or `f_obs` and `f_exp` are 1-D. p : float or ndarray The p-value of the test. The value is a float if `ddof` and the return value `chisq` are scalars. See Also - power_divergence mstats.chisquare Notes This test is invalid when the observed or expected frequencies in each category are too small. A typical rule is that all of the observed and expected frequencies should be at least 5. The default degrees of freedom, k-1, are for the case when no parameters of the distribution are estimated. If p parameters are estimated by efficient maximum likelihood then the correct degrees of freedom are k-1-p. If the parameters are estimated in a different way, then the dof can be between k-1-p and k-1. However, it is also possible that the asymptotic distribution is not a chisquare, in which case this test is not appropriate. References.. [1] Lowry, Richard. "Concepts and Applications of Inferential Statistics". Chapter 8. ( [2] "Chi-squared test", ( Examples - When just `f_obs` is given, it is assumed that the expected frequencies are uniform and given by the mean of the observed frequencies. >>> from scipy.stats import chisquare >>> chisquare([16, 18, 16, 14, 12, 12]) (2.0, ) With `f_exp` the expected frequencies can be given. >>> chisquare([16, 18, 16, 14, 12, 12], f_exp=[16, 16, 16, 16, 16, 8]) (3.5, ) When `f_obs` is 2-D, by default the test is applied to each column. >>> obs = np.array([[16, 18, 16, 14, 12, 12], [32, 24, 16, 28, 20, 24]]).T >>> obs.shape (6, 2) >>> chisquare(obs) (array([ 2., ]), array([ , ])) By setting ``axis=none``, the test is applied to all data in the array, which is equivalent to applying the test to the flattened array. >>> chisquare(obs, axis=none) ( , ) >>> chisquare(obs.ravel()) ( , ) `ddof` is the change to make to the default degrees of freedom. >>> chisquare([16, 18, 16, 14, 12, 12], ddof=1) (2.0, ) The calculation of the p-values is done by broadcasting the chi-squared statistic with `ddof`. >>> chisquare([16, 18, 16, 14, 12, 12], ddof=[0,1,2]) (2.0, array([ , , ])) `f_obs` and `f_exp` are also broadcast. In the following, `f_obs` has shape (6,) and `f_exp` has shape (2, 6), so the result of broadcasting `f_obs` and `f_exp` has shape (2, 6). To compute the desired chi-squared statistics, we use ``axis=1``: >>> chisquare([16, 18, 16, 14, 12, 12],... f_exp=[[16, 16, 16, 16, 16, 8], [8, 20, 20, 16, 12, 12]],... axis=1) (array([ 3.5, 9.25]), array([ , ])) 12/16
13 In [146]: ExpectedFrequency = np.array([expectaion_11, Expectaion_21,Expectaion_12,Expectaion_22]) ObservedFrequency = np.array([4,4,2,10]) st.chisquare(observedfrequency, f_exp =ExpectedFrequency, ddof=2) # 自由度の計算に使う ddof の値に注意 Out[146]: Power_divergenceResult(statistic= , pvalue= ) サンプルサイズの影響 標本における連関の きさが全く同じであっても サンプルサイズが異なると検定の結果が変わることがあるサンプルサイズが きくなると 有意になりやすい --- 統計的仮説検定 般にいえる性質 In [160]: import pandas as pd data = { 'Mastered': [16,12], 'NotMastered':[4,8]} # ある科目の履修 vs 未履修 df = pd.dataframe(data) df.index=['humanities','technicals'] # 文系 vs 理系 df # クロス集計表 Out[160]: Mastered NotMastered Humanities 16 4 Technicals 12 8 In [165]: In [166]: Exp_11 = sum(df['mastered'])*sum(df.loc['humanities',:])/40.0 Exp_12 = sum(df['notmastered'])*sum(df.loc['humanities',:])/40.0 Exp_21 = sum(df['mastered'])*sum(df.loc['technicals',:])/40.0 Exp_22 = sum(df['notmastered'])*sum(df.loc['technicals',:])/40.0 ExpectedFrequency = np.array([exp_11, Exp_12,Exp_21,Exp_22]) ObservedFrequency = np.array([16,4,12,8]) st.chisquare(observedfrequency, f_exp =ExpectedFrequency, ddof=2) # 自由度の計算に使う ddof の値に注意 # p 値 =0.17 なので帰無仮説は棄却されない 連関なし Out[166]: Power_divergenceResult(statistic= , pvalue= ) In [167]: data10 = { 'Mastered': [160,120], 'NotMastered':[40,80]} df = pd.dataframe(data10) df.index=['humanities','technicals'] # 文系 vs 理系 df # クロス集計表 # ある科目の履修 vs 未履修 --- 前の 10 倍 Out[167]: Mastered NotMastered Humanities Technicals In [168]: In [169]: Exp_11 = sum(df['mastered'])*sum(df.loc['humanities',:])/400.0 Exp_12 = sum(df['notmastered'])*sum(df.loc['humanities',:])/400.0 Exp_21 = sum(df['mastered'])*sum(df.loc['technicals',:])/400.0 Exp_22 = sum(df['notmastered'])*sum(df.loc['technicals',:])/400.0 ExpectedFrequency = np.array([exp_11, Exp_12,Exp_21,Exp_22]) ObservedFrequency = np.array([160,40,120,80]) st.chisquare(observedfrequency, f_exp =ExpectedFrequency, ddof=2) # 自由度の計算に使う ddof の値に注意 # p 値 = なので帰無仮説は棄却される 連関あり Out[169]: Power_divergenceResult(statistic= , pvalue= e-05) 関数のまとめ注 : numpy を np, np.random を random matplotlib.pyplot を plt pandas を pd scipy.stats を st と略記する 的関数名とモジュール使い 指定された範囲からランダム抽出 random.choice( 配列, 個数 ) random.choice(range(10),5) 標準正規分布で下側確率に対応する確率分布関数の値 st.norm.ppf(p) st.norm.ppf(0.025) # Prob(Z < q) = 0.025となるqの値 標準正規分布で下側確率 (p 値 ) を求める st.norm.cdf(z) st.norm.cdf(1.96) # Prob(Z < 1.96) の値 (p 値 ) t 分布で下側確率に対応する確率分布関数の値 st.t.ppf(p, 由度 ) st.t.ppf(0.025,19) # 由度 19のt 分布でProb(Z < q) = 0.025となるqの値 t 分布で下側確率 (p 値 ) を求める st.t.cdf(z,df) st.t.cdf(1.96,19) # 由度 19のt 分布でProb(Z < 1.96) の値 (p 値 ) t 検定を う ttest_1samp( データ, μ) 無相関検定を う st.pearsonr( データ 1, データ 2) ttest_1samp(np.array([13,14,7,12,10,6,8,15,4,14,9,6,8,8,12,15]),12.0) # の検定 st.pearsonr(stattest1, StatTest2) # 出 の第 要素は標本相関係数 第 要素は両側検定による p 値 カイ 乗分布の確率密度関数 st.distributions.chi2.pdf(x, 由度 ) plt.plot(x,st.distributions.chi2.pdf(x,3)) # 由度 3の χ 2 分布関数の描画 カイ 乗分布で上側確率に対応する値を求める st.distributions.chi2.ppf(p, 由度 ) カイ 乗分布で上側確率を求める 1-st.distributions.chi2.cdf(z, 由度 ) カイ 乗検定を う ( 独 性の検定 ) st.chisquare( 観測度数リスト, f_exp = 期待度数リスト, ddof=n) #n= 観測個数 -1- 由度 st.distributions.chi2.ppf(0.95,2) # 由度 2でProb(Z < q) = 0.95となるq 値を求める 1-st.distributions.chi2.cdf(3.5,1) # 由度 1のカイ2 乗分布でProb(Z 3.5) となる確率 st.chisquare(observedfrequency, f_exp =ExpectedFrequency, ddof=2) μ = 12 演習問題 4 演習問題 4-1 次のデータ ( 単位は cm) は 平均 170cm の正規分布に従う 20 歳男性の 集団からの無作為抽出と考えてよいかどうかを検定せよ In [171]: import numpy as np Height = np.array([165,150,170,168,159,170,167,178,155,159,161,162,166,171,155,160,168,172,155,167]) 13/16
14 演習問題 4-2 以下に すデータにおいて 勉強時間 (StudyHours) と定期試験の成績 (ExamResult) の相関係数の無相関検定を え In [170]: import numpy as np StudyHours = np.array([1, 3, 10, 12, 6, 3, 8, 4, 1, 5]) ExamResult = np.array([20, 40, 100, 80, 50, 50, 70, 50, 10, 60]) 演習問題 4-3 先の演習問題 4-2 のデータに対し ピアソンの相関係数とスピアマンの順位相関係数を求め さらに無相関検定も え 14/16
15 In [174]: import scipy.stats as st help(st.spearmanr) Help on function spearmanr in module scipy.stats.stats: spearmanr(a, b=none, axis=0, nan_policy='propagate') Calculates a Spearman rank-order correlation coefficient and the p-value to test for non-correlation. The Spearman correlation is a nonparametric measure of the monotonicity of the relationship between two datasets. Unlike the Pearson correlation, the Spearman correlation does not assume that both datasets are normally distributed. Like other correlation coefficients, this one varies between -1 and +1 with 0 implying no correlation. Correlations of -1 or +1 imply an exact monotonic relationship. Positive correlations imply that as x increases, so does y. Negative correlations imply that as x increases, y decreases. The p-value roughly indicates the probability of an uncorrelated system producing datasets that have a Spearman correlation at least as extreme as the one computed from these datasets. The p-values are not entirely reliable but are probably reasonable for datasets larger than 500 or so. a, b : 1D or 2D array_like, b is optional One or two 1-D or 2-D arrays containing multiple variables and observations. When these are 1-D, each represents a vector of observations of a single variable. For the behavior in the 2-D case, see under ``axis``, below. Both arrays need to have the same length in the ``axis`` dimension. axis : int or None, optional If axis=0 (default), then each column represents a variable, with observations in the rows. If axis=1, the relationship is transposed: each row represents a variable, while the columns contain observations. If axis=none, then both arrays will be raveled. nan_policy : {'propagate', 'raise', 'omit'}, optional Defines how to handle when input contains nan. 'propagate' returns nan, 'raise' throws an error, 'omit' performs the calculations ignoring nan values. Default is 'propagate'. correlation : float or ndarray (2-D square) Spearman correlation matrix or correlation coefficient (if only 2 variables are given as parameters. Correlation matrix is square with length equal to total number of variables (columns or rows) in a and b combined. pvalue : float The two-sided p-value for a hypothesis test whose null hypothesis is that two sets of data are uncorrelated, has same dimension as rho. Notes Changes in scipy 0.8.0: rewrite to add tie-handling, and axis. References.. [1] Zwillinger, D. and Kokoska, S. (2000). CRC Standard Probability and Statistics Tables and Formulae. Chapman & Hall: New York Section 14.7 Examples - >>> from scipy import stats >>> stats.spearmanr([1,2,3,4,5], [5,6,7,8,7]) ( , ) >>> np.random.seed( ) >>> x2n = np.random.randn(100, 2) >>> y2n = np.random.randn(100, 2) >>> stats.spearmanr(x2n) ( , ) >>> stats.spearmanr(x2n[:,0], x2n[:,1]) ( , ) >>> rho, pval = stats.spearmanr(x2n, y2n) >>> rho array([[ 1., , , ], [ , 1., , ], [ , , 1., ], [ , , , 1. ]]) >>> pval array([[ 0., , , ], [ , 0., , ], [ , , 0., ], [ , , , 0. ]]) >>> rho, pval = stats.spearmanr(x2n.t, y2n.t, axis=1) >>> rho array([[ 1., , , ], [ , 1., , ], [ , , 1., ], [ , , , 1. ]]) >>> stats.spearmanr(x2n, y2n, axis=none) ( , ) >>> stats.spearmanr(x2n.ravel(), y2n.ravel()) ( , ) >>> xint = np.random.randint(10, size=(100, 2)) >>> stats.spearmanr(xint) ( , ) In [ ]: 演習問題 4-4 以下に す演習問題 2-2 のデータに対し カイ 乗検定を え 15/16
16 In [179]: import numpy as np FoodTendency = np.array([" 洋食 "," 和食 "," 和食 "," 洋食 "," 和食 "," 洋食 "," 洋食 "," 和食 "," 洋食 "," 洋食 "," 和食 ", " 洋食 "," 和食 "," 洋食 "," 和食 "," 和食 "," 洋食 "," 洋食 "," 和食 "," 和食 "]) TasteTendency = np.array([" 甘党 "," 辛党 "," 甘党 "," 甘党 "," 辛党 "," 辛党 "," 辛党 "," 辛党 "," 甘党 "," 甘党 "," 甘党 ", " 甘党 "," 辛党 "," 辛党 "," 甘党 "," 辛党 "," 辛党 "," 甘党 "," 辛党 "," 辛党 "]) 演習問題 4-5 次のそれぞれのデータについて無相関検定を え In [ ]: #5-1 import numpy as np Kokugo = np.array([60,40,30,70,55]) Shakai = np.array([80,25,35,70,50]) In [ ]: # 単純に (5-1) のデータを 2 回繰り返したもの Kokugo = np.array([60,40,30,70,55,60,40,30,70,55]) Shakai = np.array([80,25,35,70,50,80,25,35,70,50]) 演習問題 4-6 badmington.csv (SampleData/badmington.csv) は区切り記号がコンマの CSV のファイルであり バドミントンのラケットの重量 x と硬度 y の表 ( 出典 : 内 (2010) すぐに使える R による統計解析とグラフの応 東京図書 ) が収められている このデータをデータフレームとして読み込み 硬度 (y) と重量 (x) の相関係数を算出し 無相関の検定を え [ 参考 ] 区切り記号がコンマの csv ファイルを読み込み その内容をデータフレームとして取り込むには pandas モジュールの read_csv 関数を いる In [ ]: 16/16
Python-statistics5 Python で統計学を学ぶ (5) この内容は山田 杉澤 村井 (2008) R によるやさしい統計学 (
http://localhost:8888/notebooks/... Python で統計学を学ぶ (5) この内容は山田 杉澤 村井 (2008) R によるやさしい統計学 (http://shop.ohmsha.co.jp/shop /shopdetail.html?brandcode=000000001781&search=978-4-274-06710-5&sort=) を参考にしています
(3) 検定統計量の有意確率にもとづく仮説の採否データから有意確率 (significant probability, p 値 ) を求め 有意水準と照合する 有意確率とは データの分析によって得られた統計値が偶然おこる確率のこと あらかじめ設定した有意確率より低い場合は 帰無仮説を棄却して対立仮説
第 3 章 t 検定 (pp. 33-42) 3-1 統計的検定 統計的検定とは 設定した仮説を検証する場合に 仮説に基づいて集めた標本を 確率論の観点から分析 検証すること 使用する標本は 母集団から無作為抽出されたものでなければならない パラメトリック検定とノンパラメトリック検定 パラメトリック検定は母集団が正規分布に従う間隔尺度あるいは比率尺度の連続データを対象とする ノンパラメトリック検定は母集団に特定の分布を仮定しない
浜松医科大学紀要
On the Statistical Bias Found in the Horse Racing Data (1) Akio NODA Mathematics Abstract: The purpose of the present paper is to report what type of statistical bias the author has found in the horse
kubostat2018d p.2 :? bod size x and fertilization f change seed number? : a statistical model for this example? i response variable seed number : { i
kubostat2018d p.1 I 2018 (d) model selection and [email protected] http://goo.gl/76c4i 2018 06 25 : 2018 06 21 17:45 1 2 3 4 :? AIC : deviance model selection misunderstanding kubostat2018d (http://goo.gl/76c4i)
EBNと疫学
推定と検定 57 ( 復習 ) 記述統計と推測統計 統計解析は大きく 2 つに分けられる 記述統計 推測統計 記述統計 観察集団の特性を示すもの 代表値 ( 平均値や中央値 ) や ばらつきの指標 ( 標準偏差など ) 図表を効果的に使う 推測統計 観察集団のデータから母集団の特性を 推定 する 平均 / 分散 / 係数値などの推定 ( 点推定 ) 点推定値のばらつきを調べる ( 区間推定 ) 検定統計量を用いた検定
基礎統計
基礎統計 第 11 回講義資料 6.4.2 標本平均の差の標本分布 母平均の差 標本平均の差をみれば良い ただし, 母分散に依存するため場合分けをする 1 2 3 分散が既知分散が未知であるが等しい分散が未知であり等しいとは限らない 1 母分散が既知のとき が既知 標準化変量 2 母分散が未知であり, 等しいとき 分散が未知であるが, 等しいということは分かっているとき 標準化変量 自由度 の t
ビジネス統計 統計基礎とエクセル分析 正誤表
ビジネス統計統計基礎とエクセル分析 ビジネス統計スペシャリスト エクセル分析スペシャリスト 公式テキスト正誤表と学習用データ更新履歴 平成 30 年 5 月 14 日現在 公式テキスト正誤表 頁場所誤正修正 6 知識編第 章 -3-3 最頻値の解説内容 たとえば, 表.1 のデータであれば, 最頻値は 167.5cm というたとえば, 表.1 のデータであれば, 最頻値は 165.0cm ということになります
A Nutritional Study of Anemia in Pregnancy Hematologic Characteristics in Pregnancy (Part 1) Keizo Shiraki, Fumiko Hisaoka Department of Nutrition, Sc
A Nutritional Study of Anemia in Pregnancy Hematologic Characteristics in Pregnancy (Part 1) Keizo Shiraki, Fumiko Hisaoka Department of Nutrition, School of Medicine, Tokushima University, Tokushima Fetal
Medical3
1.4.1 クロス集計表の作成 -l m 分割表 - 3つ以上のカテゴリを含む変数を用いて l mのクロス集計表による分析を行います この例では race( 人種 ) によってlow( 低体重出生 ) に差が認められるかどうかを分析します 人種には3つのカテゴリ 低体重出生には2つのカテゴリが含まれています 2つの変数はともにカテゴリ変数であるため クロス集計表によって分析します 1. 分析メニュー
統計的データ解析
統計的データ解析 011 011.11.9 林田清 ( 大阪大学大学院理学研究科 ) 連続確率分布の平均値 分散 比較のため P(c ) c 分布 自由度 の ( カイ c 平均値 0, 標準偏差 1の正規分布 に従う変数 xの自乗和 c x =1 が従う分布を自由度 の分布と呼ぶ 一般に自由度の分布は f /1 c / / ( c ) {( c ) e }/ ( / ) 期待値 二乗 ) 分布 c
Excelによる統計分析検定_知識編_小塚明_5_9章.indd
第7章57766 検定と推定 サンプリングによって得られた標本から, 母集団の統計的性質に対して推測を行うことを統計的推測といいます 本章では, 推測統計の根幹をなす仮説検定と推定の基本的な考え方について説明します 前章までの知識を用いて, 具体的な分析を行います 本章以降の知識は操作編での操作に直接関連していますので, 少し聞きなれない言葉ですが, 帰無仮説 有意水準 棄却域 などの意味を理解して,
Microsoft PowerPoint - e-stat(OLS).pptx
経済統計学 ( 補足 ) 最小二乗法について 担当 : 小塚匡文 2015 年 11 月 19 日 ( 改訂版 ) 神戸大学経済学部 2015 年度後期開講授業 補足 : 最小二乗法 ( 単回帰分析 ) 1.( 単純 ) 回帰分析とは? 標本サイズTの2 変数 ( ここではXとY) のデータが存在 YをXで説明する回帰方程式を推定するための方法 Y: 被説明変数 ( または従属変数 ) X: 説明変数
Microsoft Word - 計量研修テキスト_第5版).doc
Q10-2 テキスト P191 1. 記述統計量 ( 変数 :YY95) 表示変数として 平均 中央値 最大値 最小値 標準偏差 観測値 を選択 A. 都道府県別 Descriptive Statistics for YY95 Categorized by values of PREFNUM Date: 05/11/06 Time: 14:36 Sample: 1990 2002 Included
Microsoft Word - 計量研修テキスト_第5版).doc
Q8-1 テキスト P131 Engle-Granger 検定 Dependent Variable: RM2 Date: 11/04/05 Time: 15:15 Sample: 1967Q1 1999Q1 Included observations: 129 RGDP 0.012792 0.000194 65.92203 0.0000 R -95.45715 11.33648-8.420349
自動車感性評価学 1. 二項検定 内容 2 3. 質的データの解析方法 1 ( 名義尺度 ) 2.χ 2 検定 タイプ 1. 二項検定 官能検査における分類データの解析法 識別できるかを調べる 嗜好に差があるかを調べる 2 点比較法 2 点識別法 2 点嗜好法 3 点比較法 3 点識別法 3 点嗜好
. 内容 3. 質的データの解析方法 ( 名義尺度 ).χ 検定 タイプ. 官能検査における分類データの解析法 識別できるかを調べる 嗜好に差があるかを調べる 点比較法 点識別法 点嗜好法 3 点比較法 3 点識別法 3 点嗜好法 : 点比較法 : 点識別法 配偶法 配偶法 ( 官能評価の基礎と応用 ) 3 A か B かの判定において 回の判定でAが選ばれる回数 kは p の二項分布に従う H :
Microsoft PowerPoint - Econometrics pptx
計量経済学講義 第 4 回回帰モデルの診断と選択 Part 07 年 ( ) 限 担当教員 : 唐渡 広志 研究室 : 経済学研究棟 4 階 43 号室 emal: [email protected] webste: http://www3.u-toyama.ac.p/kkarato/ 講義の目的 誤差項の分散が不均 である場合や, 系列相関を持つ場合についての検定 法と修正 法を学びます
Microsoft PowerPoint - statistics pptx
統計学 第 回 講義 仮説検定 Part-3 06 年 6 8 ( )3 限 担当教員 唐渡 広志 ( からと こうじ ) 研究室 経済学研究棟 4 階 43 号室 email [email protected] webite htt://www3.u-toyama.ac.j/kkarato/ 講義の目的 つの 集団の平均 ( 率 ) に差があるかどうかを検定する 法を理解します keyword:
第 3 回講義の項目と概要 統計的手法入門 : 品質のばらつきを解析する 平均と標準偏差 (P30) a) データは平均を見ただけではわからない 平均が同じだからといって 同一視してはいけない b) データのばらつきを示す 標準偏差 にも注目しよう c) 平均
第 3 回講義の項目と概要 016.8.9 1.3 統計的手法入門 : 品質のばらつきを解析する 1.3.1 平均と標準偏差 (P30) a) データは平均を見ただけではわからない 平均が同じだからといって 同一視してはいけない b) データのばらつきを示す 標準偏差 にも注目しよう c) 平均 :AVERAGE 関数, 標準偏差 :STDEVP 関数とSTDEVという関数 1 取得したデータそのものの標準偏差
Visual Python, Numpy, Matplotlib
Visual Python, Numpy, Matplotlib 1 / 38 Contents 1 2 Visual Python 3 Numpy Scipy 4 Scipy 5 Matplotlib 2 / 38 Contents 1 2 Visual Python 3 Numpy Scipy 4 Scipy 5 Matplotlib 3 / 38 3 Visual Python: 3D Numpy,
Title 生活年令による学級の等質化に関する研究 (1) - 生活年令と学業成績について - Author(s) 与那嶺, 松助 ; 東江, 康治 Citation 研究集録 (5): 33-47 Issue Date 1961-12 URL http://hdl.handle.net/20.500.12000/ Rights 46 STUDIES ON HOMOGENEOUS
Microsoft Word - 計量研修テキスト_第5版).doc
Q9-1 テキスト P166 2)VAR の推定 注 ) 各変数について ADF 検定を行った結果 和文の次数はすべて 1 である 作業手順 4 情報量基準 (AIC) によるラグ次数の選択 VAR Lag Order Selection Criteria Endogenous variables: D(IG9S) D(IP9S) D(CP9S) Exogenous variables: C Date:
Microsoft Word - Win-Outlook.docx
Microsoft Office Outlook での設定方法 (IMAP および POP 編 ) How to set up with Microsoft Office Outlook (IMAP and POP) 0. 事前に https://office365.iii.kyushu-u.ac.jp/login からサインインし 以下の手順で自分の基本アドレスをメモしておいてください Sign
Microsoft PowerPoint - Statistics[B]
講義の目的 サンプルサイズの大きい標本比率の分布は正規分布で近似できることを理解します 科目コード 130509, 130609, 110225 統計学講義第 19/20 回 2019 年 6 月 25 日 ( 火 )6/7 限 担当教員 : 唐渡広志 ( からと こうじ ) 研究室 : email: website: 経済学研究棟 4 階 432 号室 [email protected]
AtCoder Regular Contest 073 Editorial Kohei Morita(yosupo) A: Shiritori if python3 a, b, c = input().split() if a[len(a)-1] == b[0] and b[len(
AtCoder Regular Contest 073 Editorial Kohei Morita(yosupo) 29 4 29 A: Shiritori if python3 a, b, c = input().split() if a[len(a)-1] == b[0] and b[len(b)-1] == c[0]: print( YES ) else: print( NO ) 1 B:
統計学の基礎から学ぶ実験計画法ー1
第 部統計学の基礎と. 統計学とは. 統計学の基本. 母集団とサンプル ( 標本 ). データ (data) 3. 集団の特性を示す統計量 基本的な解析手法 3. 統計量 (statistic) とは 3. 集団を代表する統計量 - 平均値など 3.3 集団のばらつきを表す値 - 平方和 分散 標準偏差 4. ばらつき ( 分布 ) を表す関数 4. 確率密度関数 4. 最も重要な正規分布 4.3
Dependent Variable: LOG(GDP00/(E*HOUR)) Date: 02/27/06 Time: 16:39 Sample (adjusted): 1994Q1 2005Q3 Included observations: 47 after adjustments C -1.5
第 4 章 この章では 最小二乗法をベースにして 推計上のさまざまなテクニックを検討する 変数のバリエーション 係数の制約係数にあらかじめ制約がある場合がある たとえばマクロの生産関数は 次のように表すことができる 生産要素は資本と労働である 稼動資本は資本ストックに稼働率をかけることで計算でき 労働投入量は 就業者数に総労働時間をかけることで計算できる 制約を掛けずに 推計すると次の結果が得られる
こんにちは由美子です
1 2 . sum Variable Obs Mean Std. Dev. Min Max ---------+----------------------------------------------------- var1 13.4923077.3545926.05 1.1 3 3 3 0.71 3 x 3 C 3 = 0.3579 2 1 0.71 2 x 0.29 x 3 C 2 = 0.4386
L1 What Can You Blood Type Tell Us? Part 1 Can you guess/ my blood type? Well,/ you re very serious person/ so/ I think/ your blood type is A. Wow!/ G
L1 What Can You Blood Type Tell Us? Part 1 Can you guess/ my blood type? 当ててみて / 私の血液型を Well,/ you re very serious person/ so/ I think/ your blood type is A. えーと / あなたはとっても真面目な人 / だから / 私は ~ と思います / あなたの血液型は
PowerPoint プレゼンテーション
1/X Chapter 9: Linear correlation Cohen, B. H. (2007). In B. H. Cohen (Ed.), Explaining Psychological Statistics (3rd ed.) (pp. 255-285). NJ: Wiley. 概要 2/X 相関係数とは何か 相関係数の数式 検定 注意点 フィッシャーのZ 変換 信頼区間 相関係数の差の検定
青焼 1章[15-52].indd
1 第 1 章統計の基礎知識 1 1 なぜ統計解析が必要なのか? 人間は自分自身の経験にもとづいて 感覚的にものごとを判断しがちである 例えばある疾患に対する標準治療薬の有効率が 50% であったとする そこに新薬が登場し ある医師がその新薬を 5 人の患者に使ったところ 4 人が有効と判定されたとしたら 多くの医師はこれまでの標準治療薬よりも新薬のほうが有効性が高そうだと感じることだろう しかし
25 II :30 16:00 (1),. Do not open this problem booklet until the start of the examination is announced. (2) 3.. Answer the following 3 proble
25 II 25 2 6 13:30 16:00 (1),. Do not open this problem boolet until the start of the examination is announced. (2) 3.. Answer the following 3 problems. Use the designated answer sheet for each problem.
統計学 - 社会統計の基礎 - 正規分布 標準正規分布累積分布関数の逆関数 t 分布正規分布に従うサンプルの平均の信頼区間 担当 : 岸 康人 資料ページ :
統計学 - 社会統計の基礎 - 正規分布 標準正規分布累積分布関数の逆関数 t 分布正規分布に従うサンプルの平均の信頼区間 担当 : 岸 康人 資料ページ : https://goo.gl/qw1djw 正規分布 ( 復習 ) 正規分布 (Normal Distribution)N (μ, σ 2 ) 別名 : ガウス分布 (Gaussian Distribution) 密度関数 Excel:= NORM.DIST
Microsoft Word - Stattext12.doc
章対応のない 群間の量的データの検定. 検定手順 この章ではデータ間に 対 の対応のないつの標本から推定される母集団間の平均値や中央値の比較を行ないます 検定手法は 図. のようにまず正規に従うかどうかを調べます 但し この場合はつの群が共に正規に従うことを調べる必要があります 次に 群とも正規ならば F 検定を用いて等分散であるかどうかを調べます 等分散の場合は t 検定 等分散でない場合はウェルチ
PowerPoint プレゼンテーション
学位論文作成のための疫学 統計解析の実際 徳島大学大学院 医歯薬学研究部 社会医学系 予防医学分野 有澤孝吉 (e-mail: [email protected]) 本日の講義の内容 (SPSS を用いて ) 記述統計 ( データのまとめ方 ) 代表値 ばらつき正規確率プロット 正規性の検定標準偏差 不偏標準偏差 標準誤差の区別中心極限定理母平均の区間推定 ( 母集団の標準偏差が既知の場合
経済統計分析1 イントロダクション
1 経済統計分析 9 分散分析 今日のおはなし. 検定 statistical test のいろいろ 2 変数の関係を調べる手段のひとつ適合度検定独立性検定分散分析 今日のタネ 吉田耕作.2006. 直感的統計学. 日経 BP. 中村隆英ほか.1984. 統計入門. 東大出版会. 2 仮説検定の手続き 仮説検定のロジック もし帰無仮説が正しければ, 検定統計量が既知の分布に従う 計算された検定統計量の値から,
24 Depth scaling of binocular stereopsis by observer s own movements
24 Depth scaling of binocular stereopsis by observer s own movements 1130313 2013 3 1 3D 3D 3D 2 2 i Abstract Depth scaling of binocular stereopsis by observer s own movements It will become more usual
こんにちは由美子です
Analysis of Variance 2 two sample t test analysis of variance (ANOVA) CO 3 3 1 EFV1 µ 1 µ 2 µ 3 H 0 H 0 : µ 1 = µ 2 = µ 3 H A : Group 1 Group 2.. Group k population mean µ 1 µ µ κ SD σ 1 σ σ κ sample mean
切片 ( 定数項 ) ダミー 以下の単回帰モデルを考えよう これは賃金と就業年数の関係を分析している : ( 賃金関数 ) ここで Y i = α + β X i + u i, i =1,, n, u i ~ i.i.d. N(0, σ 2 ) Y i : 賃金の対数値, X i : 就業年数. (
統計学ダミー変数による分析 担当 : 長倉大輔 ( ながくらだいすけ ) 1 切片 ( 定数項 ) ダミー 以下の単回帰モデルを考えよう これは賃金と就業年数の関係を分析している : ( 賃金関数 ) ここで Y i = α + β X i + u i, i =1,, n, u i ~ i.i.d. N(0, σ 2 ) Y i : 賃金の対数値, X i : 就業年数. ( 実際は賃金を就業年数だけで説明するのは現実的はない
1 # include < stdio.h> 2 # include < string.h> 3 4 int main (){ 5 char str [222]; 6 scanf ("%s", str ); 7 int n= strlen ( str ); 8 for ( int i=n -2; i
ABC066 / ARC077 writer: nuip 2017 7 1 For International Readers: English editorial starts from page 8. A : ringring a + b b + c a + c a, b, c a + b + c 1 # include < stdio.h> 2 3 int main (){ 4 int a,
Clustering in Time and Periodicity of Strong Earthquakes in Tokyo Masami OKADA Kobe Marine Observatory (Received on March 30, 1977) The clustering in time and periodicity of earthquake occurrence are investigated
1 Stata SEM LightStone 3 2 SEM. 2., 2,. Alan C. Acock, Discovering Structural Equation Modeling Using Stata, Revised Edition, Stata Press.
1 Stata SEM LightStone 3 2 SEM. 2., 2,. Alan C. Acock, 2013. Discovering Structural Equation Modeling Using Stata, Revised Edition, Stata Press. 2 3 2 Conservative Depress. 3.1 2. SEM. 1. x SEM. Depress.
現代日本論演習/比較現代日本論研究演習I「統計分析の基礎」
URL: http://tsigeto.info/statg/ I () 3 2016 2 ( 7F) 1 : (1); (2) 1998 (70 20% 6 9 ) (30%) ( 2) ( 2) 2 1. (4/14) 2. SPSS (4/21) 3. (4/28) [] 4. (5/126/2) [1, 4] 5. (6/9) 6. (6/166/30) [2, 5] 7. (7/78/4)
Visual Python, Numpy, Matplotlib
Visual Python, Numpy, Matplotlib 1 / 57 Contents 1 2 Visual Python 3 Numpy Scipy 4 Scipy 5 Matplotlib 2 / 57 Contents 1 2 Visual Python 3 Numpy Scipy 4 Scipy 5 Matplotlib 3 / 57 3 Visual Python: 3D Numpy,
Microsoft Word - apstattext04.docx
4 章母集団と指定値との量的データの検定 4.1 検定手順今までは質的データの検定の方法を学んで来ましたが これからは量的データについてよく利用される方法を説明します 量的データでは データの分布が正規分布か否かで検定の方法が著しく異なります この章ではまずデータの分布の正規性を調べる方法を述べ 次にデータの平均値または中央値がある指定された値と違うかどうかの検定方法を説明します 以下の図 4.1.1
Stata 11 Stata ROC whitepaper mwp anova/oneway 3 mwp-042 kwallis Kruskal Wallis 28 mwp-045 ranksum/median / 31 mwp-047 roctab/roccomp ROC 34 mwp-050 s
BR003 Stata 11 Stata ROC whitepaper mwp anova/oneway 3 mwp-042 kwallis Kruskal Wallis 28 mwp-045 ranksum/median / 31 mwp-047 roctab/roccomp ROC 34 mwp-050 sampsi 47 mwp-044 sdtest 54 mwp-043 signrank/signtest
モジュール1のまとめ
数理統計学 第 0 回 復習 標本分散と ( 標本 ) 不偏分散両方とも 分散 というのが実情 二乗偏差計標本分散 = データ数 (0ページ) ( 標本 ) 不偏分散 = (03 ページ ) 二乗偏差計 データ数 - 分析ではこちらをとることが多い 復習 ここまで 実験結果 ( 万回 ) 平均 50Kg 標準偏差 0Kg 0 人 全体に小さすぎる > mea(jkke) [] 89.4373 標準偏差
kubostat2017b p.1 agenda I 2017 (b) probability distribution and maximum likelihood estimation :
kubostat2017b p.1 agenda I 2017 (b) probabilit distribution and maimum likelihood estimation [email protected] http://goo.gl/76c4i 2017 11 14 : 2017 11 07 15:43 1 : 2 3? 4 kubostat2017b (http://goo.gl/76c4i)
Use R
Use R! 2008/05/23( ) Index Introduction (GLM) ( ) R. Introduction R,, PLS,,, etc. 2. Correlation coefficient (Pearson s product moment correlation) r = Sxy Sxx Syy :, Sxy, Sxx= X, Syy Y 1.96 95% R cor(x,
1 Fig. 1 Extraction of motion,.,,, 4,,, 3., 1, 2. 2.,. CHLAC,. 2.1,. (256 ).,., CHLAC. CHLAC, HLAC. 2.3 (HLAC ) r,.,. HLAC. N. 2 HLAC Fig. 2
CHLAC 1 2 3 3,. (CHLAC), 1).,.,, CHLAC,.,. Suspicious Behavior Detection based on CHLAC Method Hideaki Imanishi, 1 Toyohiro Hayashi, 2 Shuichi Enokida 3 and Toshiaki Ejima 3 We have proposed a method for
k3 ( :07 ) 2 (A) k = 1 (B) k = 7 y x x 1 (k2)?? x y (A) GLM (k
2012 11 01 k3 (2012-10-24 14:07 ) 1 6 3 (2012 11 01 k3) [email protected] web http://goo.gl/wijx2 web http://goo.gl/ufq2 1 3 2 : 4 3 AIC 6 4 7 5 8 6 : 9 7 11 8 12 8.1 (1)........ 13 8.2 (2) χ 2....................
Studies of Foot Form for Footwear Design (Part 9) : Characteristics of the Foot Form of Young and Elder Women Based on their Sizes of Ball Joint Girth
Studies of Foot Form for Footwear Design (Part 9) : Characteristics of the Foot Form of Young and Elder Women Based on their Sizes of Ball Joint Girth and Foot Breadth Akiko Yamamoto Fukuoka Women's University,
On the Wireless Beam of Short Electric Waves. (VII) (A New Electric Wave Projector.) By S. UDA, Member (Tohoku Imperial University.) Abstract. A new e
On the Wireless Beam of Short Electric Waves. (VII) (A New Electric Wave Projector.) By S. UDA, Member (Tohoku Imperial University.) Abstract. A new electric wave projector is proposed in this paper. The
Microsoft PowerPoint - A1.ppt [互換モード]
011/4/13 付録 A1( 推測統計学の基礎 ) 付録 A1 推測統計学の基礎 1. 統計学. カイ 乗検定 3. 分散分析 4. 相関係数 5. 多変量解析 1. 統計学 3 統計ソフト 4 記述統計学 推測統計学 検定 ノンパラメトリック検定名義 / 分類尺度順序 / 順位尺度パラメトリック検定間隔 / 距離尺度比例 / 比率尺度 SAS SPSS R R-Tps (http://cse.aro.affrc.go.jp/takezawa/r-tps/r.html)
こんにちは由美子です
Sample size power calculation Sample Size Estimation AZTPIAIDS AIDSAZT AIDSPI AIDSRNA AZTPr (S A ) = π A, PIPr (S B ) = π B AIDS (sampling)(inference) π A, π B π A - π B = 0.20 PI 20 20AZT, PI 10 6 8 HIV-RNA
Medical3
Chapter 1 1.4.1 1 元配置分散分析と多重比較の実行 3つの治療法による測定値に有意な差が認められるかどうかを分散分析で調べます この例では 因子が1つだけ含まれるため1 元配置分散分析 one-way ANOVA の適用になります また 多重比較法 multiple comparison procedure を用いて 具体的のどの治療法の間に有意差が認められるかを検定します 1. 分析メニュー
カイ二乗フィット検定、パラメータの誤差
統計的データ解析 008 008.. 林田清 ( 大阪大学大学院理学研究科 ) 問題 C (, ) ( x xˆ) ( y yˆ) σ x πσ σ y y Pabx (, ;,,, ) ˆ y σx σ y = dx exp exp πσx ただし xy ˆ ˆ はyˆ = axˆ+ bであらわされる直線モデル上の点 ( ˆ) ( ˆ ) ( ) x x y ax b y ax b Pabx (,
講義のーと : データ解析のための統計モデリング. 第5回
Title 講義のーと : データ解析のための統計モデリング Author(s) 久保, 拓弥 Issue Date 2008 Doc URL http://hdl.handle.net/2115/49477 Type learningobject Note この講義資料は, 著者のホームページ http://hosho.ees.hokudai.ac.jp/~kub ードできます Note(URL)http://hosho.ees.hokudai.ac.jp/~kubo/ce/EesLecture20
<4D F736F F D208EC08CB18C7689E68A E F AA957A82C682948C9F92E82E646F63>
第 7 回 t 分布と t 検定 実験計画学 A.t 分布 ( 小標本に関する平均の推定と検定 ) 前々回と前回の授業では, 標本が十分に大きいあるいは母分散が既知であることを条件に正規分布を用いて推定 検定した. しかし, 母集団が正規分布し, 標本が小さい場合には, 標本分散から母分散を推定するときの不確実さを加味したt 分布を用いて推定 検定しなければならない. t 分布は標本分散の自由度 f(
Visual Evaluation of Polka-dot Patterns Yoojin LEE and Nobuko NARUSE * Granduate School of Bunka Women's University, and * Faculty of Fashion Science,
Visual Evaluation of Polka-dot Patterns Yoojin LEE and Nobuko NARUSE * Granduate School of Bunka Women's University, and * Faculty of Fashion Science, Bunka Women's University, Shibuya-ku, Tokyo 151-8523
Microsoft Word - Power_Analysis_Jp_ docx
Power Analysis using G*Power Version 1.0 013 年 3 月 03 日 評価学博士 佐々木亮 サンプルサイズの検討方法 1. 最低のサンプルサイズサンプルサイズに関する考え方 統計分析を用いた調査報告書では サンプルサイズとして 30 あるいは 5 を用いている場合が頻繁に見られる 事前 事後比較のための 1 群の t 検定では まさに 30 あるいは 5 が必要ということになり
4.9 Hausman Test Time Fixed Effects Model vs Time Random Effects Model Two-way Fixed Effects Model
1 EViews 5 2007 7 11 2010 5 17 1 ( ) 3 1.1........................................... 4 1.2................................... 9 2 11 3 14 3.1 Pooled OLS.............................................. 14
Fig. 3 Flow diagram of image processing. Black rectangle in the photo indicates the processing area (128 x 32 pixels).
Fig. 1 The scheme of glottal area as a function of time Fig. 3 Flow diagram of image processing. Black rectangle in the photo indicates the processing area (128 x 32 pixels). Fig, 4 Parametric representation
Fig. 1 The district names and their locations A dotted line is the boundary of school-districts. The district in which 10 respondents and over live is indicated in italics. Fig. 2 A distribution of rank
JOURNAL OF THE JAPANESE ASSOCIATION FOR PETROLEUM TECHNOLOGY VOL. 66, NO. 6 (Nov., 2001) (Received August 10, 2001; accepted November 9, 2001) Alterna
JOURNAL OF THE JAPANESE ASSOCIATION FOR PETROLEUM TECHNOLOGY VOL. 66, NO. 6 (Nov., 2001) (Received August 10, 2001; accepted November 9, 2001) Alternative approach using the Monte Carlo simulation to evaluate
% 10%, 35%( 1029 ) p (a) 1 p 95% (b) 1 Std. Err. (c) p 40% 5% (d) p 1: STATA (1). prtesti One-sample test of pr
1 1. 2014 6 2014 6 10 10% 10%, 35%( 1029 ) p (a) 1 p 95% (b) 1 Std. Err. (c) p 40% 5% (d) p 1: STATA (1). prtesti 1029 0.35 0.40 One-sample test of proportion x: Number of obs = 1029 Variable Mean Std.
LC304_manual.ai
Stick Type Electronic Calculator English INDEX Stick Type Electronic Calculator Instruction manual INDEX Disposal of Old Electrical & Electronic Equipment (Applicable in the European Union
Technische Beschreibung P82R SMD
P26 halstrup-walcher GmbH http://www.krone.co.jp/ Stegener Straße 10 D-79199 Kirchzarten, Germany 124-0023 2-22-1 TEL:03-3695-5431 FAX:03-3695-5698 E-MAIL:[email protected] 530-0054 2-2-9F TEL:06-6361-4831
A comparison of abdominal versus vaginal hysterectomy for leiomyoma and adenomyosis Kenji ARAHORI, Hisasi KATAYAMA, Suminori NIOKA Department of Obstetrics and Gnecology, National Maizuru Hospital,Kyoto,
EVALUATION OF NOCTURNAL PENILE TUMESCENCE (NPT) IN THE DIFFERENTIAL DIAGNOSIS OF IMPOTENCE Masaharu Aoki, Yoshiaki Kumamoto, Kazutomi Mohri and Kazunori Ohno Department of Urology, Sapporo Medical College
( ) [1] [4] ( ) 2. [5] [6] Piano Tutor[7] [1], [2], [8], [9] Radiobaton[10] Two Finger Piano[11] Coloring-in Piano[12] ism[13] MIDI MIDI 1 Fig. 1 Syst
情報処理学会インタラクション 2015 IPSJ Interaction 2015 15INT014 2015/3/7 1,a) 1,b) 1,c) Design and Implementation of a Piano Learning Support System Considering Motivation Fukuya Yuto 1,a) Takegawa Yoshinari 1,b) Yanagi
Table 1. Assumed performance of a water electrol ysis plant. Fig. 1. Structure of a proposed power generation system utilizing waste heat from factori
Proposal and Characteristics Evaluation of a Power Generation System Utilizing Waste Heat from Factories for Load Leveling Pyong Sik Pak, Member, Takashi Arima, Non-member (Osaka University) In this paper,
2 ( ) i
25 Study on Rating System in Multi-player Games with Imperfect Information 1165069 2014 2 28 2 ( ) i ii Abstract Study on Rating System in Multi-player Games with Imperfect Information Shigehiko MORITA
_念3)医療2009_夏.indd
Evaluation of the Social Benefits of the Regional Medical System Based on Land Price Information -A Hedonic Valuation of the Sense of Relief Provided by Health Care Facilities- Takuma Sugahara Ph.D. Abstract
Microsoft Word - å“Ÿåłžå¸°173.docx
回帰分析 ( その 3) 経済情報処理 価格弾力性の推定ある商品について その購入量を w 単価を p とし それぞれの変化量を w p で表 w w すことにする この時 この商品の価格弾力性 は により定義される これ p p は p が 1 パーセント変化した場合に w が何パーセント変化するかを示したものである ここで p を 0 に近づけていった極限を考えると d ln w 1 dw dw
soturon.dvi
12 Exploration Method of Various Routes with Genetic Algorithm 1010369 2001 2 5 ( Genetic Algorithm: GA ) GA 2 3 Dijkstra Dijkstra i Abstract Exploration Method of Various Routes with Genetic Algorithm
