【先着1,000名様!】1,000円分をプレゼント!

現在、大学(心理学専攻)の課題をやっているのですが、
分析にどの手法を使えばよいのかがわかりません。

重回帰分析、分散分析、t検定の、それぞれの特徴、
どういった場合に用いればよいのかを教えてください。
よろしくお願いいたします。

このQ&Aに関連する最新のQ&A

A 回答 (3件)

こんにちは。


私は,統計手法を「差異を調べる」手法と「類似を調べる」手法に大別して整理しています。t検定と分散分析は「差異を調べる」手法,重回帰分析は「類似を調べる」手法に分類することができるでしょう。

t検定と分散分析は「差異を調べる」手法に分類したように,複数の条件における平均値に違いがあるかどうかを調べる場合に使われます。もともとはt検定しかなく「二条件の平均値の差異」を調べる時に使われました(実際のt検定の定義は異なるのですが,心理学専攻生にイメージしやすい説明を優先しています)。しかし,実験や調査によっては,二条件だけではなく,「三条件以上の平均値の差異を調べたい」と思うことがしばしばです。このような思いに応えるべく開発されたのが分散分析です。
さらに,開発するときに,要因/水準という概念を導入して便利な分析道具となっていきます。分散分析は平均値の差異を調べる手法ですが,その平均値の差異がどのような原因(独立変数)に起因するのかを調べることができるのです。例えば,二要因の場合,平均値の差異が,「要因Aによるものなのか」,「要因Bによるものなのか」,「あるいは要因AとBの交互作用によるものなのか」,これらのいずれの影響によって平均値の差異が生じたといえるかを調べることができます。「差異を生じさせた」ということは,その要因の影響力があったと判断することができますね。

これに対して,重回帰分析は,複数の原因候補(独立変数)と一つの結果(従属変数)がどれぐらい類似しているかを調べることを通して,従属変数に,それぞれの独立変数がどれぐらいの影響力を与えているかどうか(また,その影響力は統計学的に意味があるといえるのか)の判定をする手法です。

このように考えると,両方とも「複数の原因(独立変数)が一つの結果(従属変数)に影響を与えているかどうか」という枠組みで検定を行う手法として共通しています(このため,両者は「線型モデル」という上位概念でくくることができます)。実際,同じデータに対して,分散分析と重回帰分析の両方を使うこともできます。

しかし,【通常の使い方をするならば】,分散分析は「要因(独立変数)間の交互作用を仮定して」分析を行う,重回帰分析は「独立変数間に交互作用を仮定せず」分析を行う手法であると考えるのが,とりあえずの理解としては良いのではないでしょうか?(工夫次第では,重回帰分析でも交互作用を仮定できますが,話が複雑になるので割愛)
    • good
    • 3
この回答へのお礼

回答、ありがとうございました。
「差異を調べる」、「類似を調べる」の考え方はとても理解しやすい
ものでした。

詳しく説明くださり、ありがとうございます。
自分なりに整理ができ、考えを進められそうです。

お礼日時:2007/03/24 15:50

> 重回帰分析、分散分析、t検定の、それぞれの特徴、どういった場合に用いればよいのかを教えてください。



1度ちゃんとした教科書を読むことをおススメします。例えば「心理学のためのデータ解析テクニカルブック」とか,最近出たものでいえば「心理統計法への招待」とか良いと思いますよ。

ちなみに分散分析と重回帰分析は数学的には同じものです(ただし,非線形回帰の場合は違いますが)。分かりやすくくくってしまえば,

t検定・・・2群の平均値の差を確かめる
分散分析・・・3群以上の平均値の差を確かめる
重回帰分析・・・目的変数に影響している説明変数を見つける(例えば,売り上げに貢献している変数は何かということ)。
    • good
    • 0
この回答へのお礼

3つの違いがわかりやすく説明されています。
とても、参考になります。
回答ありがとうございました。

お礼日時:2007/03/25 00:34

「重回帰分析、分散分析、t検定」これらは数学処理するためのものであって、


心理学でこれを使うことは、ちょっと信じられません。
工場などでは良く使われる手法です。
人間(心理学)相手の数学分析は向かないように思うのですが・・。
何かテストを行いその結果が、何かの要因で変わるか同かを調べるなら重回帰分析になります。
Y(特定値)=a1X1+a2X2+a3X3+a4X+,,,+anXn
Xは様々な要因で、a1,,,anその要因がどれだけ特定値に寄与しているかを求めます。
理屈で「+」のはずが「ー」になった場合は、要因の選択が間違えている可能性があります。
要因相互に相関関係があるものはどちらかを使ってください。

分散分析は、A,B,C,・・・Nのグループで、何か試験を行った値に差が有るかどうか、つまり各グループに差が有るかどうかを調べます。

t検定は忘れました。
    • good
    • 0
この回答へのお礼

回答、ありがとうございました。
心理学の研究においても、数的に統計処理をすることはあります。

何かのテストを行い、何らかの要因で変わるか否かを調べる。⇒重回帰
は、とてもよくわかりました。

参考にさせていただきます。

お礼日時:2007/03/23 21:14

このQ&Aに関連する人気のQ&A

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!

このQ&Aを見た人はこんなQ&Aも見ています

関連するQ&A

このQ&Aを見た人が検索しているワード

このQ&Aと関連する良く見られている質問

Q統計学的に信頼できるサンプル数って?

統計の「と」の字も理解していない者ですが、
よく「統計学的に信頼できるサンプル数」っていいますよね。

あれって「この統計を調べたいときはこれぐらいのサンプル数があれば信頼できる」という決まりがあるものなのでしょうか?
また、その標本数はどのように算定され、どのような評価基準をもって客観的に信頼できると判断できるのでしょうか?
たとえば、99人の専門家が信頼できると言い、1人がまだこの数では信頼できないと言った場合は信頼できるサンプル数と言えるのでしょうか?

わかりやすく教えていただけると幸いです。

Aベストアンサー

> この統計を調べたいときはこれぐらいのサンプル数があれば信頼できる・・・
 調べたいどの集団でも、ある一定数以上なら信頼できるというような決まりはありません。
 何かサンプルを集め、それをなんかの傾向があるかどうかという仮説を検証するために統計学的検定を行って、仮設が否定されるかされないかを調べる中で、どの検定方法を使うかで、最低限必要なサンプル数というのはあります。また、集めたサンプルを何か基準とすべき別のサンプルと比べる検定して、基準のサンプルと統計上差を出すに必要なサンプル数は、比べる検定手法により計算できるものもあります。
 最低限必要なサンプル数ということでは、例えば、ある集団から、ある条件で抽出したサンプルと、条件付けをしないで抽出したサンプル(比べるための基準となるサンプル)を比較するときに、そのサンプルの分布が正規分布(正規分布解説:身長を5cmきざみでグループ分けし、低いグループから順に並べたときに、日本人男子の身長なら170cm前後のグループの人数が最も多く、それよりも高い人のグループと低い人のグループの人数は、170cmのグループから離れるほど人数が減ってくるような集団の分布様式)でない分布形態で、しかし分布の形は双方とも同じような場合「Wilcoxon符号順位検定」という検定手法で検定することができますが、この検定手法は、サンプルデータに同じ値を含まずに最低6つのサンプル数が必要になります。それ以下では、いくらデータに差があるように見えても検定で差を検出できません。
 また、統計上差を出すのに必要なサンプル数の例では、A国とB国のそれぞれの成人男子の身長サンプルがともに正規分布、または正規分布と仮定した場合に「t検定」という検定手法で検定することができますが、このときにはその分布を差がないのにあると間違える確率と、差があるのにないと間違える確率の許容値を自分で決めた上で、そのサンプルの分布の値のばらつき具合から、計算して求めることができます。ただし、その計算は、現実に集めたそれぞれのサンプル間で生じた平均値の差や分布のばらつき具合(分散値)、どのくらいの程度で判定を間違える可能性がどこまで許されるかなどの条件から、サンプル間で差があると認められるために必要なサンプル数ですから、まったく同じデータを集めた場合でない限り、計算上算出された(差を出すために)必要なサンプル数だけサンプルデータを集めれば、差があると判定されます(すなわち、サンプルを無制限に集めることができれば、だいたい差が出るという判定となる)。よって、集めるサンプルの種類により、計算上出された(差を出すために)必要なサンプル数が現実的に妥当なものか、そうでないのかを、最終的には人間が判断することになります。

 具体的に例示してみましょう。
 ある集団からランダムに集めたデータが15,12,18,12,22,13,21,12,17,15,19、もう一方のデータが22,21,25,24,24,18,18,26,21,27,25としましょう。一見すると後者のほうが値が大きく、前者と差があるように見えます。そこで、差を検定するために、t検定を行います。結果として計算上差があり、前者と後者は計算上差がないのにあると間違えて判断する可能性の許容値(有意確率)何%の確率で差があるといえます。常識的に考えても、これだけのサンプル数で差があると計算されたのだから、差があると判断しても差し支えないだろうと判断できます。
 ちなみにこの場合の差が出るための必要サンプル数は、有意確率5%、検出力0.8とした場合に5.7299、つまりそれぞれの集団で6つ以上サンプルを集めれば、差を出せるのです。一方、サンプルが、15,12,18,12,21,20,21,25,24,19の集団と、22,21125,24,24,15,12,18,12,22の集団ではどうでしょう。有意確率5%で差があるとはいえない結果になります。この場合に、このサンプルの分布様式で拾い出して差を出すために必要なサンプル数は551.33となり、552個もサンプルを抽出しないと差が出ないことになります。この計算上の必要サンプル数がこのくらい調査しないといけないものならば、必要サンプル数以上のサンプルを集めて調べなければなりませんし、これだけの数を集める必要がない、もしくは集めることが困難な場合は差があるとはいえないという判断をすることになるかと思います。

 一方、支持率調査や視聴率調査などの場合、比べるべき基準の対象がありません。その場合は、サンプル数が少ないレベルで予備調査を行い、さらにもう少しサンプル数を増やして予備調査を行いを何回か繰り返し、それぞれの調査でサンプルの分布形やその他検討するべき指数を計算し、これ以上集計をとってもデータのばらつきや変化が許容範囲(小数点何桁レベルの誤差)に納まるようなサンプル数を算出していると考えます。テレビ視聴率調査は関東では300件のサンプル数程度と聞いていますが、調査会社ではサンプルのとり方がなるべく関東在住の家庭構成と年齢層、性別などの割合が同じになるように、また、サンプルをとる地域の人口分布が同じ割合になるようにサンプル抽出条件を整えた上で、ランダムに抽出しているため、数千万人いる関東の本当の視聴率を割合反映して出しているそうです。これはすでに必要サンプル数の割り出し方がノウハウとして知られていますが、未知の調査項目では必要サンプル数を導き出すためには試行錯誤で適切と判断できる数をひたすら調査するしかないかと思います。

> どのような評価基準をもって客観的に信頼できると判断・・・
 例えば、工場で作られるネジの直径などは、まったくばらつきなくぴったり想定した直径のネジを作ることはきわめて困難です。多少の大きさのばらつきが生じてしまいます。1mm違っても規格外品となります。工場では企画外品をなるべく出さないように、統計を取って、ネジの直径のばらつき具合を調べ、製造工程をチェックして、不良品の出る確率を下げようとします。しかし、製品をすべて調べるわけにはいきません。そこで、調べるのに最低限必要なサンプル数を調査と計算を重ねてチェックしていきます。
 一方、農場で生産されたネギの直径は、1mmくらいの差ならほぼ同じロットとして扱われます。また、農産物は年や品種の違いにより生育に差が出やすく、そもそも規格はネジに比べて相当ばらつき具合の許容範囲が広くなっています。ネジに対してネギのような検査を行っていたのでは信頼性が損なわれます。
 そもそも、統計学的検定は客観的判断基準の一指針ではあっても絶対的な評価になりません。あくまでも最終的に判断するのは人間であって、それも、サンプルの質や検証する精度によって、必要サンプルは変わるのです。

 あと、お礼の欄にあった専門家:統計学者とありましたが、統計学者が指摘できるのはあくまでもそのサンプルに対して適切な検定を使って正しい計算を行ったかだけで、たとえ適切な検定手法で導き出された結果であっても、それが妥当か否か判断することは難しいと思います。そのサンプルが、何を示し、何を解き明かし、何に利用されるかで信頼度は変化するからです。
 ただ、経験則上指標的なものはあります。正規分布を示すサンプルなら、20~30のサンプル数があれば検定上差し支えない(それ以下でも問題ない場合もある)とか、正規分布でないサンプルは最低6~8のサンプル数が必要とか、厳密さを要求される調査であれば50くらいのサンプル数が必要であろうとかです。でも、あくまでも指標です。

> この統計を調べたいときはこれぐらいのサンプル数があれば信頼できる・・・
 調べたいどの集団でも、ある一定数以上なら信頼できるというような決まりはありません。
 何かサンプルを集め、それをなんかの傾向があるかどうかという仮説を検証するために統計学的検定を行って、仮設が否定されるかされないかを調べる中で、どの検定方法を使うかで、最低限必要なサンプル数というのはあります。また、集めたサンプルを何か基準とすべき別のサンプルと比べる検定して、基準のサンプルと統計上差を出すに必要な...続きを読む

Qカイ2乗検定って何??;;

タイトルのとおりですが…大学で統計の基礎な授業を一般教養で受けています。だけど知らない&説明のない言葉がいっぱぃで、全くついていけません(>_<))
「人が一番選ばなさそうな数字」を何度か投票した結果があって、その数字は無作為に選ばれてるかどうか、有意水準1%としてカイ2乗検定をして判断する、という問題があるのですが、カイ2乗検定自体、授業でちらっと言葉は使ったものの、計算の仕方、使い方の説明等はなく、まったく手がつかずにいます;;ネットでも調べてみましたが、どう使っていいのかまでは分かりませんでした。
知識の無い私でもわかるようなものがあれば教えて下さいっっ!お願いします。

Aベストアンサー

こんにちは.χ2(カイ二乗)検定を厳密に理解するには,数学的素養を持っている状態できっちりと統計学を学習する必要があるのですが,統計データを解析するための手段として統計学を「使う」のであれば,多少の原理を知っておけばよいでしょう.
以下初学者向けにかなり乱暴な説明をしています.正確な理解をしたければ,後で統計学の教科書などで独学して下さい.

χ2検定とは,χ2分布という確率分布を使ったデータ解析法と考えてもらう……のが一番なのですが,多分χ2分布って何? と思われるでしょう.χ2分布とは,二乗値に関する確率分布と考えることができるのですが,この辺もさらりと流して下さい.

例を使って説明します.今,道行く人にA,B,C,Dの四枚のカードの中から好きなもの一枚を選んでもらうとしましょう(ただし,選んでもらうだけで,あげるわけではありません.単にどのカードを選択仕方の情報を得るだけです).一人一枚だけの条件で,160人にカードを選んでもらいました.
さて,ここで考えてみて下さい.4枚のカードには大きな違いはなく,どれを選んでもかまわない.でたらめに選ぶとなれば,どのカードも1/4で,同じ確率で,選ばれるはずですよね? ならば,160人データならば,Aは何枚ほど選ばれる「はず」でしょうか? 同様に,B,C,Dは何枚選ばれる「はず」でしょうか?
……当然,A=B=C=D=40枚の「はず」ですよね? この40枚という数値はでたらめに(無作為に)選ばれたとしたらどんな数値になるかの【理論値】を意味します.

さて,上記はあくまでも理論値であり,実際のデータは異なる可能性があります.というよりはむしろ違っているのがふつうでしょう.そのような実際に観測された数値を【観測値】と呼びます.
仮に理論値と観測値が以下のようになったとします.

        A    B    C    D
(1)観測値   72   23   16   49
(2)理論値   40   40   40   40

当然のように観測値と理論値にズレが生じています.しかし現実と理論が異なるのはある意味当然なのですからぴったり一致することなどありえません.そこで,「ある程度一致しているか(ズレは許容範囲か)」を問題にすることになります.しかし,「ある程度」といわれても一体どのぐらいであれば「ある程度」と言えるのでしょうか? なかなか判断が難しいではないですか?
確かに判断が難しいです.そこで,この判断のために統計学の力を借りて判断するわけで,更に言えばこのような目的(理論値と観測値のズレが許容範囲かどうか)を検討するときに使われるデータ解析法がχ2検定なのです.

        A    B    C    D
(1)観測値   72   23   16   49
(2)理論値   40   40   40   40
(3)ズレ    +32   -17   -14   + 9
(4)ズレ二乗 1024   289   196   81
(5)(4)÷(2) 25.6  7.225  4.9  2.025

 χ2=25.6+7.225+4.9+2.025=49.25

計算過程をさらりと書いていますが,早い話が観測値と理論値のズレの大きさはいくらになるのか,を求めることになります.最終的には「49.25」というズレ値が算出されました.

さて,この「49.25」というズレ値が許容範囲かどうかの判定をするのですが,ここで,χ2分布という確率分布を使うことになります.詳細は統計学教科書を参考してもらうとして,χ2分布を使うと,○○というズレ値が(ある条件では)どのぐらい珍しいことなのか,という「珍しさの確率」を教えてくれます.
かりに「有意水準1%=1%よりも小さい確率で発生することはすごく珍しいと考える(許容範囲と考えられない)」とすれば,「珍しさ確率」が1%以内であれば「許容範囲ではない」と判断します.

以上,長々と書きました.今までの説明を読めばわかるように,χ2検定とはある理論値を想定した時,実際の観測値がその理論値とほぼ一致しているかどうかを調べるための統計解析法のことです.

χ2検定では,理論値をどのように設定するかは分析者の自由です.その設定の仕方で,χ2検定は「適合度の検定」や「独立性の検定」など異なる名称が付与されますが,本質は同じなのです.

質問者さんの場合は

> 「人が一番選ばなさそうな数字」を何度か投票した結果があって、その数字は無作為に選ばれてるかどうか、

これを理論値としてうまく設定することが鍵となるでしょう.

こんにちは.χ2(カイ二乗)検定を厳密に理解するには,数学的素養を持っている状態できっちりと統計学を学習する必要があるのですが,統計データを解析するための手段として統計学を「使う」のであれば,多少の原理を知っておけばよいでしょう.
以下初学者向けにかなり乱暴な説明をしています.正確な理解をしたければ,後で統計学の教科書などで独学して下さい.

χ2検定とは,χ2分布という確率分布を使ったデータ解析法と考えてもらう……のが一番なのですが,多分χ2分布って何? と思われるでしょう.χ2分布...続きを読む

Q相関分析の相関係数と重回帰分析の偏回帰係数の違いの説明

実は会社での説明に苦慮しています。
例えば、携帯電話の(1)メーカー/(2)デザイン/(3)機能の(4)購入意向、に対する影響度を見たい、という時に、重回帰分析における偏回帰係数で(1)(2)(3)の(4)に対する影響度を測ろうとしているのですが、「(4)と(1)(2)(3)それぞれの相関の高さで見るのと何が違うのか?」と聞かれてしまい、回答に窮しています。あまり統計に詳しくない人(私もそうですが)に対し、うまく説明する方法はないでしょうか。
どなたかお知恵をいただきたく、よろしくお願いします。

Aベストアンサー

相関分析と重回帰分析の違いは、説明変数を一つとするか複数にするかの違いです。
 目的とするもの(従属変数、数式ではy)に影響するものが、説明変数(数式ではx)です。

 プロ野球を例に取ると、野球はピッチャーだ、といわれます。そこで、過去数年間について、ピッチャーのチーム防御率だけをXとし(説明変数が単数)、その年の順位をyとして、分析するのが単回帰分析です。
 しかし、いくらピッチャーが良くても、打てなければ勝てません。そこで、バッターの打率も考える必要があります。すなわち、チームの防御率をX1、チームの打率をx2、すなわち、説明変数を複数(2つ以上)採り、順位yの推定を行うのが、重回帰分析です。
 このように、単回帰分析よりも、重回帰分析の方が、必ず相関係数が高くなります。すなわち、結果の推定の確実性が増すわけです。相関係数が、1.0になれば、説明変数の事柄だけで、従属変数の事柄が決定できます。すなわち、100%的中します。

 単回帰では、防御率、打率とも、相互の影響は考慮されていません。従って、防御率と打率のどちらが影響力が強いのかは、相関係数から予測はできるものの、決定できません。選手をとる場合、同じ年俸を払うのに、ピッチャーとバッターのどちらを補強したら効果的かは、判断が困難です。
 このとき、どちらの影響が強いかを推定できるのが、重回帰分析です。そのために利用するのが、偏回帰係数ですが、変数の単位に左右されるので、注意を要するところです。

 「単回帰では、(1)(2)(3)のどれが最も効果的かは、判断できません」が答えでしょうか。
 釈迦に説法の点は、ご容赦を。
  

相関分析と重回帰分析の違いは、説明変数を一つとするか複数にするかの違いです。
 目的とするもの(従属変数、数式ではy)に影響するものが、説明変数(数式ではx)です。

 プロ野球を例に取ると、野球はピッチャーだ、といわれます。そこで、過去数年間について、ピッチャーのチーム防御率だけをXとし(説明変数が単数)、その年の順位をyとして、分析するのが単回帰分析です。
 しかし、いくらピッチャーが良くても、打てなければ勝てません。そこで、バッターの打率も考える必要があります。すなわち、チー...続きを読む

Q相関係数についてくるP値とは何ですか?

相関係数についてくるP値の意味がわかりません。

r=0.90 (P<0.001)

P=0.05で相関がない

という表現は何を意味しているのでしょうか?
またMS Excelを使ってのP値の計算方法を教えてください。

よろしくお願い致します。

Aベストアンサー

pは確率(probability)のpです。全く相関のない数字を組み合わせたときにそのr値が出る確率をあらわしています。

統計・確率には100%言い切れることはまずありません。というか100%言い切れるのなら統計・確率を使う必要は有りません。
例えばサイコロを5回振って全て同じ目が出る確率は0.08%です。そんな時、そのサイコロを不良品(イカサマ?)と結論つけるとわずかに間違っている可能性が残っています。ただ、それが5%以下ならp=0.05でそのサイコロは正常ではないと結論付けます。
それが危険率です。(この場合はp=0.1%でもいいと思いますが)
相関係数においても相関の有無を結論つけるにはそのrが偶然出る確率を出すか、5%の確率ならrがどれぐらいの値が出るかを知っておく必要が有ります。

>r=0.90 (P<0.001)

相関係数は0.90と計算された。相関がないのに偶然r=0.90 となる確率は0.001以下だと言ってます。

>P=0.05で相関がない

相関がないと結論。(間違っている確率は5%以下)だと言ってます。

エクセルでの計算ですが、まず関数CORRELを使ってr値を出します。xデータがA1からA10に、yデータがB1からB10に入っているとして

r=CORREL(A1:A10,B1:B10)

次にそのr値をt値に変換します。

t=r*(n-2)^0.5/(1-r^2)^0.5

ここでnは組みデータの数です。((x1,y1),(x2,y2),・・・(xn,yn))
最後に関数TDISTで確率に変換します。両側です。

p=TDIST(t値,n-2,2)

もっと簡単な方法があるかも知れませんが、私ならこう計算します。(アドインの分析ツールを使う以外は)

pは確率(probability)のpです。全く相関のない数字を組み合わせたときにそのr値が出る確率をあらわしています。

統計・確率には100%言い切れることはまずありません。というか100%言い切れるのなら統計・確率を使う必要は有りません。
例えばサイコロを5回振って全て同じ目が出る確率は0.08%です。そんな時、そのサイコロを不良品(イカサマ?)と結論つけるとわずかに間違っている可能性が残っています。ただ、それが5%以下ならp=0.05でそのサイコロは正常ではないと結論付けます。
それが危険率です。(この場...続きを読む

Qエクセル STDEVとSTDEVPの違い

エクセルの統計関数で標準偏差を求める時、STDEVとSTDEVPがあります。両者の違いが良くわかりません。
宜しかったら、恐縮ですが、以下の具体例で、『噛み砕いて』教えて下さい。
(例)
セルA1~A13に1~13の数字を入力、平均値=7、STDEVでは3.89444、STDEVPでは3.741657となります。
また、平均値7と各数字の差を取り、それを2乗し、総和を取る(182)、これをデータの個数13で割る(14)、この平方根を取ると3.741657となります。
では、STDEVとSTDEVPの違いは何なのでしょうか?統計のことは疎く、お手数ですが、サルにもわかるようご教授頂きたく、お願い致します。

Aベストアンサー

データが母集団そのものからとったか、標本データかで違います。また母集団そのものだったとしても(例えばクラス全員というような)、その背景にさらならる母集団(例えば学年全体)を想定して比較するような時もありますので、その場合は標本となります。
で標本データの時はSTDEVを使って、母集団の時はSTDEVPをつかうことになります。
公式の違いは分母がn-1(STDEV)かn(STDEVP)かの違いしかありません。まぁ感覚的に理解するなら、分母がn-1になるということはそれだけ結果が大きくなるわけで、つまりそれだけのりしろを多くもって推測に当たるというようなことになります。
AとBの違いがあるかないかという推測をする時、通常は標本同士の検証になるわけですので、偏差を余裕をもってわざとちょっと大きめに見るということで、それだけ確証の度合いを上げるというわけです。

Qt検定と1×2の分散分析の違い

ある統計の本に、t2乗=Fであり、
t検定と1要因2水準の分散分析は同じだ、と書かれていました。

そうすると、t検定が存在する意味がなくなってしまう
(分散分析だけですんでしまう)ことになると思うのですが、
なぜt検定をするのでしょうか。

Aベストアンサー

bon-chanさん,こんにちは.

以前bon-chanさんと同じように悩んだことがあります.以下,自分なりの結論を述べます(これが正解かどうかは保証しません).

t検定と1×2分散分析は御指摘通りに同様の結論を導きます.そして,分散分析は1×2だけでなく,それ以上の複数の平均値の分析をすることができます.これだけを考えるならば,t検定には利用価値がないような気がします.しかし,いろいろと考えてみるとt検定にはやはり十分価値があります.

1)一つの平均値の検定において有効

t検定の使用法は,心理学領域においては,二つの平均値の比較のために使われています.しかし,t検定の最も基本的な使われ方は「ある数値が基準値と比べて有意に離れているか」というものです.統計法の教科書では「一つの条件の平均値の定数との関係を調べる検定」として説明されているでしょう.比較の手法が頻繁である心理学ではあまり使用されませんが,重回帰分析の偏回帰係数の有意検定はこの種類のt検定が使われています.

2)多重比較の原理として

分散分析では「要因全体として」有意であるかどうかを教えてくれますが,どの水準とどの水準との間に差があるかを教えてくれません.このために多重比較を行うわけですが,この多重比較の計算式をよく見るとt検定と類似しています.御存知の通り,t検定をそのまま使用しては多重比較としては不適なのですが,t検定を修正することによって多重比較の計算を行うことができます.

3)計算が簡単

上記の1)と2)は,あるいは1×2の分散分析で代用することができるかもしれません.しかし1×2の分散分析とt検定を比べた場合,t検定の方が圧倒的に計算が簡単です.対応なし要因に限定をすれば,二つの変数の平均と分散が分かっていればt検定をすることができますが,分散分析の場合は,原理的には個々のデータの平均値からの偏差を必要とします.つまり分散分析の方が計算が複雑なのです.

このように,t検定と分散分析では,その実用性からすれば分散分析に軍配が上がりますが,その基本的原理や簡便性などからt検定の価値が認められます.
変なたとえをすれば,四則演算の計算問題を解くときに,手軽な電卓を使うか,あるいは,わざわざ起動してExcelなどの表計算ソフトを使うか,などの違い,と考えています.

bon-chanさん,こんにちは.

以前bon-chanさんと同じように悩んだことがあります.以下,自分なりの結論を述べます(これが正解かどうかは保証しません).

t検定と1×2分散分析は御指摘通りに同様の結論を導きます.そして,分散分析は1×2だけでなく,それ以上の複数の平均値の分析をすることができます.これだけを考えるならば,t検定には利用価値がないような気がします.しかし,いろいろと考えてみるとt検定にはやはり十分価値があります.

1)一つの平均値の検定において有効

t検定の使...続きを読む

Qパス解析

パス解析って、どういった分析なのですか?SPSSでも出来るものなのですか?私は論文でパス解析の結果の図しか見たことないので、どういったものなのか知りたいです。今のところの私のパス解析による分析に対する結果の解釈方法は、重回帰分析の繰り返しを行っているといった感じです。ただ、実際にSPSSなどを使って重回帰分析を繰り返しやっていると、場合によっては恐ろしく手間がかかると思いますので、専用のソフト(フリーを含む)などで出来るものはないのかと思っています。宜しくお願いします。

Aベストアンサー

こんにちは.
パス解析については詳しくないのですが,論文などを読んだ感じでは少しばかり,この解析法については混乱があるような気がします.

パス解析とは,質問者さんが見たことがある「パス図」として表示することを最終目標とした図と考えるのが混乱が少ないような気がします.
パスというのは,ある変数とある変数との間の関連性の経路(pass)のことですね.その意味では変数と変数との関連性を示している解析法はパス解析となりますが,複数のパスを描く必要がある……その場合を特別にパス解析と呼ぶのが通例のような気がします.複数のパスを描くとは,すなわち複数の変数の関係性を調べる訳なので,多くの多変量解析は図的表現をすれば,パス解析と呼ぶことができると思われます.
その意味では,パス解析とは特定の統計手法を指すのではなく,ある意味では多変量解析の別名と考えると混乱が少なくなるのではないか,と思います.

しかし,もう少し限定的な意味で「パス解析」とは次の二種類があるようです.

・単純な重回帰分析の繰り返しによるパス解析
・共分散構造分析によるパス解析

昔はパス解析といえば「単純な重回帰分析の繰り返し」を意味したようです.少なくともパス解析の開発初期においてはその意味で使われていたように思われます.しかし重回帰分析は潜在変数(因子)を扱うことができないなどの欠点がありました.
そして最近流行になっている共分散構造分析では,因子を扱いながら重回帰分析のような影響性の関係を調べることができるようになり,より優れたパス図の作成をすることができます.

このような流れがあるようなので,パス解析という言葉の意味である「変数と変数の間の経路を解析する」を厳密に考えるならば,昔のような「単純な重回帰分析の繰り返し」だけでなくなり,現在のような「共分散構造分析」によるパス解析も含めるのが当然となります.

さて,具体的にパス解析をどのように実行すればよいかですが,ようするにパスをかけるのならばよいわけですから,No1さんが仰られているようにSPSSの「重回帰分析」を繰り返して使うというものでもかけますし,また,SPSSのアドインソフト(単独でも使えますが)である「Amos」というソフトを使って「共分散構造分析」を使ってパス解析をすることもできます.
なお,SPSSで「重回帰分析の単純な繰り返し」法では,確かに大変ですが,共分散構造分析が普及していなかった時代は,大変であろうがとにかくやるしかなかったわけです.そして手計算に比べれば手間がかかるといってもたかがしれているわけです.研究者は自分の持つデータに対する分析はいろいろと,それこそうんざりするぐらい分析を行いますのであまり手間をかけるという発想はないのではないか,と思います.
しかし,どうしてもいっぺんにやりたいというのであれば,Amosなどの共分散構造分析ソフトを使うようになります.現在では「単純な重回帰分析の繰り返し」の専門ソフトに対する需要は少ないと思うので開発されていないのでは,と思います(この辺はおもいっきり自信なし).

こんにちは.
パス解析については詳しくないのですが,論文などを読んだ感じでは少しばかり,この解析法については混乱があるような気がします.

パス解析とは,質問者さんが見たことがある「パス図」として表示することを最終目標とした図と考えるのが混乱が少ないような気がします.
パスというのは,ある変数とある変数との間の関連性の経路(pass)のことですね.その意味では変数と変数との関連性を示している解析法はパス解析となりますが,複数のパスを描く必要がある……その場合を特別にパス解析と呼...続きを読む

Qα係数について教えてください。

SPSSを使用して因子分析(バリマックス回転 最尤法)を行いました。3つの因子が抽出されたのですが、各因子の信頼性を検討する為に、クロンバックのα係数を求めようとしています。

そこで質問なのですが、

(1) α係数を求める時は、プロマックスでも、バリマックスでも良いのでしょうか?
(2) α係数を求める時は、因子ごとに求めるのでしょうか(一般的なのでしょうか)?
(3) 逆転項目を削除しなければα係数の値が低くなる(そうでない項目と打ち消し合う為)とネット上で読みましたが、逆転項目とは何でしょうか? ← これについては、例を挙げて項目を説明していただくと助かります。

以上 3点、ご教授ください。よろしくお願いします。

Aベストアンサー

卒業論文の研究で因子分析を行っておられるのでしょうか。

一般論としてですが、研究を開始される前に、どのような統計手法を用い、どういう計算をどのように行うか(具体的には、統計パッケージソフトの使用法になるのかも知れませんが)などについて、きちんと準備して取り掛かることが重要です。
また、指導教員の先生に相談されることが原則ですので、この点についてもご承知ください。

1.Cronbachのα係数
1)α係数と因子の回転方法
これは、信頼性を求めたい項目を用いて算出しますので、因子の回転方法には関連はしないはずです。

2)α係数の意味
また、α係数は、同一尺度内の項目群について、一貫しているかどうか(つまり、同じような項目に対して、同じように反応しているかどうか)を確認するもので、内的整合性(内的一貫性)の指標となります。
したがって、因子ごとや、尺度であれば、下位尺度ごとに求めることが、概念的には基本かと思います。
もちろん、尺度全体を通して求めることも可能です。

2.逆転項目
1)逆転項目の説明
ここでいう「逆転」とは、ある調査項目について、対象者に回答を求める時と、結果を整理するときとでは、数値の評価を逆転させることをいいます。
例えば、
「あなたは、自分を神経質な方だと思いますか」という質問があり、それに対して、質問紙上では、「1.そうだ  2.ややそうだ  3.ややそうではない  4.そうではない」という選択肢から1つ選んでもらうのに対して、得点化するときには、「そうだ……4、ややそうだ……3、ややそうではない……2、そうではない……1」と、回答時とは逆に数値化することが挙げられます。

2)逆転項目とα係数
既存の尺度を用いているなど、あらかじめどれが逆転項目か分かっているときには、因子分析やα係数の算出仁崎だって、数値を逆転処理しておかないと、α係数は低くなります。

3)逆転項目の見つけ方
逆転項目があらかじめ分かっていない場合であっても、因子分析を実施した結果、因子負荷量が正ばかりの中に、1項目だけ負の負荷量の項目が混じっているという場合、その負の負荷量を示す項目は、逆転項目とみなし、数値の逆転処理をして、再度計算した方がよいでしょう。

以上は、例えば、
http://psy.isc.chubu.ac.jp/~oshiolab/teaching_folder/datakaiseki_folder/09_folder/da09_02.html
などにも説明があります。

ご参考までに。

卒業論文の研究で因子分析を行っておられるのでしょうか。

一般論としてですが、研究を開始される前に、どのような統計手法を用い、どういう計算をどのように行うか(具体的には、統計パッケージソフトの使用法になるのかも知れませんが)などについて、きちんと準備して取り掛かることが重要です。
また、指導教員の先生に相談されることが原則ですので、この点についてもご承知ください。

1.Cronbachのα係数
1)α係数と因子の回転方法
これは、信頼性を求めたい項目を用いて算出しますので、因子の回転方法に...続きを読む

Q共分散構造分析とは?

項目応答理論とは別にもう一つ質問させていただきます。共分散構造分析というものが一体どういうものなのか教えてください。なぜ適合度の判定が出来るのかなどに触れていただけると嬉しいです。卒業論文で利用する予定なので、この理論について学部生として必要な分だけは理解しておきたいと考えています。主観で結構ですので、この点も踏まえて回答お願いします。

Aベストアンサー

こんにちは.

項目応答理論も共分散構造分析も,名前はよく聞き,実際注目されているが,その原理を正しく理解して使っている人は少ない……というのが,学部生だけでなく,院生や先生レベルにおいても現状です.いわゆる数理的側面からこれらを理解するのは,心理学者としてはいささか荷が重く,少なくとも,t検定や分散分析のように「知っていなければいけない」というものではなく,使いたい人が最低限のことを知っておくという性質の分析法でしょう.

私自身も共分散構造分析についてはよくしりませんが,人に説明する時に以下のようなイメージ的説明をします.

共分散構造分析は,それまでの統計解析法を包括する優れた手法……なのですが,この説明では何がすごいのかよく分からないでしょう.

心理学者が結果の解釈や使い方は知っておくべきとされる統計解析法に「重回帰分析」と「因子分析」があります.
重回帰分析は「原因→結果」の図式を適用して,【想定したモデル内において】原因や結果が何であるかを考えるものです.科学の究極的な目的として「単なる相関関係ではなく,因果関係を調べる」がありますが,その意味では重回帰分析はなかなか有効です.しかし,重回帰分析の問題点は「観測変数」しか扱えない,実際に測定した数値しかモデル内に組み込めないというものがあります.
対して因子分析は,観測変数のデータから,その背後にある因子という「内生変数」について調べることができるものです.人々が持っている(だろう)知能という内生変数は形がないので直接調べることができませんが,それをテストを使って「知能指数」という「観測変数」形として調べることができますしかし知能指数が,その人の知能を直接反映しているかというとそんなことはなく,間接的に測定しているに過ぎません.このような間接的な情報である「因子/内生変数」を調べることができる因子分析ですが,問題点は自分が想定する「原因→結果」の図式を使えない,と言うことが挙げられます.

このように,重回帰分析は「自在に原因-結果を想定でき」ますが「内生変数を扱えない」,対して因子分析は「内生変数を扱える」が「自在な原因-結果を想定できない」と,それぞれに長所短所があります.
……このように書くと,流れから推測できると思いますが,共分散構造分析は「内生変数を扱える」かつ「自在に原因-結果を想定できる」というように両方のいいとこ取りができるのです.なぜならば,共分散構造分析は重回帰分析や因子分析を包括するモデルだからです.更に言えば,分散分析やその他の統計解析法の多くも,包括しています.まさに共分散構造分析は統計解析法の王様と位置づけることができるでしょう.

以上で共分散構造分析の偉大さの一端は分かっていただけたと思います.つまり共分散構造分析一つあれば,その他の統計解析法の多くは不必要になる可能性もあります.

ただし!

これほどあまりにも便利な統計解析法ですが,無論欠点も存在します.共分散構造分析がこれほどの汎用性を持つにはそれなりの【代償を必要】とします.
そもそも共分散構造分析が汎用性を持ちうるのは何故かというと,予め組み込まれている前提条件が少なく,実際の分析をするためには分析者があれこれと指示をしなければならない,からです.重回帰分析では「観測変数のみを扱う」「従属変数は一つだけ」などのように予め前提条件が存在します.この前提条件が枷になることもありますが,逆に言えば,そのような枷があるからこそ,その前提条件について悩む必要がなく習熟が簡単なのです(因子分析にも前提条件が当然あります).しかし共分散構造分析では,その前提条件がないので,逆に言えば,わざわざ指定しなければなりません.

突飛なたとえをします.どこかに移動する場合様々な移動手段が存在します.例えば「歩いて移動」「車で移動」「飛行機で移動」などなどです.「歩いて移動」しかできないAさん,「何でも移動できる」Bさんがいるとしましょう.とにかく「○○に行け」と指示を出す場合,Aさんだったらその指示が出た瞬間,何のためらいもなく,目的地に向かって歩き始めるでしょう.対してBさんは,「○○に行け」だけの指示では動けません.具体的にどのような移動手段かを指示しなければなりません.このように様々な手段を持つ人に対しては,細々とした具体的な指示をしなければなりません.Aさんは前提条件がある(「車で移動するな」「飛行機泥どうするな」)重回帰分析タイプです.Bさんは前提条件がほとんどない共分散構造分析タイプです.

話を戻しますが,共分散構造分析の大きな欠点の一つとしては「自分であれこれと命令,指定をしなければならない」という点があります.簡単に言えば,データに対してかなり明確な仮説モデルがないとだめなのです.「よく分からないけどとりあえず分析をしよう」ということができません.他にも大量データでなければならない,などの欠点もありますが,最大の欠点は上記の「あれこれの指定」でしょう.しかし逆に言うと「あれこれ指定しなければならない」とは「あれこれ指定できる」となり,欠点が長所に転じます.
この意味で共分散構造分析は,それまでの統計解析法の前提条件に満足できない人が,前提条件そのものをいじって,自分であれこれモデルを作りたい,というような玄人好みの統計解析法であると言えるのではないでしょうか?

長くなりましたが,最後に「適合度の判定」についてごく簡単に.
適合度の判定とは,要するにそのモデルが適切かどうかを判断する指標がある,ということでしょうか? その意味でしたら,実は多くの統計解析法にそのような「適合度の判定」に類するものがあります.重回帰分析ではモデルの分散分析(F検定を使ったもの)が該当します.
適合度の判定は,予測値と実測値がどれほど合致しているかを示しますが,共分散構造分析とは先に散々繰り返したようにモデルを作ります.すると,モデルによる予測値と,実際のデータ実測値とを比べることにより,そのモデルがデータに適合しているかどうかを調べることができます.

> なぜ適合度の判定が出来るのかなどに触れていただけると嬉しいです

大抵の統計解析法の多くには,適合度の判定に類するものは実装されています(因子分析が例外的ですが.但し,因子分析も最近のオプションによっては適合度の判定ができるそうです).

最後に.
共分散構造分析は,最初に述べたように,必要な人が困らない程度にがんばって理解する,という性質の統計解析法です.そのために学部生の場合であれば,論文でこの分析法が使われている場合は結果の数値の解釈だけできれば,ひとまずokだと思います.使う場合でも,自分が使う範囲で困らない程度の習熟すれば良いと思います.

こんにちは.

項目応答理論も共分散構造分析も,名前はよく聞き,実際注目されているが,その原理を正しく理解して使っている人は少ない……というのが,学部生だけでなく,院生や先生レベルにおいても現状です.いわゆる数理的側面からこれらを理解するのは,心理学者としてはいささか荷が重く,少なくとも,t検定や分散分析のように「知っていなければいけない」というものではなく,使いたい人が最低限のことを知っておくという性質の分析法でしょう.

私自身も共分散構造分析についてはよくしりませんが...続きを読む

QT検定とMann-WhitneyのU検定の使い分け

ある2郡間の平均値において、統計的に有意な差があるかどうか検定したいです。ちなみに、対応のない2郡間での検定です。

T検定を行うには、ある程度のサンプル数(20以上程度?)があった方が良く、サンプル数が少ない場合には、Mann-WhitneyのU検定を行うのが良いと聞いたのですが、それは正しいのでしょうか?
また、それが正しい場合には実際にどの程度のサンプル数しかない時にはMann-WhitneyのU検定を行った方がよろしいのでしょうか?
例えば、サンプル数が10未満の場合はどうしたらよろしいのでしょうか?

また、T検定を使用するためには、正規分布に従っている必要があるとのことですが、毎回正規分布に従っているか検定する必要があるということでしょうか?その場合には、コルモゴルフ・スミノルフ検定というものでよろしいのでしょうか?

それから、ノンパラメトリックな方法として、Wilcoxonの符号化順位検定というものもあると思いますが、これも使う候補に入るのでしょうか。

統計についてかなり無知です、よろしくお願いします。

Aベストアンサー

結局ですね、適切な検定というのは適切なp値が得られるということなんですよ。適切なp値というのは第1種の過誤と第2種の過誤をなるべく低くするようにする方法を選ぶということなのですね。

従来どおりの教科書には「事前検定をし、正規性と等分散性を仮定できたら、、、」と書いていありますが、そもそも事前検定をする必要はないというのが例のページの話なのです。どちらが正しいかというと、どちらも正しいのです。だから、ある研究者はマンホイットニーのU検定を行うべきだというかもしれませんし、私のようにいかなる場合においてもウェルチの検定を行う方がよいという者もいるということです。

ややこしく感じるかもしれませんが、もっと参考書を色々と読んで分析をしていくうちにこういった内容もしっくり来るようになると思います。


このQ&Aを見た人がよく見るQ&A

人気Q&Aランキング