バリマックス回転の場合は下位尺度間に相関がないことを前提に行うとのことですが、とある学術論文ではバリマックス回転を行ったあとに下位尺度間の相関を求め、その結果相関が見られていました。
バリマックス回転を行った結果、下位尺度に相関が見られた場合には必ずプロマックス回転に変更しなければならないのでしょうか。それともこの学術論文のようにさほど気にしなくてもいい問題なのでしょうか。

このQ&Aに関連する最新のQ&A

A 回答 (4件)

こんにちは。

私自身は,心理学を専門にしていますが,研究の方法論として統計法に関心を持っている者です。

既に幾つかの回答があるように,現在の心理学研究で因子分析を用いる場合には「まずは斜交回転から」が常識となっています。おそらくは,1990年代(後半)頃からこのような風潮がでてきているように感じられます(あくまでも私感です)。

質問は「相関があるデータに対して直交回転をしてもよいのか?」というものですが,現在では「望ましくない(はじめから斜交回転を適用せよ)」という回答が一般的でしょう。
ただし,その分析者が斜交回転を使いこなすことができるならば,という条件がつきます。

現在,斜交回転の法が望ましいということが叫ばれているにもかかわらず,なぜそれほど浸透していないかというと,その大きな理由の一つとして,「斜交回転は結果の解釈が,直交回転のそれに比べて,難しい」ということが挙げられます。無論,表面的に「使う」ことはそれほど難しくありませんが,じっくり結果を考えて使う場合は難しくなります。
直交回転であれば「因子負荷量の行列」の結果しか出ませんが,斜交回転では「因子構造行列」と「因子パターン行列」の二つが算出されます。どのように使い分ければよいのでしょうか? また,因子の数をいくらにするかの基準の一つとなる「固有値」について,全体の固有値に対する割合が,斜交回転ではでてきません。因子をいくらにすべきなのでしょうか?……
このように,実際に使うとなると,意外と難しいために,斜交回転が普及していないように思われます。
あるいは,相関有りデータに対して直交回転を使った論文とは,古い論文なのか,あるいは,分析者が斜交回転を使いこなす技量がなかったのか,などという推測がされます。

追記:質問者No4様の回答の最後の段落「そういった意味で『プロマックス回転』を使用することは……」とは『バリマックス回転』の誤りではないでしょうか?
    • good
    • 0
この回答へのお礼

とても詳しい回答をありがとうございます。
私が疑問としていた部分に関してよく理解することができました。
プロマックス回転のほうが統計学的には正しいけれども解釈が難しいということですね。

相関有りデータに対してバリマックス回転を使用した論文は2003年の論文でしたので技量の問題という可能性が高いかもしれません。

ありがとうございました。

お礼日時:2005/10/24 16:05

私も統計学の専門家ではなく単なるユーザーの一人なので。

。。数学的意味の詳細は数学で聞いてもらった方がいいのではないかと思います。

> 相関があるときはできるだけプロマックス回転を使用したほうがいい、という程度のものなのですか?

決してそうではありません。手元の教科書にも「1991年、PedhazurとSehmelkiは「斜交回転して因子間の独立性に妥当性があるときのみ直交回転に変更することを推奨している」と記述されています。原本を読んだことがないのですが、この方法が数学的に正しいという認識があるのだと思います。

どうして回転させるかということになりますが、平たく言うと。。。似通った尺度は因子空間でいくつかのクラスターを形成すると考えます。空間のどこに位置するかは分かりません。でも、因子空間自体を回転させてクラスターが軸の上にこればその意味を直感的に捉えやすくなります。これが回転の目的です。

また、現実的な問題になりますが、あるクラスター(今は軸上にある)を形成する項目がどれだけクラスターに属しているかを考えることは、どれだけいい項目を設定したのかを反映することになります。これは因子負荷量、ひいては寄与率として数字に表れます。

本来プロマックス回転をすべきところをバリマックス回転してしまうとこの因子負荷量が低くなり、質問事項と因子の関係が弱まります。裏を返せば因子は存在するけど、それが質問事項をどれだけ反映したものかがあいまいになってきます。

そういった意味でプロマックス回転を使用することは統計学的には間違いだと思います。ただ、間違った使い方をしても結果は出てくるし、それが実世界を全然反映したものではないわけではない考えると、統計的な使い方を間違った論文からも何らかの情報(情報価値は小さいかもしれませんが)を得るのがいいかなと思う次第です。
    • good
    • 0
この回答へのお礼

回答ありがとうございます。
私が読んだ下位尺度に相関があるにも関わらずバリマックス回転を使った論文は学術論文で、そういうものに論文を投稿すると掲載されるのに厳しい審査があると聞きました。その審査を通過して掲載されているということはこういう方法もありなのかなぁと思いまして…。でもやっぱり統計学的にはNGということですよね。

お礼日時:2005/10/23 23:54

全然的外れかもしれないですが。

。。
授業で先生が
「バリマックスは古い、時代はプロマックスだ」
とおっしゃっていて、その授業でははじめからプロマックス回転のみを使っていましたが…
こういうことは関係ないですかね(^_^;)
    • good
    • 0
この回答へのお礼

回答ありがとうございます。
うちの大学では統計の授業で因子分析は扱ってくれませんでした(>_<)授業時間が足りなかったせいもあるとは思うのですが…。

お礼日時:2005/10/23 23:48

因子間の独立性あるいは直交性の概念はとても大事だと思います。

因子分析の性質上、理想的には直交する因子を探し出せれば言うことないというわけです。しかし、現実は厳しく実際はなかなかうまくいかないものです。

結果、因子間に直交性がなければプロマックス回転で暫定的な結果を出し、因子の性質を説明するというのが正しいと思います。個人的にはこれをすすめます。人によってはバリマックス回転をして、ただ、相関はこうだったと報告する手もありということなのかな。個人的にはあまりすすめたくないですが、読み手はそれでも何らかの情報を得られるので、そっちを大切にするといいと思います。
    • good
    • 0
この回答へのお礼

回答ありがとうございます。
>バリマックス回転をして、ただ、相関はこうだったと報告する手もありということなのかな
とのことですが、統計のルールとして結果的に下位尺度間に相関があったとしてもバリマックス回転を使用してもいいのでしょうか。
相関があるときはできるだけプロマックス回転を使用したほうがいい、という程度のものなのですか?

バリマックス回転でもプロマックス回転でも因子を構成する項目には変わりなかったので、いまいち2つの回転を使い分ける意味というものがわからなくて…。
統計は素人なものですみません。

お礼日時:2005/10/23 14:00

このQ&Aに関連する人気のQ&A

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!

このQ&Aを見た人はこんなQ&Aも見ています

このQ&Aを見た人が検索しているワード

このQ&Aと関連する良く見られている質問

Qバリマックス回転って?

バリマックス回転って簡単に言うとなんですか?
分かりやすく教えていただけると幸いです。
どうかお願いしますm(_ _)m

Aベストアンサー

専門家じゃないので、感覚的に理解していることを書いてみます。

 因子分析の回転は、2因子をイメージするのが一番分かりやすいです。2因子だと軸が2つなので、x軸とy軸の、小学校や中学校でよく見たグラフのイメージです。あるいは相関を出す時の、散布図でもいいです。とにかく2次元のグラフをイメージします。で、何が回転するかというと、そのグラフのx軸とy軸が交わっているところ、つまり一般の0になっているところを中心に、ぐるっと円回転します。もし因子分析をやったことがあるなら、一般に回転後のほうが負荷量が大きくなっているのを見たことがあると思います。ここでまた相関の散布図をイメージしてください。この散布が右上に集まっているとします。その時に軸が45°くらい時計回りに回転したら、軸と散布がすごく近づきますよね?(というか、散布の中を軸が通ることになるかな)。これが回転の原理です。負荷量は軸との距離のことですので、軸が回転してデータの散布位置に近づくほうが、負荷量は大きくなります。
 それからバリマックス回転などの直交回転と、斜交回転の違いですが、普通、グラフではx軸とy軸が90°で交わっています。このx軸とy軸を直角にしたまま回転させるのが直交回転です。斜交回転ではx軸とy軸が直角でなくてもいいとします。だからx軸とy軸はそれぞれ別に動いて、負荷量が最適になるような位置に回転します。

 あと蛇足ながら、私は因子分析を習う時、まずは斜交回転をするように言われました。バリマックスがよく目にする方法はありますが、因子間の相関があるかどうかは、確かめてみないと分かりません。検証もせずに、はじめから因子間相関はないとして直交回転をすることには?です。因子間相関が高かったとしても、実際にその因子の間に相関があるのかは別問題ですが、まずは因子間相関を確かめることで、新たな知見を得られることもあるはずです。


勉強するのなら、

ユーザーのための心理データの多変量解析法―方法の理解から論文の書き方まで
山際 勇一郎 (著), 田中 敏 (著)

が良かったです。

専門家じゃないので、感覚的に理解していることを書いてみます。

 因子分析の回転は、2因子をイメージするのが一番分かりやすいです。2因子だと軸が2つなので、x軸とy軸の、小学校や中学校でよく見たグラフのイメージです。あるいは相関を出す時の、散布図でもいいです。とにかく2次元のグラフをイメージします。で、何が回転するかというと、そのグラフのx軸とy軸が交わっているところ、つまり一般の0になっているところを中心に、ぐるっと円回転します。もし因子分析をやったことがあるなら、一般に回転後の...続きを読む

Q因子分析の因子負荷量について

因子負荷量がよくわからないのですが、負荷量が大きいということは、その項目の重要度も大きいということでしょうか?
その因子をより説明している、と聞いた気もするのですが、説明している、というのがよくわからないんです…

5件法で聞いて5が多かったり1が多かったりすると
大きくなったりするのでしょうか?

寄与率についても曖昧な知識しかありませんので、わかりやすく教えていただけるとありがたいです。

Aベストアンサー

bon-chanさん,こんにちは.意欲的に統計法の質問をされていますね.
正統的説明はtem546さんがされていますので,その中継ぎとして,不正確ですがもう少し初心者向けの説明をしたいと思います.

因子分析を単純に言ってしまえば,「複数の変数を,更に少数の【類似した】変数群にまとめるための【視点】を提供する」となります.
例えば次の相関行列を参考にして,「科目A~D」の五つの変数を,類似したもの同士をまとめる際の視点は何かを探ります.

  ── 科目ABCDEの相関行列(架空):1 ────────
       科目A  科目B  科目C   科目D  科目E
   科目A  1.00   -0.34   0.98   -0.44   -0.24
   科目B -0.34   1.00  -0.34   0.53   0.63
   科目C  0.98   -0.34   1.00   -0.35   -0.32
   科目D -0.44   0.53  -0.35   1.00   0.54
   科目E -0.24   0.63  -0.32   0.54   1.00
  ─────────────────────────────

かなり露骨な相関行列なので因子分析を使わなくとも何とかなります.この相関行列を,数値が低いものを消して,あれこれ並べ替えてみると,

  ── 科目ABCDEの相関行列(架空):4 ────
       科目A 科目C 科目B 科目D 科目E
   科目A 1.00  0.98
   科目C 0.98  1.00
   科目B         1.00  0.53  0.63
   科目D         0.53  1.00  0.54
   科目E         0.63  0.54  1.00
  ─────────────────────────

となり,「科目A&C」と「科目B&D&E」という二つの「視点」がみつかりました.この「視点」こそが,因子分析における「因子」です.

因子分析の本来の目的は「因子は何個あるのか?」を探ることでした.無論,一番上の相関行列を見て,「いや,例え相関係数が0.6であっても,両者は違うんだっ!」とこだわりさえすれば「科目B&D&E」は同じ因子にはならないでしょう.この辺は分析者の主観によります.
やがて因子分析を使う人達は,「因子は何個?」という目的だけに満足できずに「それぞれの因子の【内容】についても知りたい」という少し贅沢な要求を出してきました.

この要求は統計を実践で使う人から提出されたものですが,理論家からすれば「それは本来の使い方じゃないから厳密には内容を特定は出来ないんだがなあ」と思わせるものです.とはいえ,理論家は実践家に対してアドバイスを与えます.「因子負荷量に注目すれば因子の内容を(ある程度)特定できるよ(,絶対的じゃないけどね)」と.

一番最初の相関行列を因子分析にかけます.

  ─────────────────────────
     主因子法・バリマックス回転後の因子負荷量
           因子1  因子2  共通性
       科目A -0.20   0.98  1.00
       科目C -0.20   0.97  0.98
       科目B  0.84  -0.17  0.74
       科目D  0.75  -0.29  0.65
       科目E  0.87  -0.09  0.77
       固有値  2.12   2.01
       寄与率 42.36% 40.26%
     累積寄与率 42.36% 82.62%
  ─────────────────────────

このような結果になります.この因子分析結果では二因子解を採用しています.
因子負荷量とは何か? 少し間違った言い方をすれば「因子と項目との間の【相関係数】」……そう考えてもらって構いません.少なくとも直交回転における因子分析ではこの考えはそれほど間違っていないと思います(正確な解釈はtem546さんの説明を参考にして下さい).

では上記の結果から「因子1」と「因子2」の内容を特定しましょう.このままでは特定化できないので以下の情報を提供します(なお上記データは全て架空です).

・科目A:数学 科目C:理科
・科目B:英語 科目D:国語 科目E:社会

いま,「因子2」というのは「数学と理科」科目の項目と,非常に関係が強い(高い相関係数).因子負荷量からそれが読みとれますね? 因子負荷量というのは「重要度」というよりは「関係の強さ」と考えてもらった方が分かりやすいと思います.
因子というのは,関連する複数の項目(数学と理科)に「共通する要素」なわけですから……数学と理科の共通の要素とは何でしょうか? まあどのような名称を与えるかは分析者の命名センスにかかっていますので,ここでは「理系的学力」とします.結果,「因子2=理系的学力」となります.同様に「因子1=文系的学力」となるでしょう.

とりあえず,因子負荷量に関して,使い方に関連した部分だけ簡単に説明させてもらいました.以上の説明を読んでもらって,改めてtem546さんの説明を読んで下さい.私が誤魔化している部分をより正確に説明していらっしゃいます.

最後に,一番最初の相関行列からの説明でわかるように,因子分析というのは「相関係数」を元にしています.
相関係数というのは御存知の通り,一つの変数がどうこうではなく,【二つの変数間の関係】を示しています.

>5件法で聞いて5が多かったり1が多かったりすると
>大きくなったりするのでしょうか?

【直接的には】なりません.
あくまでも二変数関係に注目するものですから,一つの変数が5に集中したからといって因子負荷量が大きくなったりするわけではありません.
ただし……ある変数Aがたいてい5であり,別の変数Bがたいてい5である場合,「AとBとには同じ5になろうとする関係だ」となります.この意味で間接的に「5が多ければ……」因子負荷量が大きくなることがあるかもしれません(これは自分で考えてみて下さい).

bon-chanさん,こんにちは.意欲的に統計法の質問をされていますね.
正統的説明はtem546さんがされていますので,その中継ぎとして,不正確ですがもう少し初心者向けの説明をしたいと思います.

因子分析を単純に言ってしまえば,「複数の変数を,更に少数の【類似した】変数群にまとめるための【視点】を提供する」となります.
例えば次の相関行列を参考にして,「科目A~D」の五つの変数を,類似したもの同士をまとめる際の視点は何かを探ります.

  ── 科目ABCDEの相関行列(架空):1 ─────...続きを読む

Qα係数について教えてください。

SPSSを使用して因子分析(バリマックス回転 最尤法)を行いました。3つの因子が抽出されたのですが、各因子の信頼性を検討する為に、クロンバックのα係数を求めようとしています。

そこで質問なのですが、

(1) α係数を求める時は、プロマックスでも、バリマックスでも良いのでしょうか?
(2) α係数を求める時は、因子ごとに求めるのでしょうか(一般的なのでしょうか)?
(3) 逆転項目を削除しなければα係数の値が低くなる(そうでない項目と打ち消し合う為)とネット上で読みましたが、逆転項目とは何でしょうか? ← これについては、例を挙げて項目を説明していただくと助かります。

以上 3点、ご教授ください。よろしくお願いします。

Aベストアンサー

卒業論文の研究で因子分析を行っておられるのでしょうか。

一般論としてですが、研究を開始される前に、どのような統計手法を用い、どういう計算をどのように行うか(具体的には、統計パッケージソフトの使用法になるのかも知れませんが)などについて、きちんと準備して取り掛かることが重要です。
また、指導教員の先生に相談されることが原則ですので、この点についてもご承知ください。

1.Cronbachのα係数
1)α係数と因子の回転方法
これは、信頼性を求めたい項目を用いて算出しますので、因子の回転方法には関連はしないはずです。

2)α係数の意味
また、α係数は、同一尺度内の項目群について、一貫しているかどうか(つまり、同じような項目に対して、同じように反応しているかどうか)を確認するもので、内的整合性(内的一貫性)の指標となります。
したがって、因子ごとや、尺度であれば、下位尺度ごとに求めることが、概念的には基本かと思います。
もちろん、尺度全体を通して求めることも可能です。

2.逆転項目
1)逆転項目の説明
ここでいう「逆転」とは、ある調査項目について、対象者に回答を求める時と、結果を整理するときとでは、数値の評価を逆転させることをいいます。
例えば、
「あなたは、自分を神経質な方だと思いますか」という質問があり、それに対して、質問紙上では、「1.そうだ  2.ややそうだ  3.ややそうではない  4.そうではない」という選択肢から1つ選んでもらうのに対して、得点化するときには、「そうだ……4、ややそうだ……3、ややそうではない……2、そうではない……1」と、回答時とは逆に数値化することが挙げられます。

2)逆転項目とα係数
既存の尺度を用いているなど、あらかじめどれが逆転項目か分かっているときには、因子分析やα係数の算出仁崎だって、数値を逆転処理しておかないと、α係数は低くなります。

3)逆転項目の見つけ方
逆転項目があらかじめ分かっていない場合であっても、因子分析を実施した結果、因子負荷量が正ばかりの中に、1項目だけ負の負荷量の項目が混じっているという場合、その負の負荷量を示す項目は、逆転項目とみなし、数値の逆転処理をして、再度計算した方がよいでしょう。

以上は、例えば、
http://psy.isc.chubu.ac.jp/~oshiolab/teaching_folder/datakaiseki_folder/09_folder/da09_02.html
などにも説明があります。

ご参考までに。

卒業論文の研究で因子分析を行っておられるのでしょうか。

一般論としてですが、研究を開始される前に、どのような統計手法を用い、どういう計算をどのように行うか(具体的には、統計パッケージソフトの使用法になるのかも知れませんが)などについて、きちんと準備して取り掛かることが重要です。
また、指導教員の先生に相談されることが原則ですので、この点についてもご承知ください。

1.Cronbachのα係数
1)α係数と因子の回転方法
これは、信頼性を求めたい項目を用いて算出しますので、因子の回転方法に...続きを読む

Q相関係数についてくるP値とは何ですか?

相関係数についてくるP値の意味がわかりません。

r=0.90 (P<0.001)

P=0.05で相関がない

という表現は何を意味しているのでしょうか?
またMS Excelを使ってのP値の計算方法を教えてください。

よろしくお願い致します。

Aベストアンサー

pは確率(probability)のpです。全く相関のない数字を組み合わせたときにそのr値が出る確率をあらわしています。

統計・確率には100%言い切れることはまずありません。というか100%言い切れるのなら統計・確率を使う必要は有りません。
例えばサイコロを5回振って全て同じ目が出る確率は0.08%です。そんな時、そのサイコロを不良品(イカサマ?)と結論つけるとわずかに間違っている可能性が残っています。ただ、それが5%以下ならp=0.05でそのサイコロは正常ではないと結論付けます。
それが危険率です。(この場合はp=0.1%でもいいと思いますが)
相関係数においても相関の有無を結論つけるにはそのrが偶然出る確率を出すか、5%の確率ならrがどれぐらいの値が出るかを知っておく必要が有ります。

>r=0.90 (P<0.001)

相関係数は0.90と計算された。相関がないのに偶然r=0.90 となる確率は0.001以下だと言ってます。

>P=0.05で相関がない

相関がないと結論。(間違っている確率は5%以下)だと言ってます。

エクセルでの計算ですが、まず関数CORRELを使ってr値を出します。xデータがA1からA10に、yデータがB1からB10に入っているとして

r=CORREL(A1:A10,B1:B10)

次にそのr値をt値に変換します。

t=r*(n-2)^0.5/(1-r^2)^0.5

ここでnは組みデータの数です。((x1,y1),(x2,y2),・・・(xn,yn))
最後に関数TDISTで確率に変換します。両側です。

p=TDIST(t値,n-2,2)

もっと簡単な方法があるかも知れませんが、私ならこう計算します。(アドインの分析ツールを使う以外は)

pは確率(probability)のpです。全く相関のない数字を組み合わせたときにそのr値が出る確率をあらわしています。

統計・確率には100%言い切れることはまずありません。というか100%言い切れるのなら統計・確率を使う必要は有りません。
例えばサイコロを5回振って全て同じ目が出る確率は0.08%です。そんな時、そのサイコロを不良品(イカサマ?)と結論つけるとわずかに間違っている可能性が残っています。ただ、それが5%以下ならp=0.05でそのサイコロは正常ではないと結論付けます。
それが危険率です。(この場...続きを読む

Qパス解析

パス解析って、どういった分析なのですか?SPSSでも出来るものなのですか?私は論文でパス解析の結果の図しか見たことないので、どういったものなのか知りたいです。今のところの私のパス解析による分析に対する結果の解釈方法は、重回帰分析の繰り返しを行っているといった感じです。ただ、実際にSPSSなどを使って重回帰分析を繰り返しやっていると、場合によっては恐ろしく手間がかかると思いますので、専用のソフト(フリーを含む)などで出来るものはないのかと思っています。宜しくお願いします。

Aベストアンサー

こんにちは.
パス解析については詳しくないのですが,論文などを読んだ感じでは少しばかり,この解析法については混乱があるような気がします.

パス解析とは,質問者さんが見たことがある「パス図」として表示することを最終目標とした図と考えるのが混乱が少ないような気がします.
パスというのは,ある変数とある変数との間の関連性の経路(pass)のことですね.その意味では変数と変数との関連性を示している解析法はパス解析となりますが,複数のパスを描く必要がある……その場合を特別にパス解析と呼ぶのが通例のような気がします.複数のパスを描くとは,すなわち複数の変数の関係性を調べる訳なので,多くの多変量解析は図的表現をすれば,パス解析と呼ぶことができると思われます.
その意味では,パス解析とは特定の統計手法を指すのではなく,ある意味では多変量解析の別名と考えると混乱が少なくなるのではないか,と思います.

しかし,もう少し限定的な意味で「パス解析」とは次の二種類があるようです.

・単純な重回帰分析の繰り返しによるパス解析
・共分散構造分析によるパス解析

昔はパス解析といえば「単純な重回帰分析の繰り返し」を意味したようです.少なくともパス解析の開発初期においてはその意味で使われていたように思われます.しかし重回帰分析は潜在変数(因子)を扱うことができないなどの欠点がありました.
そして最近流行になっている共分散構造分析では,因子を扱いながら重回帰分析のような影響性の関係を調べることができるようになり,より優れたパス図の作成をすることができます.

このような流れがあるようなので,パス解析という言葉の意味である「変数と変数の間の経路を解析する」を厳密に考えるならば,昔のような「単純な重回帰分析の繰り返し」だけでなくなり,現在のような「共分散構造分析」によるパス解析も含めるのが当然となります.

さて,具体的にパス解析をどのように実行すればよいかですが,ようするにパスをかけるのならばよいわけですから,No1さんが仰られているようにSPSSの「重回帰分析」を繰り返して使うというものでもかけますし,また,SPSSのアドインソフト(単独でも使えますが)である「Amos」というソフトを使って「共分散構造分析」を使ってパス解析をすることもできます.
なお,SPSSで「重回帰分析の単純な繰り返し」法では,確かに大変ですが,共分散構造分析が普及していなかった時代は,大変であろうがとにかくやるしかなかったわけです.そして手計算に比べれば手間がかかるといってもたかがしれているわけです.研究者は自分の持つデータに対する分析はいろいろと,それこそうんざりするぐらい分析を行いますのであまり手間をかけるという発想はないのではないか,と思います.
しかし,どうしてもいっぺんにやりたいというのであれば,Amosなどの共分散構造分析ソフトを使うようになります.現在では「単純な重回帰分析の繰り返し」の専門ソフトに対する需要は少ないと思うので開発されていないのでは,と思います(この辺はおもいっきり自信なし).

こんにちは.
パス解析については詳しくないのですが,論文などを読んだ感じでは少しばかり,この解析法については混乱があるような気がします.

パス解析とは,質問者さんが見たことがある「パス図」として表示することを最終目標とした図と考えるのが混乱が少ないような気がします.
パスというのは,ある変数とある変数との間の関連性の経路(pass)のことですね.その意味では変数と変数との関連性を示している解析法はパス解析となりますが,複数のパスを描く必要がある……その場合を特別にパス解析と呼...続きを読む

Q尺度の作成について

尺度の作成について

いつも教えて!gooの方々には、大変お世話になっております。
尺度の作成について、お聞きしたく、質問をさせていただきました。

現在、レジャーの満足度をはかる尺度を作成したく思っております。

以前、既に作られているレジャー満足度尺度について、
聞かせて頂いたのですが、項目をみつける事が出来ませんでした;

そこで、レジャー満足度をはかる尺度を作ろうと考えています。

インターネットで探したところ、ある論文を書いた方は、余暇満足度尺度を、
長尾(1988)の人生満足度尺度と大野(1984)の充実度尺度から関わりのある項目を参考に作成していました。

今まで、心理測定尺度集に記載されている尺度しか使用した事がないため、どう尺度を作成すればいいのか検討もつきません;

上記にあるように、関わりのある項目を参考に自分でただ言葉を変えればいいだけなのでしょうか?
また、尺度の項目数はレジャー満足度尺度とかけ合せる尺度と、同程度にした方がよいのでしょうか?

自分で作った尺度を使用して、卒業論文を作成しようと考えているので、作った尺度の信頼性が低く
使い物にならなかったらと、不安でしかたありません。

長々と、私事ばかり書いてしまい申し訳ありませんが、教えて下さい。
よろしくお願い致します。

尺度の作成について

いつも教えて!gooの方々には、大変お世話になっております。
尺度の作成について、お聞きしたく、質問をさせていただきました。

現在、レジャーの満足度をはかる尺度を作成したく思っております。

以前、既に作られているレジャー満足度尺度について、
聞かせて頂いたのですが、項目をみつける事が出来ませんでした;

そこで、レジャー満足度をはかる尺度を作ろうと考えています。

インターネットで探したところ、ある論文を書いた方は、余暇満足度尺度を、
長尾(1988)の人生満足度尺度...続きを読む

Aベストアンサー

> 今まで、心理測定尺度集に記載されている尺度しか使用した事がないため、
> どう尺度を作成すればいいのか検討もつきません;
既にBacksさんもご指摘されるように,そのような状態では尺度作成は難しいでしょうね。尺度作成の過程は試行錯誤の連続です。また作成する尺度の概念について,ご自身が明確なビジョンを持つ必要があるでしょう。

>卒業論文を作成しようと考えているので、作った尺度の信頼性が低く
>使い物にならなかったらと、不安でしかたありません。
いきなり,信頼性や妥当性の高い尺度なんて作成できませんよ。私が指導する学生であれば「何甘いこと言ってるんだ」と小一時間のお説教です。私も以前,尺度の作成を行ったことがあります。その最初のプロセスは,過去に使用されていた尺度の問題点の分析で2年間。そこから尺度作成まで約2年間,さらに改良や,尺度の特性などを検討を重ねながら完成まで,おおよそ10年の月日が流れました。その結果,ようやく学会誌や書籍などでも,私の尺度が使用されたり,紹介されるようになりました(それでも私が作成した尺度に対して批判を受けることはあります)。まぁ,私のようにダラダラ作成している者は少ないと思いますが,学会誌に掲載されるようなものは,通常,卒論から考えると2年以上はかかっているでしょうね。

確かに,現在ではパソコン版の優れたソフトが開発され,また無料版ではRなどのソフトがあり,尺度開発のスピードは格段に速くなっています。その結果,毎年,数多く新しい尺度が開発されるようになりました。しかし,量産化される尺度の一方で,結局,ご本人しか使用しない「残念な物」として終わっているのが,恐らく8割~9割り程度を占めるように思います。

idgさんは,まだ学部生です。信頼性の高い尺度の開発がもちろん望まれますが,失敗もどんどんしていいんです。その際,どこが問題であったかさえ明らかにしておけば,後の心理学徒に役立つこともあるでしょう。卒論レベルでは,それで十分です。

次に,尺度の作成方法です。

(1)関連すると思われる項目をできるだけ集める。既存の項目を使用するのもいいでしょう。ご自身が作成したり,あるいは,予備調査としてレジャーで満足できる要因等を自由記述で集めたものを参考にして項目を作成しても構いません。
(2)作成した尺度を用いてアンケート調査を実施。できるだけ多く。卒論程度であれば理想は200人程度ですが,100人以上いれば,なんとかなるでしょう。
(3)尺度の信頼性の確認。尺度が一因子構造と想定している場合は,ここで信頼性の確認。信頼性の低い尺度は,ここで予め削除しておく。複数因子を想定している場合は,(4)へ
(4)概念が明確であれば,主成分分析(基本は因子を回転させない),探索的であれば因子分析(主因子法:直交でも斜交でも,安定する因子数を確認)。同時に,尺度項目の中で,信頼性が低く,削除した方が望ましいものは削除する。SPSSやR,あるいはamosを利用すれば,作業は簡単です。
(5)主成分分析→ 主成分分析,あるいは因子分析→因子分析
(6)尺度の妥当性の検証のため,関連すると思われる尺度との相関等の分析

こんなところでしょう。詳しくは,数多く,尺度作成に関する書籍や,心理統計に関する書籍の中で紹介されているはずです。しっかり読み込んで,卒論に備えて下さい。

> 今まで、心理測定尺度集に記載されている尺度しか使用した事がないため、
> どう尺度を作成すればいいのか検討もつきません;
既にBacksさんもご指摘されるように,そのような状態では尺度作成は難しいでしょうね。尺度作成の過程は試行錯誤の連続です。また作成する尺度の概念について,ご自身が明確なビジョンを持つ必要があるでしょう。

>卒業論文を作成しようと考えているので、作った尺度の信頼性が低く
>使い物にならなかったらと、不安でしかたありません。
いきなり,信頼性や妥当性の高い尺度なんて作...続きを読む

Qカイ2乗検定って何??;;

タイトルのとおりですが…大学で統計の基礎な授業を一般教養で受けています。だけど知らない&説明のない言葉がいっぱぃで、全くついていけません(>_<))
「人が一番選ばなさそうな数字」を何度か投票した結果があって、その数字は無作為に選ばれてるかどうか、有意水準1%としてカイ2乗検定をして判断する、という問題があるのですが、カイ2乗検定自体、授業でちらっと言葉は使ったものの、計算の仕方、使い方の説明等はなく、まったく手がつかずにいます;;ネットでも調べてみましたが、どう使っていいのかまでは分かりませんでした。
知識の無い私でもわかるようなものがあれば教えて下さいっっ!お願いします。

Aベストアンサー

こんにちは.χ2(カイ二乗)検定を厳密に理解するには,数学的素養を持っている状態できっちりと統計学を学習する必要があるのですが,統計データを解析するための手段として統計学を「使う」のであれば,多少の原理を知っておけばよいでしょう.
以下初学者向けにかなり乱暴な説明をしています.正確な理解をしたければ,後で統計学の教科書などで独学して下さい.

χ2検定とは,χ2分布という確率分布を使ったデータ解析法と考えてもらう……のが一番なのですが,多分χ2分布って何? と思われるでしょう.χ2分布とは,二乗値に関する確率分布と考えることができるのですが,この辺もさらりと流して下さい.

例を使って説明します.今,道行く人にA,B,C,Dの四枚のカードの中から好きなもの一枚を選んでもらうとしましょう(ただし,選んでもらうだけで,あげるわけではありません.単にどのカードを選択仕方の情報を得るだけです).一人一枚だけの条件で,160人にカードを選んでもらいました.
さて,ここで考えてみて下さい.4枚のカードには大きな違いはなく,どれを選んでもかまわない.でたらめに選ぶとなれば,どのカードも1/4で,同じ確率で,選ばれるはずですよね? ならば,160人データならば,Aは何枚ほど選ばれる「はず」でしょうか? 同様に,B,C,Dは何枚選ばれる「はず」でしょうか?
……当然,A=B=C=D=40枚の「はず」ですよね? この40枚という数値はでたらめに(無作為に)選ばれたとしたらどんな数値になるかの【理論値】を意味します.

さて,上記はあくまでも理論値であり,実際のデータは異なる可能性があります.というよりはむしろ違っているのがふつうでしょう.そのような実際に観測された数値を【観測値】と呼びます.
仮に理論値と観測値が以下のようになったとします.

        A    B    C    D
(1)観測値   72   23   16   49
(2)理論値   40   40   40   40

当然のように観測値と理論値にズレが生じています.しかし現実と理論が異なるのはある意味当然なのですからぴったり一致することなどありえません.そこで,「ある程度一致しているか(ズレは許容範囲か)」を問題にすることになります.しかし,「ある程度」といわれても一体どのぐらいであれば「ある程度」と言えるのでしょうか? なかなか判断が難しいではないですか?
確かに判断が難しいです.そこで,この判断のために統計学の力を借りて判断するわけで,更に言えばこのような目的(理論値と観測値のズレが許容範囲かどうか)を検討するときに使われるデータ解析法がχ2検定なのです.

        A    B    C    D
(1)観測値   72   23   16   49
(2)理論値   40   40   40   40
(3)ズレ    +32   -17   -14   + 9
(4)ズレ二乗 1024   289   196   81
(5)(4)÷(2) 25.6  7.225  4.9  2.025

 χ2=25.6+7.225+4.9+2.025=49.25

計算過程をさらりと書いていますが,早い話が観測値と理論値のズレの大きさはいくらになるのか,を求めることになります.最終的には「49.25」というズレ値が算出されました.

さて,この「49.25」というズレ値が許容範囲かどうかの判定をするのですが,ここで,χ2分布という確率分布を使うことになります.詳細は統計学教科書を参考してもらうとして,χ2分布を使うと,○○というズレ値が(ある条件では)どのぐらい珍しいことなのか,という「珍しさの確率」を教えてくれます.
かりに「有意水準1%=1%よりも小さい確率で発生することはすごく珍しいと考える(許容範囲と考えられない)」とすれば,「珍しさ確率」が1%以内であれば「許容範囲ではない」と判断します.

以上,長々と書きました.今までの説明を読めばわかるように,χ2検定とはある理論値を想定した時,実際の観測値がその理論値とほぼ一致しているかどうかを調べるための統計解析法のことです.

χ2検定では,理論値をどのように設定するかは分析者の自由です.その設定の仕方で,χ2検定は「適合度の検定」や「独立性の検定」など異なる名称が付与されますが,本質は同じなのです.

質問者さんの場合は

> 「人が一番選ばなさそうな数字」を何度か投票した結果があって、その数字は無作為に選ばれてるかどうか、

これを理論値としてうまく設定することが鍵となるでしょう.

こんにちは.χ2(カイ二乗)検定を厳密に理解するには,数学的素養を持っている状態できっちりと統計学を学習する必要があるのですが,統計データを解析するための手段として統計学を「使う」のであれば,多少の原理を知っておけばよいでしょう.
以下初学者向けにかなり乱暴な説明をしています.正確な理解をしたければ,後で統計学の教科書などで独学して下さい.

χ2検定とは,χ2分布という確率分布を使ったデータ解析法と考えてもらう……のが一番なのですが,多分χ2分布って何? と思われるでしょう.χ2分布...続きを読む

Q統計学的に信頼できるサンプル数って?

統計の「と」の字も理解していない者ですが、
よく「統計学的に信頼できるサンプル数」っていいますよね。

あれって「この統計を調べたいときはこれぐらいのサンプル数があれば信頼できる」という決まりがあるものなのでしょうか?
また、その標本数はどのように算定され、どのような評価基準をもって客観的に信頼できると判断できるのでしょうか?
たとえば、99人の専門家が信頼できると言い、1人がまだこの数では信頼できないと言った場合は信頼できるサンプル数と言えるのでしょうか?

わかりやすく教えていただけると幸いです。

Aベストアンサー

> この統計を調べたいときはこれぐらいのサンプル数があれば信頼できる・・・
 調べたいどの集団でも、ある一定数以上なら信頼できるというような決まりはありません。
 何かサンプルを集め、それをなんかの傾向があるかどうかという仮説を検証するために統計学的検定を行って、仮設が否定されるかされないかを調べる中で、どの検定方法を使うかで、最低限必要なサンプル数というのはあります。また、集めたサンプルを何か基準とすべき別のサンプルと比べる検定して、基準のサンプルと統計上差を出すに必要なサンプル数は、比べる検定手法により計算できるものもあります。
 最低限必要なサンプル数ということでは、例えば、ある集団から、ある条件で抽出したサンプルと、条件付けをしないで抽出したサンプル(比べるための基準となるサンプル)を比較するときに、そのサンプルの分布が正規分布(正規分布解説:身長を5cmきざみでグループ分けし、低いグループから順に並べたときに、日本人男子の身長なら170cm前後のグループの人数が最も多く、それよりも高い人のグループと低い人のグループの人数は、170cmのグループから離れるほど人数が減ってくるような集団の分布様式)でない分布形態で、しかし分布の形は双方とも同じような場合「Wilcoxon符号順位検定」という検定手法で検定することができますが、この検定手法は、サンプルデータに同じ値を含まずに最低6つのサンプル数が必要になります。それ以下では、いくらデータに差があるように見えても検定で差を検出できません。
 また、統計上差を出すのに必要なサンプル数の例では、A国とB国のそれぞれの成人男子の身長サンプルがともに正規分布、または正規分布と仮定した場合に「t検定」という検定手法で検定することができますが、このときにはその分布を差がないのにあると間違える確率と、差があるのにないと間違える確率の許容値を自分で決めた上で、そのサンプルの分布の値のばらつき具合から、計算して求めることができます。ただし、その計算は、現実に集めたそれぞれのサンプル間で生じた平均値の差や分布のばらつき具合(分散値)、どのくらいの程度で判定を間違える可能性がどこまで許されるかなどの条件から、サンプル間で差があると認められるために必要なサンプル数ですから、まったく同じデータを集めた場合でない限り、計算上算出された(差を出すために)必要なサンプル数だけサンプルデータを集めれば、差があると判定されます(すなわち、サンプルを無制限に集めることができれば、だいたい差が出るという判定となる)。よって、集めるサンプルの種類により、計算上出された(差を出すために)必要なサンプル数が現実的に妥当なものか、そうでないのかを、最終的には人間が判断することになります。

 具体的に例示してみましょう。
 ある集団からランダムに集めたデータが15,12,18,12,22,13,21,12,17,15,19、もう一方のデータが22,21,25,24,24,18,18,26,21,27,25としましょう。一見すると後者のほうが値が大きく、前者と差があるように見えます。そこで、差を検定するために、t検定を行います。結果として計算上差があり、前者と後者は計算上差がないのにあると間違えて判断する可能性の許容値(有意確率)何%の確率で差があるといえます。常識的に考えても、これだけのサンプル数で差があると計算されたのだから、差があると判断しても差し支えないだろうと判断できます。
 ちなみにこの場合の差が出るための必要サンプル数は、有意確率5%、検出力0.8とした場合に5.7299、つまりそれぞれの集団で6つ以上サンプルを集めれば、差を出せるのです。一方、サンプルが、15,12,18,12,21,20,21,25,24,19の集団と、22,21125,24,24,15,12,18,12,22の集団ではどうでしょう。有意確率5%で差があるとはいえない結果になります。この場合に、このサンプルの分布様式で拾い出して差を出すために必要なサンプル数は551.33となり、552個もサンプルを抽出しないと差が出ないことになります。この計算上の必要サンプル数がこのくらい調査しないといけないものならば、必要サンプル数以上のサンプルを集めて調べなければなりませんし、これだけの数を集める必要がない、もしくは集めることが困難な場合は差があるとはいえないという判断をすることになるかと思います。

 一方、支持率調査や視聴率調査などの場合、比べるべき基準の対象がありません。その場合は、サンプル数が少ないレベルで予備調査を行い、さらにもう少しサンプル数を増やして予備調査を行いを何回か繰り返し、それぞれの調査でサンプルの分布形やその他検討するべき指数を計算し、これ以上集計をとってもデータのばらつきや変化が許容範囲(小数点何桁レベルの誤差)に納まるようなサンプル数を算出していると考えます。テレビ視聴率調査は関東では300件のサンプル数程度と聞いていますが、調査会社ではサンプルのとり方がなるべく関東在住の家庭構成と年齢層、性別などの割合が同じになるように、また、サンプルをとる地域の人口分布が同じ割合になるようにサンプル抽出条件を整えた上で、ランダムに抽出しているため、数千万人いる関東の本当の視聴率を割合反映して出しているそうです。これはすでに必要サンプル数の割り出し方がノウハウとして知られていますが、未知の調査項目では必要サンプル数を導き出すためには試行錯誤で適切と判断できる数をひたすら調査するしかないかと思います。

> どのような評価基準をもって客観的に信頼できると判断・・・
 例えば、工場で作られるネジの直径などは、まったくばらつきなくぴったり想定した直径のネジを作ることはきわめて困難です。多少の大きさのばらつきが生じてしまいます。1mm違っても規格外品となります。工場では企画外品をなるべく出さないように、統計を取って、ネジの直径のばらつき具合を調べ、製造工程をチェックして、不良品の出る確率を下げようとします。しかし、製品をすべて調べるわけにはいきません。そこで、調べるのに最低限必要なサンプル数を調査と計算を重ねてチェックしていきます。
 一方、農場で生産されたネギの直径は、1mmくらいの差ならほぼ同じロットとして扱われます。また、農産物は年や品種の違いにより生育に差が出やすく、そもそも規格はネジに比べて相当ばらつき具合の許容範囲が広くなっています。ネジに対してネギのような検査を行っていたのでは信頼性が損なわれます。
 そもそも、統計学的検定は客観的判断基準の一指針ではあっても絶対的な評価になりません。あくまでも最終的に判断するのは人間であって、それも、サンプルの質や検証する精度によって、必要サンプルは変わるのです。

 あと、お礼の欄にあった専門家:統計学者とありましたが、統計学者が指摘できるのはあくまでもそのサンプルに対して適切な検定を使って正しい計算を行ったかだけで、たとえ適切な検定手法で導き出された結果であっても、それが妥当か否か判断することは難しいと思います。そのサンプルが、何を示し、何を解き明かし、何に利用されるかで信頼度は変化するからです。
 ただ、経験則上指標的なものはあります。正規分布を示すサンプルなら、20~30のサンプル数があれば検定上差し支えない(それ以下でも問題ない場合もある)とか、正規分布でないサンプルは最低6~8のサンプル数が必要とか、厳密さを要求される調査であれば50くらいのサンプル数が必要であろうとかです。でも、あくまでも指標です。

> この統計を調べたいときはこれぐらいのサンプル数があれば信頼できる・・・
 調べたいどの集団でも、ある一定数以上なら信頼できるというような決まりはありません。
 何かサンプルを集め、それをなんかの傾向があるかどうかという仮説を検証するために統計学的検定を行って、仮設が否定されるかされないかを調べる中で、どの検定方法を使うかで、最低限必要なサンプル数というのはあります。また、集めたサンプルを何か基準とすべき別のサンプルと比べる検定して、基準のサンプルと統計上差を出すに必要な...続きを読む

Q多変量解析の主成分分析と因子分析の違いについて教えてください.

多変量解析の主成分分析と因子分析の違いについて教えてください.どちらもほとんど同じ気がするのですがどのようにちがうのでしょうか?よろしくお願いいたします.

Aベストアンサー

 ご質問にある通り、因子分析は「多変量解析」の一分野です。因子分析の手法の一種に主成分分析(principal component analysis)があり、主因子法(principal factor method)とも呼びます。

 因子分析に共通しているのは、一つのサンプルから多数の変量を測定する、そういうデータをいっぱい集めて、相関係数という考え方を基本にして解析を行う。その際に、ある変量の変動が「他の変量の線形結合(一次式で表される関係)として表せるような系統的変動と、ランダムな変動とから成っている」という仮定を置く。そして共分散行列(もしくは相関行列)を作ってこれを線形変換する。
データの性格や分析の目的によって、手法を使い分けます。
主成分分析では、どの変量とも高い相関を持つ因子(変量の一次式で表される指標)を抽出するという考え方。
同じ因子分析でも、例えばバリマックス法(varimax method)は、変量のうちの幾つかと高い相関を持つ因子を探す。つまり変量を直接、幾つかのグループに分けるという考え方。従って、出てくる因子は主成分分析とは異なります。

 実際の所は、仰る通り、主成分分析だけでもほぼ事足りるでしょう。なぜなら実際のデータを使うと、意味のある直交成分(因子)が経験上高々4個程度得られ、従って3ないし4次元空間に変量を散布して表すことができる。ゆえにこれを図に描いて、変量の関係を見て取ったり、因子に名前を付ける(解釈を宛てる)ことは比較的容易だからです。
 何でせいぜい4個なのか。もともと「線形関係」という、大変荒っぽい仮定に基づいている。またデータの取り方も、直接物理的な量を測るというよりも、勝手に決めた基準で測った得点などを使う事が多い。例えば「テストの成績が何かの能力に正比例する」と仮定するのは乱暴な話。だからあまり精密な分析にはならないんでしょう。いっぱいあるデータにどういう関係が潜んでいるか見当を付ける道具、と捉えるのが宜しいかと思われます。(どんな基準を作ってどう分析するか、は「多次元尺度構成法」とか「数量化理論」などと呼ばれる分野ですね。)多変量の関係を理論的モデルで記述出来ていて、その予想に基づいてきちんと測れる量を相手にし、あるいは莫大なサンプル数で測定を行う場合には、理論に含まれるパラメータの最尤値を決めたり、理論的予想と実測との間の統計的検定を行うという事が問題であって、因子分析には出番がありません。
 だから極端な言い方をすれば、因子分析は「わけの分からん、或いは品質の悪いデータを相手にする道具。」

 因子分析ほどあらっぽくはなく、しかしモデルはいい加減、という中間的な手法もあります。たとえば線形因果ネットワーク(causal network)では、直感なり観察なり部分的なデータ分析なりに基づいて、複数の変量の間に線形関係を仮定してモデル化します。すると、「直接に線形関係で結ばれない変量同士の関係」は一般に整数次の多項式で表されるようになります。この文脈から言えば、階層型ニューラルネットワーク(neural network)も、主観的にモデルを与えずに、データから自発的にモデルを構成させようというもので、変量の線形結合にいい加減な非線形変換を施した物を出力とする、一つの多変量解析法とも見なせます。

話がだいぶ脱線したようです。

 ご質問にある通り、因子分析は「多変量解析」の一分野です。因子分析の手法の一種に主成分分析(principal component analysis)があり、主因子法(principal factor method)とも呼びます。

 因子分析に共通しているのは、一つのサンプルから多数の変量を測定する、そういうデータをいっぱい集めて、相関係数という考え方を基本にして解析を行う。その際に、ある変量の変動が「他の変量の線形結合(一次式で表される関係)として表せるような系統的変動と、ランダムな変動とから成っている」という仮定を置く...続きを読む

Qエクセル STDEVとSTDEVPの違い

エクセルの統計関数で標準偏差を求める時、STDEVとSTDEVPがあります。両者の違いが良くわかりません。
宜しかったら、恐縮ですが、以下の具体例で、『噛み砕いて』教えて下さい。
(例)
セルA1~A13に1~13の数字を入力、平均値=7、STDEVでは3.89444、STDEVPでは3.741657となります。
また、平均値7と各数字の差を取り、それを2乗し、総和を取る(182)、これをデータの個数13で割る(14)、この平方根を取ると3.741657となります。
では、STDEVとSTDEVPの違いは何なのでしょうか?統計のことは疎く、お手数ですが、サルにもわかるようご教授頂きたく、お願い致します。

Aベストアンサー

データが母集団そのものからとったか、標本データかで違います。また母集団そのものだったとしても(例えばクラス全員というような)、その背景にさらならる母集団(例えば学年全体)を想定して比較するような時もありますので、その場合は標本となります。
で標本データの時はSTDEVを使って、母集団の時はSTDEVPをつかうことになります。
公式の違いは分母がn-1(STDEV)かn(STDEVP)かの違いしかありません。まぁ感覚的に理解するなら、分母がn-1になるということはそれだけ結果が大きくなるわけで、つまりそれだけのりしろを多くもって推測に当たるというようなことになります。
AとBの違いがあるかないかという推測をする時、通常は標本同士の検証になるわけですので、偏差を余裕をもってわざとちょっと大きめに見るということで、それだけ確証の度合いを上げるというわけです。


このQ&Aを見た人がよく見るQ&A

人気Q&Aランキング

おすすめ情報