×
[PR]上記の広告は3ヶ月以上新規記事投稿のないブログに表示されています。新しい記事を書く事で広告が消えます。
# 参考は金先生のページ。感謝http://mjin.doshisha.ac.jp/R/
# 足立浩平 (2006). 多変量データ解析法――心理・教育・社会系のための入門―― ナカニシヤ出版の第2章から。感謝
mat <- matrix(c(3.2,3.4,3,3.2,4.2,4,4,3.7,3.6,3.6,3.7,3.4,3.2,3.2,2.7,3.5,3.2,3.2,4.6,4,4.8,4.6,4.3,3.6,3.2,3.7,3.2,3.8,3.7,3.4,3.5,3.5,4.5,3.8,3.9,4.1,3.7,3.5,3.7,3.5,3.6,3.8,2.8,2.5,2.2,2.6,3.1,3.4,3.5,3.4,2.9,3.5,3.9,3.1,2.9,2.8,2.6,2.2,2.1,2.5,3,3.2,3.8,4,3.5,4.2,4.7,2.7,2.2,2.3,2.6,2.6,2.2,2.6,3.2,3.1,3.7,4.1,3.6,4.2,4.7,2.4,2.5,2.4,2.2,3.2,3.3,3.6,2.8,2.4,3.2,4.3,4.7,3.5,4.9,2.3,3.3,3.9,1.4,2.1,3.4,2.9,3.3,1.5,2.1,3.4,4.2,3.5,3.5,1.8,3.3,2.5,1.7,3.6,4.1,4.2,4.1,1.6,2.6,3.5,4.1,3.7,4.2,2.3,3.4,4.7,3.3,4.1,3.4,3.2,4.5,3.7,3.7,4.2,3.9,3.5,3.7,3.3,2.8,3.9,3.8,4.7,1.3,1.5,2.3,3.9,3.6,4.4,3.7,2.5,2.8,2.9,1.8,2.3,1.8,4.2,4.3,4,4.9,3,4.5,4,5,3.5,4.1,3.3,4.3,4.3),
nr=14,
dimnames=list(c("僧侶", "銀行員", "漫画家", "デザイナー", "保母", "大学教授", "医師",
"警察官", "新聞記者", "船乗り", "プロスポーツ選手", "作家", "俳優", "スチュワーデス"),
c("立派な", "役立つ", "よい", "大きい", "力がある", "強い", "速い", "騒がしい", "若い", "誠実な",
"かたい", "忙しい"))
)
distdat <- dist(mat) # ユークリッド距離の算出
res.w <- hclust(distdat, method="ward") # ウォード法による分析
res.a <- hclust(distdat, method="average") # ウォード法による分析
# method引数のメモ
# signle: 最近隣法
# complete: 最遠隣法
# average: 群平均法
# centroid: 重心法
# median: メディアン法
# ward: ウォード法
# mcquitty: McQuitty法
summary(res.w) # リストオブジェクトの要素を確認するのみ
plot(res.w) # ウォード法樹形図の描画 図2.6A
plot(res.a) # 群平均法樹形図の描画 図2.6B
# kmeans法による非階層的クラスター分析はkmeans関数を用いる。そのうちやろう
# 足立浩平 (2006). 多変量データ解析法――心理・教育・社会系のための入門―― ナカニシヤ出版の第2章から。感謝
mat <- matrix(c(3.2,3.4,3,3.2,4.2,4,4,3.7,3.6,3.6,3.7,3.4,3.2,3.2,2.7,3.5,3.2,3.2,4.6,4,4.8,4.6,4.3,3.6,3.2,3.7,3.2,3.8,3.7,3.4,3.5,3.5,4.5,3.8,3.9,4.1,3.7,3.5,3.7,3.5,3.6,3.8,2.8,2.5,2.2,2.6,3.1,3.4,3.5,3.4,2.9,3.5,3.9,3.1,2.9,2.8,2.6,2.2,2.1,2.5,3,3.2,3.8,4,3.5,4.2,4.7,2.7,2.2,2.3,2.6,2.6,2.2,2.6,3.2,3.1,3.7,4.1,3.6,4.2,4.7,2.4,2.5,2.4,2.2,3.2,3.3,3.6,2.8,2.4,3.2,4.3,4.7,3.5,4.9,2.3,3.3,3.9,1.4,2.1,3.4,2.9,3.3,1.5,2.1,3.4,4.2,3.5,3.5,1.8,3.3,2.5,1.7,3.6,4.1,4.2,4.1,1.6,2.6,3.5,4.1,3.7,4.2,2.3,3.4,4.7,3.3,4.1,3.4,3.2,4.5,3.7,3.7,4.2,3.9,3.5,3.7,3.3,2.8,3.9,3.8,4.7,1.3,1.5,2.3,3.9,3.6,4.4,3.7,2.5,2.8,2.9,1.8,2.3,1.8,4.2,4.3,4,4.9,3,4.5,4,5,3.5,4.1,3.3,4.3,4.3),
nr=14,
dimnames=list(c("僧侶", "銀行員", "漫画家", "デザイナー", "保母", "大学教授", "医師",
"警察官", "新聞記者", "船乗り", "プロスポーツ選手", "作家", "俳優", "スチュワーデス"),
c("立派な", "役立つ", "よい", "大きい", "力がある", "強い", "速い", "騒がしい", "若い", "誠実な",
"かたい", "忙しい"))
)
distdat <- dist(mat) # ユークリッド距離の算出
res.w <- hclust(distdat, method="ward") # ウォード法による分析
res.a <- hclust(distdat, method="average") # ウォード法による分析
# method引数のメモ
# signle: 最近隣法
# complete: 最遠隣法
# average: 群平均法
# centroid: 重心法
# median: メディアン法
# ward: ウォード法
# mcquitty: McQuitty法
summary(res.w) # リストオブジェクトの要素を確認するのみ
plot(res.w) # ウォード法樹形図の描画 図2.6A
plot(res.a) # 群平均法樹形図の描画 図2.6B
# kmeans法による非階層的クラスター分析はkmeans関数を用いる。そのうちやろう
PR
# 2件法の01データの場合はKuder-Richardsonの公式というのを使うらしい。全く知らなかった。知らないことが多いものである。日本語でぐぐると99件しかヒットしない。皆知らないのだろう。
# 最近4件法や5件法は順序尺度として扱うべしとの意見があるが、信頼性を出すときはどうするんだろう。クロンバックでいいのだろうか
# このサイトに少し解説。以下適当な訳と覚書
# 1. 多くの研究でそうしているように、クロンバックのアルファを使う。その仮定が満たされている限り
# 2. ポリコリック相関行列からクロンバックのアルファ的なものを計算する (B D Zumbo, A M Gadermann, and C Zeisser. Ordinal versions of coefficients alpha and theta for likert rating scales. Journal of Modern Applied Statistical Methods, 6: 21-29, 2007.)
# 3. 01データならKuder-Richardsonの公式を使う
# 4. 他にもいろんな信頼性指標がある (R E Zinbarg, W Revelle, I Yovel, and W Li. Cronbach’sα , Revelle’s β , and McDonald’s ωh : Their relations with each other and two alternative conceptualizations of reliability. Psychometrika, 70(1): 123-133, 2005.)
# A good review is Bruce Thompson. Score Reliability. Contemporary Thinking on Reliability issues. Sage Publications, 2003. だそうだ。まあとりあえずはクロンバックを使おう。気が向いたらRevelle先生のやつを読もう
# 関連記事:Rで級内相関
# Kuder-Richardsonの公式
# 以下参考URL。感謝
# http://www.eflclub.com/elvin/publications/2003/itemanalysis.html
# http://www.gifted.uconn.edu/siegle/research/Instrument%20Reliability%20and%20Validity/Reliability.htm
# http://www.jstage.jst.go.jp/article/rika/17/3/17_181/_article/-char/ja
dat <- data.frame(
q001 = c(1,1,0,0,1,0,0,0,0),
q002 = c(1,1,0,1,1,1,0,0,0),
q003 = c(1,1,1,0,1,0,0,0,0),
q004 = c(1,1,1,1,1,0,0,0,0),
q005 = c(1,1,1,1,1,1,0,1,0),
q006 = c(1,0,1,1,1,0,0,1,0),
q007 = c(1,1,1,0,0,0,1,0,0),
q008 = c(1,1,1,1,0,1,1,0,0),
q009 = c(1,1,1,1,0,0,0,0,0),
q010 = c(1,1,0,0,0,0,0,0,0)
)
dat
(ni <- ncol(dat)) # 項目数
(ns <- nrow(dat)) # 参加者数
(mt <- mean(rowSums(dat))) # 合計得点の平均点
(sdt <- sd(rowSums(dat))) # 合計得点の標準偏差
(sds <- sqrt(var(rowSums(dat))*((ns-1)/ns))) # 合計得点の標本標準偏差
pc <- colSums(dat)/ns # 各項目ごとの正答率 (1の個数/全参加者数)
pw <- 1-pc # 各項目ごとの誤答率 (0の個数/全参加者数)
pcpw <- pc*pw
spcpw <- sum(pcpw)
# Kuder-Richardson 20
(ni/(ni-1)) * (((sds*sds)-spcpw)/(sdt*sdt)) # 不偏標準偏差を使ったとき
(ni/(ni-1)) * (((sds*sds)-spcpw)/(sds*sds)) # 標本標準偏差を使ったとき
# Kuder-Richardson 21
# おそらく、ローデータがないときに使う簡易版
ni/(ni-1) * (1-(mt-mt*mt/ni)/(sdt*sdt)) # 不偏標準偏差を使ったとき
ni/(ni-1) * (1-(mt-mt*mt/ni)/(sds*sds)) # 標本標準偏差を使ったとき
# よくわからんけど標本標準偏差を使うのかな
# おまけ。カッパ係数
# 参考:http://www.mizumot.com/stats/kappa.htm
a <- c(2,1,3,2,2,3,2,1,3,3,3,3,2,1,2,3,1,3,1,2)
b <- c(2,1,3,2,3,3,3,1,3,3,3,3,2,1,2,3,2,3,1,2)
x <- table(a,b) # データフレームではなくtableで集計表にする
x
library(psych)
print.digits(cohen.kappa(x), digits=5)
# 普通はunweighted kappaのestimateを見る
# psychパッケージ以外。まあpsychパッケージが一番いいけど
library(vcd)
Kappa(x)
# 最近4件法や5件法は順序尺度として扱うべしとの意見があるが、信頼性を出すときはどうするんだろう。クロンバックでいいのだろうか
# このサイトに少し解説。以下適当な訳と覚書
# 1. 多くの研究でそうしているように、クロンバックのアルファを使う。その仮定が満たされている限り
# 2. ポリコリック相関行列からクロンバックのアルファ的なものを計算する (B D Zumbo, A M Gadermann, and C Zeisser. Ordinal versions of coefficients alpha and theta for likert rating scales. Journal of Modern Applied Statistical Methods, 6: 21-29, 2007.)
# 3. 01データならKuder-Richardsonの公式を使う
# 4. 他にもいろんな信頼性指標がある (R E Zinbarg, W Revelle, I Yovel, and W Li. Cronbach’s
# A good review is Bruce Thompson. Score Reliability. Contemporary Thinking on Reliability issues. Sage Publications, 2003. だそうだ。まあとりあえずはクロンバックを使おう。気が向いたらRevelle先生のやつを読もう
# 関連記事:Rで級内相関
# Kuder-Richardsonの公式
# 以下参考URL。感謝
# http://www.eflclub.com/elvin/publications/2003/itemanalysis.html
# http://www.gifted.uconn.edu/siegle/research/Instrument%20Reliability%20and%20Validity/Reliability.htm
# http://www.jstage.jst.go.jp/article/rika/17/3/17_181/_article/-char/ja
dat <- data.frame(
q001 = c(1,1,0,0,1,0,0,0,0),
q002 = c(1,1,0,1,1,1,0,0,0),
q003 = c(1,1,1,0,1,0,0,0,0),
q004 = c(1,1,1,1,1,0,0,0,0),
q005 = c(1,1,1,1,1,1,0,1,0),
q006 = c(1,0,1,1,1,0,0,1,0),
q007 = c(1,1,1,0,0,0,1,0,0),
q008 = c(1,1,1,1,0,1,1,0,0),
q009 = c(1,1,1,1,0,0,0,0,0),
q010 = c(1,1,0,0,0,0,0,0,0)
)
dat
(ni <- ncol(dat)) # 項目数
(ns <- nrow(dat)) # 参加者数
(mt <- mean(rowSums(dat))) # 合計得点の平均点
(sdt <- sd(rowSums(dat))) # 合計得点の標準偏差
(sds <- sqrt(var(rowSums(dat))*((ns-1)/ns))) # 合計得点の標本標準偏差
pc <- colSums(dat)/ns # 各項目ごとの正答率 (1の個数/全参加者数)
pw <- 1-pc # 各項目ごとの誤答率 (0の個数/全参加者数)
pcpw <- pc*pw
spcpw <- sum(pcpw)
# Kuder-Richardson 20
(ni/(ni-1)) * (((sds*sds)-spcpw)/(sdt*sdt)) # 不偏標準偏差を使ったとき
(ni/(ni-1)) * (((sds*sds)-spcpw)/(sds*sds)) # 標本標準偏差を使ったとき
# Kuder-Richardson 21
# おそらく、ローデータがないときに使う簡易版
ni/(ni-1) * (1-(mt-mt*mt/ni)/(sdt*sdt)) # 不偏標準偏差を使ったとき
ni/(ni-1) * (1-(mt-mt*mt/ni)/(sds*sds)) # 標本標準偏差を使ったとき
# よくわからんけど標本標準偏差を使うのかな
# おまけ。カッパ係数
# 参考:http://www.mizumot.com/stats/kappa.htm
a <- c(2,1,3,2,2,3,2,1,3,3,3,3,2,1,2,3,1,3,1,2)
b <- c(2,1,3,2,3,3,3,1,3,3,3,3,2,1,2,3,2,3,1,2)
x <- table(a,b) # データフレームではなくtableで集計表にする
x
library(psych)
print.digits(cohen.kappa(x), digits=5)
# 普通はunweighted kappaのestimateを見る
# psychパッケージ以外。まあpsychパッケージが一番いいけど
library(vcd)
Kappa(x)
# 青木先生のページに大変有用なものがありました。感謝。自分用に表2をコピペ
# http://aoki2.si.gunma-u.ac.jp/lecture/Kentei/nonpara.html
# 表の編集がうまくいかない
# 他参考
# http://lbm.ab.a.u-tokyo.ac.jp/~omori/kensyu/nonpara.htm より
# 符号検定(sign test)
# Wilcoxon の符号順位和検定(signed rank sum test)
# 連検定(run test)
# Mann-Whitney の U 検定
# 順位和検定(rank-sum test)
# Kolmogorov-Smirnov の 2 標本検定
http://www.med.nagoya-u.ac.jp/spss/files/jissen4.pdf より
# 独立2 標本(パラメトリックはt検定)
## Mann-Whitney U test(マン・ホイットニー検定)
## Wilcoxon- Mann-Whitney test
ウィルコクソンの順位和検定
# 関連2 標本(パラメトリックはpairedt検定)
## Wilcoxon (matched-pairs) signed-ranks test
## Wilcoxon test
## ウィルコクソンの符号付順位和検定
# 独立多標本(パラメトリックは一元配置分散分析)
## Kruskal-Wallis test(クラスカル・ウォリス検定)
# 関連多標本(パラメトリックは二元配置分散分析)
## Friedman test (フリードマン検定)
# http://aoki2.si.gunma-u.ac.jp/lecture/Kentei/nonpara.html
検定目的 | パラメトリック |
ノンパラメトリック | |
名義尺度 | 順序尺度以上 | ||
適合度 | χ2検定 | χ2検定 | |
1標本コルモゴロフ・スミルノフ検定 | |||
独立性 | 相関係数の検定 | χ2検定 | χ2検定 |
フイッシャーの正確確率検定 | フイッシャーの正確確率検定 | ||
比率の差 | χ2検定 | χ2検定 | |
フイッシャーの正確確率検定 | フイッシャーの正確確率検定 | ||
マクネマー検定 | マクネマー検定 | ||
コクランのQ検定 | コクランのQ検定 | ||
母比率 | 二項検定 | 二項検定 | |
対応のない2標本の代表値の差 | 平均値の差のt検定 | マン・ホイットニーのU検定 | |
2標本コルモゴロフ・スミルノフ検定 | |||
ファン・デル・ワーデン検定 | |||
中央値検定 | |||
対応のある2標本の代表値の差 | 平均値の差のt検定 | 符号検定 | |
符号付順位和検定 | |||
対応のないK標本の代表値の差 | 一元配置分散分析 | クラスカル・ウォリス検定 | |
中央値検定 | |||
対応のあるK標本の代表値の差 | 乱塊法 | フリードマンの検定 |
# 他参考
# http://lbm.ab.a.u-tokyo.ac.jp/~omori/kensyu/nonpara.htm より
# 符号検定(sign test)
# Wilcoxon の符号順位和検定(signed rank sum test)
# 連検定(run test)
# Mann-Whitney の U 検定
# 順位和検定(rank-sum test)
# Kolmogorov-Smirnov の 2 標本検定
http://www.med.nagoya-u.ac.jp/spss/files/jissen4.pdf より
# 独立2 標本(パラメトリックはt検定)
## Mann-Whitney U test(マン・ホイットニー検定)
## Wilcoxon- Mann-Whitney test
ウィルコクソンの順位和検定
# 関連2 標本(パラメトリックはpairedt検定)
## Wilcoxon (matched-pairs) signed-ranks test
## Wilcoxon test
## ウィルコクソンの符号付順位和検定
# 独立多標本(パラメトリックは一元配置分散分析)
## Kruskal-Wallis test(クラスカル・ウォリス検定)
# 関連多標本(パラメトリックは二元配置分散分析)
## Friedman test (フリードマン検定)
# 最近はあんまりRをいじれない
# 気になること、勉強する予定をメモしておく
# RjpwikiのトップにDeducerなるものがコメントされていた。全く知らなかった
# 本家: http://ifellows.ucsd.edu/pmwiki/pmwiki.php
# インストールで少々躓いた。本家のインストールマニュアルに従う (http://ifellows.ucsd.edu/pmwiki/pmwiki.php?n=Main.WindowsInstallation) 。
# 1. まずJGRなるものをインストールしておく。http://rforge.net/JGR/files/ からjgr.exeをダウンロードしてダブルクリック。OK連打
# 2. インストールがすんだら、このjgr.exeがJGRを動かすためのランチャーになっているのでダブルクリックする。
# 3. JGR内でDeducerをインストールする。メニューのPackage $ Data -> Package Installerから
# 4. その上でJGR内でlibrary(Deducer) とする
# 5. そもそもJGRの使い方がよく分からない。大体データの読み込みがわからない。組み込みデータセットを使うにはどうするんだろう。
# 6. 説明がMacユーザー向けばかりなので複雑な気持ちになる。 <- 今ココ
# iPlot。マウスでカチカチやりながらRのグラフをいじるパッケージ。かなり便利そうに見える
# http://rosuda.org/iplots/
# 多変量解析。もっと勉強しよう。特にクラスター分析
# ノンパラ。基本から勉強しよう
# カテゴリカルデータの解析。
# 気になること、勉強する予定をメモしておく
# RjpwikiのトップにDeducerなるものがコメントされていた。全く知らなかった
# 本家: http://ifellows.ucsd.edu/pmwiki/pmwiki.php
# インストールで少々躓いた。本家のインストールマニュアルに従う (http://ifellows.ucsd.edu/pmwiki/pmwiki.php?n=Main.WindowsInstallation) 。
# 1. まずJGRなるものをインストールしておく。http://rforge.net/JGR/files/ からjgr.exeをダウンロードしてダブルクリック。OK連打
# 2. インストールがすんだら、このjgr.exeがJGRを動かすためのランチャーになっているのでダブルクリックする。
# 3. JGR内でDeducerをインストールする。メニューのPackage $ Data -> Package Installerから
# 4. その上でJGR内でlibrary(Deducer) とする
# 5. そもそもJGRの使い方がよく分からない。大体データの読み込みがわからない。組み込みデータセットを使うにはどうするんだろう。
# 6. 説明がMacユーザー向けばかりなので複雑な気持ちになる。 <- 今ココ
# iPlot。マウスでカチカチやりながらRのグラフをいじるパッケージ。かなり便利そうに見える
# http://rosuda.org/iplots/
# 多変量解析。もっと勉強しよう。特にクラスター分析
# ノンパラ。基本から勉強しよう
# カテゴリカルデータの解析。