SSブログ
ソフトウェア ブログトップ

LaTexの心理学系BibTeXスタイルファイルのメモ [ソフトウェア]

学会誌だとスタイルファイルが用意されているので問題ないのだけれど、博論などで環境を整えるとき用に。
(著者,出版年)のような形式で引用したいときに。
APAスタイルファイルだと日本語の参考文献がうまくでない。英語なら一番楽だけれど。
結局いまのところ、日本語の場合は、奥村先生が作られたbeta_jecon2nonote.bstを使わせていただいている。こちらのページへ。
ただし書籍を参照するとエラーが出る。ググったらここにそのバグ(?)についての記述があった。
結論としてはちゃんとできるので無視していいみたい。

(ちなみに、TeXWikiのページにあるjecon.bstはうまく入手できなかった。)

KH Coderのメモ [ソフトウェア]

KH Coderを久し振りにまた使っています。Mac版を買ったので、古いWindowsPCを立ち上げることなく分析できて快適。

密かにKH Coderを紹介していた記事に追記していたのですが、わかりにくくなってきたので、ここにリンクを張っておきます。

必要な情報だったらKH Coderの掲示板に書けばいいのですが、単なる私のミスなのでメモとしてまとめています。

また、最近やっと外部変数を使い始めました。さらにいろいろ出来る。全然使いこなしてなかったな〜もったいなかった。
種々の分析をしながら、それらの分析の理論的な部分も勉強していて、楽しいです。

なお、追記にも書きましたが、外部変数ファイルの文字コードと改行コードを規定にもの(文字コードはShift-JISとか。あとMac固有じゃない改行。マニュアルに記載があります)にしないと動かないです。本文のコードは忘れず直すのですが、これは失念していました。久し振りだったし。
MacのExcelでCSVファイル作ると、自動的にひっかかります。ケース数が違うから中断する、と言われたら確認されるといいと思います。
また、文書のクラスタ分析→外部変数として保存、のあとに前処理をしようとしたら「前処理データの整合性が失われました」と言われて強制終了になりました。Macを再起動しても直らず。
もしかしたら、クラスタ分析の結果を外部変数として保存した後に、語の取捨選択内容を変更したからなあと思います。しかし、それも元に戻しても強制終了はやまず。なので、語の取捨選択内容を変えたことが原因なのか、前処理を新しくやろうとしたことが原因なのかは不明です。
結局、外部変数として登録されていたクラスタ分析結果を削除したら動きました。
まあ、なんとなく、クラスタ分析はその前に行った前処理後のデータをクラスタリングしてそれを外部変数として持つので、そのあとで再度前処理をすると、ケース数かなにか紐づいてるのがおかしくなるのかなと感じます。

Rの参考書 [ソフトウェア]

わりとフリーのソフトウェアを探してこのブログを見られている方がいらっしゃるので、今回はその関連で私が使ったRの参考書を。
私はRは初心者で、プログラミングもできないので(RubyとFortranを一瞬触って速やかに忘れた)、そういうずぶの初心者の方の役に立てば幸いです。
なお、私は最初はRだけを使っていましたが、今はRStudioを使っています。
RStudioの良い所は外部データの読み込みがわかりやすく、また読み込んだデータや使っているデータセット等々がすぐに確認できるところかなと感じます。他にも諸々使いやすいので、これからRを使われる方にはおすすめです(ただし、日本語が一部弱いという噂はあります。実際にはMacを使っていてExcel等からデータを読み取るときはフォントをUTF-8に直して読み込ませれば特に問題ありません)。

1.『Rによるやさしい統計学』
私が最初に買った本です。
この本をとりあえず最初から実際にRを動かしつつやってみました。
外部データを取り込む9章まで自分でデータを一つ一つ入力しないといけないのは辛いのですが、それを除けばわかりやすく使いやすく勉強になりました。
Rを使われる方は統計処理をされることも多いと思うのですが、統計処理についても基本的なことが説明されています。
(ただし、勿論統計についての基礎的な部分はこの本だけでは足りないと思います。私も勉強不足なので薦めるのに自信がありませんが(Rでも同じだけれど)、たいていいつも『統計学入門』で本当の基礎の部分を確認します。それ以外には、まだ読みかけなのですが、『データ解析のための統計モデリング入門』がお薦めだと思います。どちらも単にp値が高くなるようにすればいい、という表層ですらない考え方を正してくれます)。

2.『Rによるデータサイエンス』
Rは統計ではなくそれ以外の分析も色々できます。もちろんマトラボとかそれに類するもの使った方が簡単かもしれませんが。多次元尺度法、クラスター分析から生存分析、時系列分析、樹木モデルなどなど色々な分析が紹介されています。
また、これらの分析の多くは著者のHPにほとんど本文と同じことが記載されているのでこちらを確認されてもいいかもしれません。
各分析はわりと短く紹介されているので、これだけで分かるかというのはなかなか微妙なところですが、持っておくと便利だと思います。ただ内容はよく自分で検討した方が良いと思います。

3.『Rグラフィックスクックブック』
Rはグラフも書けます。gnuplotの方が良いのかもしれないですが、まあR使ってたらそのまま描きたい気もします。
Rで普通にグラフを描くときはplotってやって書けるのですが、ggplot2っていうパッケージを使った方がずっと高機能なグラフが描けます。ただし、複数のグラフを重ねたりするのはかえって面倒になったりするような気がします。なお、パッケージのダウンロードは難しくないです。というかパッケージをダウンロードしないとほとんどの分析が始まらないです。
そのggplot2を使ったグラフの描き方を丁寧に示している本です。したがって、当然ですが、グラフの描き方以外は書いていません。でもRでグラフを描くなら、そして初心者なら、持っていても良いと思います。

4.『The R Tips』
実はあんまり使っていません(^_^;)
でも、何か検索したいときに便利です。大抵ほとんど十分な情報が載っていないのですが、何を調べれば良いのかわかるのであとはネットで検索できます。なにこれ全然意味がわからないとか、何が悪いかわからないとか、何をすればいいのかわからないとか、ネットに書いてある情報が理解できない、という時に使うと良いと思います。

これ以外に今持っている書籍は『Rで学ぶパターン認識』『RStudioではじめるRプログラミング』です。
どちらも途中までですが、良書だと感じます。パターン認識の方はちょっと粗いかな、なんとなく。これからさらに別の書籍などで勉強が必要かもしれません。
プログラミングの方は簡単なところから着実に進む感じがしています。他に何冊か図書館で時系列分析の書籍などを借りたことがあります。

どの書籍も、まずは図書館や書店で触ってから購入されるのが間違いないかと思います。
もちろん購入せずに全部借りるだけという選択肢もあります。
個人的には、図書館で借りるだけではなく、お金を払って自分のものとして手元に置いておいた方が良い本というものがあると思うので、思想も含めて気に入ったら購入したいなと思います。

ネット上の情報も非常に参考になります。
困っていることは大抵誰かが書いています。適切なワードで検索できれば、何かの情報は出てきます。ただし、それが理解できるとは限らないですが...。本と併せて利用すると便利だと思います。



(追記 2016年5月23日)
KH Coderで対応分析をする際にいくつか参考にした本。

5.
多次元データ解析法 (Rで学ぶデータサイエンス 2)

対応分析の解説を探していて見つけたので、その辺りとほかをざっとしか読んでいませんが、主成分分析、因子分析、多次元尺度法やクラスタリングなど基礎的な分析法が載っていて、それなりに式で説明していていいと思います。対応分析もわりとわかりやすかった(ただし、対応分析だけなら、次の本の方が良さそうかも)。Rのコードも結局(使っていないけど)載っているし。

6.
対応分析入門 原理から応用まで 解説◆Rで検算しながら理解する

対応分析について、比較的最近出た訳書。まだ始めしか読んでいないけれど、計算過程の詳細やその結果でてくるものの意味など丁寧に説明されていて、対応分析で読んだいくつかの本のなかで最も良いと感じました(5はまだいいけど、対応分析、途中の式が省かれていて、いきなり見方が書いてあるものが多くて困った)。

使用している(したい)フリーソフト [ソフトウェア]

研究関連で使用している、もしくは使用したいなと思った便利そうなフリーソフトの情報を貼っておきます。定番も一応。
私は必要のあるところだけ使った初心者で、紹介するのもどうかと思うけれど、何かのお役に立てれば幸いです。参考になる日本語ページもできるだけ貼っておきます。
申し訳ないのですが、私に質問をいただいても信頼性の高い回答ができないため、各参考ページをご覧下さい。
ソフト名・参考ページ名をクリックしていただくとダウンロードや参考ページに飛びます。

[テキストマイニング関連]
1.TinyTextMiner
TTMはテキストマイニングの前処理のためのフリーウェアです(トップページより)。
このソフトでテキストを前処理(自然言語処理)して、Rで統計解析したりWekaでデータマイニングできます。
使用に際して、mecab(形態素相席器)やcabocha(構文解析器)のダウンロードが必要となります。それらのリンクも上記のページにあります。
参考書籍として『人文・社会科学のためのテキストマイニング』があります。
この本はTTMやR、Wekaを使いながら、テキストマイニングの基本を実際にデータ(事例)を使って説明してくれています。テキストマイニングの基礎にも良いと思います。各種ソフト(RやWekaも)のインストール方法も書いてあり、使用するサンプルデータも上記ページにあります。

2.KH Coder
KH Coderはテキストマイニングのフリーソフトで、上記のTTMと形態素解析のソフトとRが合わさった感じです(実際はChasenとMySQLとPerlとRが入っているらしい)。
TTMでは前処理とそれ以降の統計解析を別々のソフトで行う必要がありますが、KH Coderを使えば一つのソフト内でできます。
視覚的に簡単に分析ができるので、とりあえず、楽に、直観的に、いろいろやりたい場合はいいかもしれません。
共起分析・共起ネットワークの作成も簡単にできますので、テキストデータ中の共起をすぐ見たい!とかだといいかも。
チュートリアルを見れば一通りのことはできると思います。マニュアルも丁寧。
しかし、共起分析後の関連語リストなどで出てきていない語があるような気がしなくもない、などちょっと気になることもあるので、分析結果は精査する必要があると思います。

追記(2014.12.20):
関連語リストの件はHPで言及されていました。共起を考えるときに、その語に特有の関連語を提示するようになっているようです(他の語とも頻繁に関連している語は除く)。ですので、プログラムに誤りがあるわけではなく、正しく解釈する必要があるということのようです。
また、2014年12月のアップデートでExcel系のファイルがそのまま読み込めるようになり便利度が増した可能性があります(まだ使ってないのでわからない)。
なお、Macへ自分で導入しようとすると結構面倒らしいのですが、4,000円払うと簡易にできるパッケージが提供されます。これだけの機能でWin版無料っていうのが驚異だと思うので、4,000円は安いかも。ただし、動作は少しゆっくりな感じです。立ち上がりも遅いですが、待っていればちゃんとします。

追記(2015.6.13):
テキストマイニングについて、KH Coderを開発された樋口先生が書籍を出されていました。
社会調査のための計量テキスト分析―内容分析の継承と発展を目指して

ここに目次があります。
(少し前に読んだので記憶が曖昧な部分があって申し訳ないのですが)第一章・二章でテキストマイニングの思想も書かれており、それ以降の章では実際のテキスト分析の研究事例を知ることができます(KH Coderの使い方も同時に学べると思います。後半をしめる部分はフリーのマニュアルとほぼ同じ内容です)。
テキストをどう分析すれば(して)よいのかは、もちろん目的によりますが、テキストマイニングでどこまでいかれるのか、その一端を考えるのに役立つ書籍だと感じました。個人的には好きです。
これを見ながらKH Coderをいじって色々分析したくなります(その限界や思想を忘れては駄目だけれど...これは定量でも定性でもどの分析手法でも同じかと思います)。

追記(2015.7.27)
KH CoderのMac版で、前処理-分析対象ファイルのチェックでは無事できると言われても、実際に前処理を実行すると茶筌のエラーで強制終了することがありました。
私の場合は、対象ファイルのファイル名が(何にも考えて付けなかったので)、「XXX(XX)」みたいに半角括弧が入っていて、これを修正したら直りました。
なんとなく、この場合Macに限ったことではないような気もしますが、Mac版で茶筌のエラーで落ちて使えないという情報が掲示板にあるみたいなので、もし該当される方はとりあえずファイル名を修正してみる、というのも手かもしれません。
もちろん、そもそもテスト用の漱石の『こころ』が動かなかったら別問題だと思います。
んーしかしMac版買って良かった。古いWindowsPCいちいち立ち上げなくていいのですごい快適。

追記(2015.7.28)
KH CoderをMacで使っていて、最初にひっかかるのがShift-JISにして、かつ改行コードをMacでないのにするところ。
今回は本体ファイルはちゃんと用意しても、外部変数用のファイルでひっかかった。
外部変数の読取りエラー(ケース数が違うから中断すると言われる)のもこのエラーの可能性が高いので、文字コードと改行コードを常に確認するといい。


[会話・音声分析関連]
1.ELAN
ダウンロードページではなくて、日本語の参考ページを貼りました。そこからダウンロードページに飛べます。
会話分析研究でよく使われるソフトです。きっと多分。
映像データや音声データを見ながら、注釈(主として発話内容を入れます)をつけていくことができます。
また、つけた注釈データをテキストやExcelデータに書き出すこともできるので、何秒から何秒までこの発話内容があった、というような一覧データを得ることもできます。
私は会話分析ではなくて、動作の映像をこれに入れて、動作内容を注釈データに入れて、それをExcelに落としています。
そうすると、動作が何秒から何秒まで起こっていたか、というデータが取り出せます。まだやっていないけれど、ちゃんとやれば動作パターン分析の元データに使えるはずです。もっと綺麗な方法があるような気がしなくもないですが...。

2.Praat
日本語で解説してくれているページ(Akira Usugi's web site)によると、
「Praatは,アムステルダム大学のPaul Boersma氏とDavid Weenink氏によって開発されたオープンソースのソフトウェアです。音声の音響分析を行うことのできるソフトとして,世界中で広く使われています。」
だそうです。
他に参考になるページとしてこちらがあります。
まだほとんど使っていないので全然わかっていませんが(ごめんなさい。わかったら更新します)、音声データから音声の周波数分析や加工やらそういう音響分析ソフトができるわりと一切合切をフリーでできるみたいです。言語学で使われている???
スクリプトを書いて色々出来るようですが、書かなくてもわりと直観的に使えそうです(さきほどボタンを押していたらたまたま欲しいデータが出来ましたが、あまりに適当にやっていたので、一体どうやったのか一瞬わからなくて困りました...それくらい簡単にも動きそうです。やりたいことによるけれど)。
非常に多機能なため、使いこなすのは難しい...が、やりたいことによっては(私は沈黙部分を同定したいだけ。もしくは声が低くなった箇所を同定したい)ある程度簡単にできるでしょう。

そして、どうやらELANと一緒に使うことが出来るみたいです(参考ページ)
ELANは音声分析はできないので、必要ならこちらと連動すると良いかもしれません。
Praatはまだまだ未使用なので、もう少しわかったら追記します。

[コンコーダンス関連]
私は研究目的ではなくて自分の関連分野の英語論文のコーパス分析に使っている(使いたい)ので、専門的なコーパス分析とは違うかもしれません。
自分の分野で、この英単語って前後に何が来るのか?みんなどうやって言うのか?などを知りたいときに便利かと。
2つ紹介しますが、おそらく内容はほとんど変わらないです。
1.AntConc
日本語解説ページも貼っておきます。

2.CasualConc


以下はとりあえず、リンクだけ。そのうち書きます。
[Tex関連]
1.Drag & Drop UPTex
Texの導入に。

2.LaTeXiT
Texの数式をkeynoteに張り付けるために。私は文字だと入らない。

3.ToyViewer
上記は解説ページです。Texに貼付けるeps形式の画像ファイルを作るために。

4.スケッチ風ドロー
上記は解説ページです。Texに貼付けるeps形式の画像ファイルを作るために。

[その他]
1.NoSleep
Macを眠らせないために。

2.Weka
データマイニングフリーソフト。GUI。Javaが必要。

3.R
統計解析用フリーソフト。



人文・社会科学のためのテキストマイニング

人文・社会科学のためのテキストマイニング

  • 作者: 松村 真宏
  • 出版社/メーカー: 誠信書房
  • 発売日: 2009/04/24
  • メディア: 単行本




社会調査のための計量テキスト分析―内容分析の継承と発展を目指して

社会調査のための計量テキスト分析―内容分析の継承と発展を目指して

  • 作者: 樋口 耕一
  • 出版社/メーカー: ナカニシヤ出版
  • 発売日: 2014/03
  • メディア: 単行本



ソフトウェア ブログトップ