ページ

2012年12月3日月曜日

シカ再び

もうかなり昔の話になりますが.....シカの話です

 

2011年の春頃に論文をかき上げて、昨年ずっと投稿したけどダメだったもの。

文章の論理構成+内容がローカル過ぎるということでリジェクトされまくっていました。

2011年3月の森林学会で発表予定だったものの発表が流れたので、研究自体まだちゃんとは陽の目をみていない。

が、そのままではデータが非常にもったいない...(なにせ5年おき15年間の毎木調査データ+シカ食害データ)

時間はあまりありませんが、再解析&方向転換してもう一度挑戦して見ようと思います。

(ぷらす、モニ1000がらみでこの論文が出ていると助かるので!!)

 

 

問題はモデル式をうまく書き下せるかどうか.....

 

週末ちょっと試してみたけど.....うまく収束せず。

もう少しまともなモデルを考えないと....

2012年11月26日月曜日

浪費?それとも浪費?

今日はプロジェクトの仕事のお勉強をかねて仙台へ
 時間的に厳しい(仕事がおしている)のだけど.....

東北大のGCOEセミナーを拝聴するのが目的。
演者は九大の黒江さん。
放棄農地の生態学的な問題について、非常にわかりやすく丁寧に説明してもらえたので、初学者としてはかなり勉強になった

前日からの風邪のせいで喉がやられて声が出ないので、質問できず。
あとから、演者にいろいろと情報をいただきました。
どうもです。

 できれば懇親会にも参加したかったのだけど、風邪のため断念。

2012年11月23日金曜日

Androidで論文を読む

(最近ほとんどブログを更新する気力がなかったので)1ヶ月ほど前の話ですが.......

GoogleのNexus7を購入しました。

 

目的は論文をタブレットで読みたかったから。

購入直後にKindle Fire HDの発売が発表されたので、そちらも気になるのですが、現時点では操作性・スペック・重量ともに満足の製品です。

 

タブレットを購入してからは論文は主にこちらで読むようになりました。

アプリも充実していてかなり満足です。

 

アプリはいろいろありますが、現時点でのおすすめは

Referey + Dropbox + ezPDF Reader + ColorDict + 英辞郎データ

です。

ただし、ezPDF Readerと英辞郎のデータは有料。

 

  • RefereyでMendeleyのデータを参照
  • DropboxからMendeley経由で保存されているPDFを取り出し
  • ezPDF ReaderでPDFを読む
  • ColorDictを使って、ezPDF Reader上からわからない単語を直接検索
  • ColorDictには英辞郎の辞書ファイルを保存してあるので、オフラインでも快適に単語検索ができる

 

ColorDictはかなり便利な辞書ソフトで、まだ試してないけど植物の学名ー和名リスト(ylistなど)も辞書として登録できる。

これは論文を読むときにはかなり便利!!

生物の学名検索は単語検索よりもめんどくさいので....

 

ひとしごとおえる

かなり時間がかかってしまいましたが、査読から戻ってきていた論文を今日返しました。

8月末頃に帰ってきていたが、まるまる2ヶ月ほど放置してしまっていた...

査読者の皆様ごめんなさい

もしかすると、コメントに対応していないって怒られるかもだけど、リジェクトはないと思う。

 

良い返事が帰ってくるのを待ちましょう。

2012年10月18日木曜日

ラストチャンス

奇跡は起こらず....

みなさまの手元にも届いていると思いますが、毎年恒例の結果発表。

私のラストチャンスも叶いませんでした....

評価はBで3点(ほぼ平均)
まあ、去年より成長しましたが.....


もっと文章力を上げないとですね.....

2012年8月28日火曜日

日本海側と太平洋側

今度の植○学会の発表に向けて、日本海と太平洋側の地図を作ってみた。

データソースは国土数値情報の流域界・非集水域(面)

※本当は、統一データフォーマットの時代にダウンロードした、都道府県別のテキストファイル(100m解像度)から作成。
今はシェープ形式で配布されているのですね〜
以前にテキスト整形してシェープ作成作業にどれくらいの時間を費やしたことか...




赤が太平洋側、黄緑色が日本海側
北海道だけ別にして青色で表示。

2012年7月18日水曜日

HDD クラッシュ

HDDが突如クラッシュしてOSが起動しなくなりました...(悲)

新装したばかりのSSDだったのに...

 

単純なファイルのコピー作業中に突如、”書き込み禁止なるエラー”

その後、”フリーズ”...

 

再起動してみると、

 

Grub rescue>

 

の表示が....

 

諸先輩方を参照して、Grub rescueコマンドを試してみるも、"out of Disk"の嵐...

 

Live CDでファイルの救出を試みるも、マウントできず

 

....結局再インストールですか...

2012年7月12日木曜日

雑文

かれこれ1年ぐらい懸案事項だった雑文(紹介文)にようやくめどがついた。
学術論文とは違って紹介文を書くのは初めてだったので、いろいろと勉強になった。
さあ次に進もう。

2012年6月25日月曜日

総務省の統計データ

前回のアメダスに引き続き、総務省の統計データ(国勢調査やら農林業センサスやら)のデータも、ブラウザの自動処理ツールを使えば自動でダウンロードできることが判明。
さて、またダウンロードの日々に突入です...


スクリプトを公開しても良いですが...
しばし検討...

投稿

前の職場での仕事を投稿しました。
まだ時間にゆとりがあるので、とりあえず記念にIFの高いところに投稿。
といってもIF3ぐらい だけど、おそらく瞬殺と思う。

いつものことながら図表の修正に手間取りました。
が、ようやくtexで投稿する方法が理解できました。


この次に投稿するところを探して、先に書式の修正をしますかね〜

2012年6月17日日曜日

異動

前の職場を離れて新天地へ
これで密かに(?)目標にしていた"日本の端から端へ"を達成できた。

引越し作業も全て終了。 
荷解きにはまだまだ時間がかかりそうだけど、まあゆっくり進めましょう。

それでは皆様よろしくお願いいたします。

2012年5月31日木曜日

アメダス

解析でAMeDASのデータを使いたいので、こちらのページで紹介されている気象庁のAMeDASデータの取得を参考に、データを自動取得するシェルスクリプトを作成してみました。
おそらく気象庁さんのサーバーには負担をかけているのだと思いますが...

BioEosさんのページではRubyを使っているのですが、私がRubyに不心得なのでシェルスクリプトで同様の作業を行います。
必要なのはw3mとawkなどなどですが、わりと簡単にできました。


まずはprec_noの取得
こちらのページを参考に。
w3m -dump_source 'http://www.data.jma.go.jp/obd/stats/etrn/select/prefecture00.php?prec_no=&prec_ch=&block_no=&block_ch=&year=&month=&day=&elm=&view=' | grep prec_no | sed 's/=/ /g' | sed 's/&/ /'g | awk '{print $10}' | grep ^[1-9] | tr '\n' ' ' > prec_no.dat


が、しかし................
実は正規表現がとっても苦手なもので、ここでは小癪にもsedとawkを多用しています....(汗)


そしたら次はblock_noの取得。
取得したprec_noを使って
for i in `cat prec_no.dat`
do
w3m -dump_source 'http://www.data.jma.go.jp/obd/stats/etrn/select/prefecture.php?prec_no='${i} | grep onmouseover= | sed 's/,/ /g' | sed 's/(/ /g' | sed 's/)/ /g' | sed "s/'//g" | awk '{print "'${i}'", $2, $3, $4, $5, $6,$7,$8,$9,$10,$11,$12,$13,$14,$15,$16,$17,$18,$19}' | uniq | sed 's/;"//g' >> prec.dat
done


お恥ずかしながら、ここでもsedとawkを多用しています....(汗)

prec_noとblock_noが取得できたので、いよいよデータをダウンロードします。
w3mでページを表示して、grepで表の部分だけを抽出するという単純なものです。

こちらはアメダス全ポイントの日々のデータをゲットするコード
for ((i=1; i< 1639; i++))
do
prec=`awk 'NR=='$i'{print $1}' prec.dat`
type=`awk 'NR=='$i'{print $2}' prec.dat`
block=`awk 'NR=='$i'{print $3}' prec.dat`
mkdir -p ./da/$prec/$block
for ((j=1980; j<2000; j++))
do
for k in 01 02 03 04 05 06 07 08 09 10 11 12
do
cd ./da/$prec/$block
w3m 'http://www.data.jma.go.jp/obd/stats/etrn/view/daily_'${type}'1.php?prec_no='${prec}'&block_no='${block}'&year='${j}'&month='${k}'&day=&elm=daily&view=p1' | grep ^[1-9] > ${prec}_${block}_${j}_${k}.dat
s=`du ${prec}_${block}_${j}_${k}.dat | awk '{print $1}'`
case $s in
0)
rm ${prec}_${block}_${j}_${k}.dat
;;
esac
echo $block $type $prec $i $j $k
cd ../../../
done
done
done


同様にURLを変更すると月々データもゲットできます。
当然、時間ごとも可能。
for ((i=1; i< 1639; i++))
do
prec=`awk 'NR=='$i'{print $1}' prec.dat`
type=`awk 'NR=='$i'{print $2}' prec.dat`
block=`awk 'NR=='$i'{print $3}' prec.dat`
mkdir -p ./mo/${prec}/${block}
for ((j=1980; j<2000; j++))
do
cd ./mo/${prec}/${block}
w3m 'http://www.data.jma.go.jp/obd/stats/etrn/view/monthly_'${type}'1.php?prec_no='${prec}'&block_no='${block}'&year='${j} | grep ^[1-9] > ${prec}_${block}_${j}.dat
s=`du ${prec}_${block}_${j}.dat | awk '{print $1}'`
case $s in
0)
rm ${prec}_${block}_${j}.dat
;;
esac
echo $block $type $prec $i $j
cd ../../../
done
done

2012年5月17日木曜日

我苦心

おそらく世の若手の皆様が苦しんでいると思われる申請書をどうにか提出しました。

人事を尽くし切れたかどうかは判断しかねますが....あとは天命を待つのみです。

しかし、準備不足、知識不足だ....やっぱり専門分野外にチャレンジするのはキツイな〜



明日は山梨のとある山の中へお邪魔します

2012年5月12日土曜日

大山沢に行ってきた

 モニ1000の調査で大山沢に行って来ました。
今日は動物と遭遇する日のようで、道中アナグマとカモシカに出会いました。


2012年5月12日 埼玉県秩父市中津川

2012年5月12日 埼玉県秩父市中津川

こちらはカモシカ。
調査を終わって中津川から秩父へ帰る途中、トンネルの上に物陰がと思ってみてみると、そこにはどうやらお食事中のカモシカが。

2012年5月12日 埼玉県秩父市中津川

しかも法面保護の金網ネットの上を上手に歩いている(?)ようで。
で、こちらに気づいても逃げることはなく 。

動けないのかな?それとも余裕?

こんな芸当はシカにはできないですよね〜?どうでしょうか。


2012年5月12日 埼玉県秩父市中津川



2012年5月2日水曜日

雑文投稿

一年間塩漬けにした記事を投稿しました。
2011年の日本生態学会第58回大会企画集会で発表した内容です。
紆余曲折ありましたが、とりあえずひとつ宿題が終わりました。
編集者・校閲者の皆様、よろしくお願いします。

2012年1月25日水曜日

投稿

リジェクトされて放置していた某論文を投稿!!

この論文は今月1日にPlant Ecologyに投稿したのだが、11日にはエディターリジェクトで戻ってきていた。
それから、生態学会の要旨や職場の報告会の準備に追われて放置していた。

今回はエディターを通ってくれますように!!
そして今回が3度目の投稿なので、三度目の正直となりますように!!