未分類」カテゴリーアーカイブ

お台場ガンダムの写真撮ってきた。

DPZのイベントのついでに写真だけ撮ってきた…。


ハッセルくんで撮ってきたぶんは現像中。


過去のガンダム。

静岡ホビーフェア(2010年7月)

お台場潮風公園(2009年7月)


潮風公園がいちばんよかったねー。

平日なのにひとおおすぎ。

SAJ2級(やっと)合格しました。


IMG_0741



※バッジテストもらえるのでバッジテストとも呼ばれてる。


先週に続き、連続受験。
今期3回目の受験で…。やっと…。合格!

この前の日曜日が今期最後の検定で、いろいろ悪あがきやってみました。

  • ちゃんと寝られるように、土曜日に宿泊。(実家みたいな民宿だったけど…)
  • 土曜日1日スクール受講。午後からカービングの板を試す。(すごいよかった!サロモンの来期モデル!自分の板と全然違う!!)
  • 検定の日もこの板を借りた。
  • 天気がよかったのもよかったかも。。(この前は寒くて気持ちが萎えたー)


宿


来季モデルのX-KART


合格発表前

『大回り・小回り・フリー』で『65・65・66』 計196点。
2級7人受験。合格1人でした。

前回落ちたときから言われ続けてるんだけど、前傾が出来ていないらしいので今後の課題です。

前傾に見えるように『オーバーに演技してください!』ってコーチに言われて、そうか『演技』かって思った。

板を変えたのが結構衝撃的で、『こんな板使って、みんなずるい…』っておもった。もう少し使ったら、もっと使いこなせるんだろうなぁ…。

あ、あと、前回1級不合格で『1級合宿』を受講してた人がうまくなってて、『合宿すごい!』と思った。

合格発表のあと、コーチに『1級合格に向けて!レッスン受け放題もありますよ!』っておすすめされたけど、シーズン券持ってるくらいじゃないと元とれないよねぇ。(シーズン券7まんえん…。交通費とかも…)

今回借りた板も次のシーズンまでに欲しいけど、先立つものが…。

まあ、今シーズンから今風な滑りに変えて、合格したからよしとしよう!!(かなり無理矢理だけど)

SAJ2級への遠い道。


IMG_0699


今年は例年になくユキヤマに通ってるわけですが…。

受からないですねSAJ2級。。

シーズン初め(1月)に苗場で受験して『受かるだろうなー』、と思って受からなかったのが始まり。
滑りが古いと言われましたw。(私のスキーはカービングスキー前の技術だそうで…でも上手ければ受かるって言ってた。)
ニセコはさんで、苗場でスクール何回か。。雨の苗場で一般スクールが少人数の時の先生がわかりやすくて、なんとなくモダンな滑りがわかったような…。
先々週の日曜日に尾瀬岩鞍。スクール入らず。(今考えるとスクール入っておけばよかった…ような)

1月の採点見直したら『大回り・小回り・フリー』で『64・65・63』 計192点。
今回の採点は『65・64・64』 計193点。で1点上がってるw。

ちなみに…1月の時は1級5人受験で1人合格。2級5人で2人合格。
今回は1級19人で1人合格。2級15人で3人合格でした。

今週末にも検定あるらしいけど、モチベーションがなぁ…。練習なしで受験かぁ。。

それともあれか!使ってるスキー板が基礎スキーの板じゃなくて…。。やっぱり道具か!!

Windows サーバのバックアップをrobocopyで行う。


夜桜



※写真と本文は関係ありません。(桜は去年の桜です)


久しぶりで忘れてたので書いておく。

robocopyでフォルダをバックアップ/同期させる – @IT

を参考にスクリプトを書いた。

『backup.bat 1 』と引数を指定すると、それぞれの曜日別のフォルダにフォルダにバックアップが作成される。

今回の例だと。
コマンド『backup.bat 1 』→『E:¥共有disk¥』を『F:¥backup¥1¥共有disk¥』と1番のディレクトリにバックアップ=月曜日のバックアップ
コマンド『backup.bat 2 』→『E:¥共有disk¥』を『F:¥backup¥2¥共有disk¥』2番=火曜日

バックアップログを『F:¥backup¥backup.log』に追記方式で追記する。


@echo off
rem 引数が必要
rem 引数のフォルダ名にバックアップを作成
rem F:¥backup¥%1¥共有disk¥
echo start backup
if "%1" == "" (
echo err 引数がありません
pause
exit
) else (
robocopy /mir /copyall /EFSAW /R:0 /NFL /NDL /NP /log:F:¥backup¥%1¥共有disk-backup.log E:¥共有disk¥ F:¥backup¥%1¥共有disk¥
robocopy /mir /copyall /EFSAW /R:0 /NFL /NDL /NP /log:F:¥backup¥%1&¥共有soft-backup.log E:¥共有soft¥ F:¥backup¥%1¥共有soft¥
)
echo end backup


/MIR : ミラーリングコピーする (/Eと/PURGEを指定したのと同じ)
/COPYALL : すべてのファイル情報をコピーする(/COPY:DATSOUと同じ)
/EFSAW : 暗号化されたすべてのファイルを EFS RAW モードでコピー
/R:0 : コピーに失敗したときにリトライする回数。デフォルトは1000000 0はリトライしない
/NFL : ファイル名をログに出力しない
/NDL : フォルダ名をログに出力しない
/NP : 進捗を表示しない(%コピーという表示をしない)ログファイルに記録するときはこれを指定した方がよい
/log:file : ログファイルに出力する(存在するファイルには上書き)

毎日深夜にWindowsのタスクでスクリプトを動作させる。

しかし、Windowsのタスクスケジューラの状態がよくわからない状態(終わっているのに実行中だったり準備完了だったり…)なのはなんなんだろう…。
失敗のアラートメールが送れないのがまた不便。

AWSクラウドデザインパターン

今回設定した案件。

NFS Sharingパターン(共有コンテンツの利用)

の、ちょっと改造版。
NFSサーバのコンテンツエリアもapacheのconfigに書いて、NFSサーバとWebサーバ兼用とした。


AWS図.001

NFSサーバをロードバランサから外すと、NFSサーバのトラフィックにすこーし余裕が出来る。

セットアップしたWebサーバのインスタンスをAMI化しておくと、インスタンスを起動してロードバランサに加えるだけでスケーリングが可能。(NFSサーバを止めると再設定が必要ですが…)

NFSサーバ設定

コンテンツ用 EBS Volume 作成してNFSサーバ用インスタンスにに attach する。
/etc/fstab に書くと起動できなかったりするので、automount でマウントするようにする。


cat /etc/auto.misc
ebs-www     -fstype=ext4        :/dev/sdf


使いやすいようにシンボリックリンクを作成しておく。


ls -l /media/
ebs-www -> /misc/ebs-www/


NFSの設定(全てのホストからNFSが利用可能な設定にする。アクセス制限はセキュリティグループの設定のみ。)


cat /etc/exports 
/media/ebs-www *(sync,rw,no_root_squash)


Webサーバ設定

NFSサーバをautomountする。(このNFSサーバのホスト名はNFSサーバのPrivate DNSが変わるたびに書き換えないといけない。)


cat /etc/auto.misc
ebs-www     -fstype=nfs,rw      ip-10-XXX-XXX-XXX.ap-northeast-1.compute.internal:/media/ebs-www


ここまでセットアップした状態でスケーリング用AMIを作る。snapshotから作成するとうまく起動しないことがあったので、止めてからAMIを作ると確実。


apacheの設定は、コンテンツのpath(/media/ebs-www)が同じなのでNFS、Webとも変わらない。

本番環境ではWebサーバのインスタンスにNFSサーバの設定もコメントで書いておき、簡単に切り替えられるようにした。

管理用インスタンスからec2コマンドでNFSサーバを起動して、NFSサーバのPrivateDNSを取得。UserData指定してWebサーバを起動するともっとスマートに出来るよな。(検証が大変なので今回は見送られました。。)


AWSクラウドデザインパターン(beta)

このページすてきすぎる。ちょっと前にみたよりもコンテンツの量が増えててすごいなぁ。

EC2 のリザーブドインスタンス利用。


2014/12/03 追記
新しい料金体系が発表されました。
Simplifying the EC2 Reserved Instance Model
EC2の新しいリザーブドインスタンスのオプションが発表 | Developers.IO

下記は古い情報です。


動き始めたらずっと動かすと想定して、軽度・中度・重度、どのリザーブドインスタンスがお得かグラフを書きました。


間違いグラフ


※m1.largeインスタンス(Tokyo)1年契約で試算。

こんなグラフ(重度使用リザーブドインスタンスも予約金+従量料金で計算)作って、『中度使用リザーブドインスタンスを利用する期間がない。(´・ω・`)』と思ってたら。

軽度・中度使用リザーブドインスタンスは、インスタンスが実行状態にあるインスタンス時間に対しての請求となります。1時間インスタンスを実行しない場合は、使用料はゼロとなります。1時間未満のインスタンス時間は1時間分として請求されます。重度使用リザーブドインスタンスは、リザーブドインスタンス期間全体における時間に対しての請求となります(これは、時間内に使用が発生したかどうかに関わりなく、時間料金がお客様に課金されることを意味しています)。

重度使用リザーブドインスタンスは、使用しなくても時間料金がかかるということなので。こっちが正解か…。


スクリーンショット 2012-03-13 12.44.30

  • 2.5ヶ月くらいの使用期間ならオンデマンドインスタンス
  • 7.2ヶ月くらいの使用期間なら軽度使用リザーブドインスタンス
  • 10.1ヶ月くらいの使用期間なら中度使用リザーブドインスタンス
  • それ以上の使用期間なら重度使用リザーブドインスタンス

※別のサービス流用できるようであればこの限りではない。

期間3年のものも書こうかな。。


※最新価格はこちらを参照ください!!

Amazon S3にバックアップする。


IMGP4494



※写真と本文は関係ありません。


S3にバックアップを作成するアプリケーション(スクリプト)。

日本語の情報が多いのは s3sync.rb(http://s3sync.net/) というrubyのスクリプト(ちょっと古くて、もう開発されていない。『Tarsnapがいいよ』って書いてある。Tarsnapは前払いで$0.30 / GB-monthらしい。)
今のS3でも一応使える。(新しい機能は使えない。低冗長化は使えなかった)

s3tools の s3cmd というコマンド(python製)が新しいのでコレを使う。ファイルのUID,GID,だけじゃなくて元ファイルのタイムスタンプもS3のMetadataに保存される。

やりたいこと

  • ローカルにあるバックアップの遠隔地バックアップ。(バックアップサーバが通信を行うので時間は多少かかっても問題ない。20時間くらいまで)
  • S3の低冗長化ストレージ(Reduced Redundancy Storage)を使いたい。
  • 世代管理はしない。
  • SSLで通信経路暗号化
  • 出来るだけ安くしたい。

いくらくらいか計算しよう。

東京リージョンの価格

ストレージ料金表

スタンダードストレージ 低冗長化ストレージ
最初の 1 TB/月 $0.130 /GB $0.100 /GB

データ転送料金表

データ「アウト」(データ「イン」は無料)
最初の 1 GB/月 $0.000 /GB
10 TB まで/月 $0.201 /GB

詳細はhttp://aws.amazon.com/jp/s3/#pricing

500GBのデータを低冗長化ストレージに置くとして$0.1×500GB=$50/月

データ取り出すとすると$0.201×500GB=$100.5/回



あれ…ひょっとして結構高い?(は置いといて…)


今回のサーバはCentOS5なのでyumレポジトリを追加する方法でインストールする。(こちらを参考にhttp://s3tools.org/repositories

yum でインストールする。


cat /etc/yum.repos.d/s3tools.repo
# 
# Save this file to /etc/yum.repos.d on your system
# and run "yum install s3cmd"
# 
[s3tools]
name=Tools for managing Amazon S3 - Simple Storage Service (RHEL_5)
type=rpm-md
baseurl=http://s3tools.org/repo/RHEL_5/
gpgcheck=1
gpgkey=http://s3tools.org/repo/RHEL_5/repodata/repomd.xml.key
enabled=0



yum install --enablerepo s3tools s3cmd


アクセスキーなど設定する。


s3cmd --configure
Access key and Secret key are your identifiers for Amazon S3
…


$HOME/.s3cfg に設定が保存される。


s3cmd sync --verbose --recursive --delete-removed --reduced-redundancy /home/hoge/ s3://hoge-test/home-hoge/


こんな感じでrsyncっぽくバックアップ出来る。

–reduced-redundancy:低冗長化ストレージのオプション
–dry-run:テスト。(どのファイルが更新されるか表示されるけど実際にはなにもしない)

1kgの体重を減らすのに必要なカロリーは7000キロカロリー

だそうな。

最近走ったり、サイクリングしたりしてる。
ハートレートモニターをつけて運動した過去30日分の消費カロリーが、こんな感じで見える。


スクリーンショット 2012-02-10 0.31.56

これが7000キロカロリーになるとひと月で体重が1kg減る計算になる。

過去30日で6260kcalなので、1ヶ月で1kgに満たないくらい減っていく計算になる。(余計にごはん食べちゃったりするので計算通りにはいかないけど…)

数値化すると食べるぶんを減らしたほうが簡単だとわかる。(歩いたくらいじゃたいしてカロリー消費しない)

ハートレートモニターだとみぞおちにセンサーつけたり大変なので、自転車乗らないならタニタのカロリズムなんかだと簡単かも。