DPZのイベントのついでに写真だけ撮ってきた…。
ハッセルくんで撮ってきたぶんは現像中。
過去のガンダム。
静岡ホビーフェア(2010年7月)
お台場潮風公園(2009年7月)
先週に続き、連続受験。
今期3回目の受験で…。やっと…。合格!
この前の日曜日が今期最後の検定で、いろいろ悪あがきやってみました。
『大回り・小回り・フリー』で『65・65・66』 計196点。
2級7人受験。合格1人でした。
前回落ちたときから言われ続けてるんだけど、前傾が出来ていないらしいので今後の課題です。
前傾に見えるように『オーバーに演技してください!』ってコーチに言われて、そうか『演技』かって思った。
板を変えたのが結構衝撃的で、『こんな板使って、みんなずるい…』っておもった。もう少し使ったら、もっと使いこなせるんだろうなぁ…。
あ、あと、前回1級不合格で『1級合宿』を受講してた人がうまくなってて、『合宿すごい!』と思った。
合格発表のあと、コーチに『1級合格に向けて!レッスン受け放題もありますよ!』っておすすめされたけど、シーズン券持ってるくらいじゃないと元とれないよねぇ。(シーズン券7まんえん…。交通費とかも…)
今回借りた板も次のシーズンまでに欲しいけど、先立つものが…。
まあ、今シーズンから今風な滑りに変えて、合格したからよしとしよう!!(かなり無理矢理だけど)
今年は例年になくユキヤマに通ってるわけですが…。
受からないですねSAJ2級。。
シーズン初め(1月)に苗場で受験して『受かるだろうなー』、と思って受からなかったのが始まり。
滑りが古いと言われましたw。(私のスキーはカービングスキー前の技術だそうで…でも上手ければ受かるって言ってた。)
ニセコはさんで、苗場でスクール何回か。。雨の苗場で一般スクールが少人数の時の先生がわかりやすくて、なんとなくモダンな滑りがわかったような…。
先々週の日曜日に尾瀬岩鞍。スクール入らず。(今考えるとスクール入っておけばよかった…ような)
1月の採点見直したら『大回り・小回り・フリー』で『64・65・63』 計192点。
今回の採点は『65・64・64』 計193点。で1点上がってるw。
ちなみに…1月の時は1級5人受験で1人合格。2級5人で2人合格。
今回は1級19人で1人合格。2級15人で3人合格でした。
今週末にも検定あるらしいけど、モチベーションがなぁ…。練習なしで受験かぁ。。
それともあれか!使ってるスキー板が基礎スキーの板じゃなくて…。。やっぱり道具か!!
久しぶりで忘れてたので書いておく。
robocopyでフォルダをバックアップ/同期させる – @IT
を参考にスクリプトを書いた。
『backup.bat 1 』と引数を指定すると、それぞれの曜日別のフォルダにフォルダにバックアップが作成される。
今回の例だと。
コマンド『backup.bat 1 』→『E:¥共有disk¥』を『F:¥backup¥1¥共有disk¥』と1番のディレクトリにバックアップ=月曜日のバックアップ
コマンド『backup.bat 2 』→『E:¥共有disk¥』を『F:¥backup¥2¥共有disk¥』2番=火曜日
バックアップログを『F:¥backup¥backup.log』に追記方式で追記する。
@echo off rem 引数が必要 rem 引数のフォルダ名にバックアップを作成 rem F:¥backup¥%1¥共有disk¥ echo start backup if "%1" == "" ( echo err 引数がありません pause exit ) else ( robocopy /mir /copyall /EFSAW /R:0 /NFL /NDL /NP /log:F:¥backup¥%1¥共有disk-backup.log E:¥共有disk¥ F:¥backup¥%1¥共有disk¥ robocopy /mir /copyall /EFSAW /R:0 /NFL /NDL /NP /log:F:¥backup¥%1&¥共有soft-backup.log E:¥共有soft¥ F:¥backup¥%1¥共有soft¥ ) echo end backup
/MIR : ミラーリングコピーする (/Eと/PURGEを指定したのと同じ)
/COPYALL : すべてのファイル情報をコピーする(/COPY:DATSOUと同じ)
/EFSAW : 暗号化されたすべてのファイルを EFS RAW モードでコピー
/R:0 : コピーに失敗したときにリトライする回数。デフォルトは1000000 0はリトライしない
/NFL : ファイル名をログに出力しない
/NDL : フォルダ名をログに出力しない
/NP : 進捗を表示しない(%コピーという表示をしない)ログファイルに記録するときはこれを指定した方がよい
/log:file : ログファイルに出力する(存在するファイルには上書き)
毎日深夜にWindowsのタスクでスクリプトを動作させる。
しかし、Windowsのタスクスケジューラの状態がよくわからない状態(終わっているのに実行中だったり準備完了だったり…)なのはなんなんだろう…。
失敗のアラートメールが送れないのがまた不便。
今回設定した案件。
の、ちょっと改造版。
NFSサーバのコンテンツエリアもapacheのconfigに書いて、NFSサーバとWebサーバ兼用とした。
NFSサーバをロードバランサから外すと、NFSサーバのトラフィックにすこーし余裕が出来る。
セットアップしたWebサーバのインスタンスをAMI化しておくと、インスタンスを起動してロードバランサに加えるだけでスケーリングが可能。(NFSサーバを止めると再設定が必要ですが…)
NFSサーバ設定
コンテンツ用 EBS Volume 作成してNFSサーバ用インスタンスにに attach する。
/etc/fstab に書くと起動できなかったりするので、automount でマウントするようにする。
cat /etc/auto.misc ebs-www -fstype=ext4 :/dev/sdf
使いやすいようにシンボリックリンクを作成しておく。
ls -l /media/ ebs-www -> /misc/ebs-www/
NFSの設定(全てのホストからNFSが利用可能な設定にする。アクセス制限はセキュリティグループの設定のみ。)
cat /etc/exports /media/ebs-www *(sync,rw,no_root_squash)
Webサーバ設定
NFSサーバをautomountする。(このNFSサーバのホスト名はNFSサーバのPrivate DNSが変わるたびに書き換えないといけない。)
cat /etc/auto.misc ebs-www -fstype=nfs,rw ip-10-XXX-XXX-XXX.ap-northeast-1.compute.internal:/media/ebs-www
ここまでセットアップした状態でスケーリング用AMIを作る。snapshotから作成するとうまく起動しないことがあったので、止めてからAMIを作ると確実。
apacheの設定は、コンテンツのpath(/media/ebs-www)が同じなのでNFS、Webとも変わらない。
本番環境ではWebサーバのインスタンスにNFSサーバの設定もコメントで書いておき、簡単に切り替えられるようにした。
管理用インスタンスからec2コマンドでNFSサーバを起動して、NFSサーバのPrivateDNSを取得。UserData指定してWebサーバを起動するともっとスマートに出来るよな。(検証が大変なので今回は見送られました。。)
AWSクラウドデザインパターン(beta)
このページすてきすぎる。ちょっと前にみたよりもコンテンツの量が増えててすごいなぁ。
2014/12/03 追記
新しい料金体系が発表されました。
Simplifying the EC2 Reserved Instance Model
EC2の新しいリザーブドインスタンスのオプションが発表 | Developers.IO
下記は古い情報です。
動き始めたらずっと動かすと想定して、軽度・中度・重度、どのリザーブドインスタンスがお得かグラフを書きました。
※m1.largeインスタンス(Tokyo)1年契約で試算。
こんなグラフ(重度使用リザーブドインスタンスも予約金+従量料金で計算)作って、『中度使用リザーブドインスタンスを利用する期間がない。(´・ω・`)』と思ってたら。
軽度・中度使用リザーブドインスタンスは、インスタンスが実行状態にあるインスタンス時間に対しての請求となります。1時間インスタンスを実行しない場合は、使用料はゼロとなります。1時間未満のインスタンス時間は1時間分として請求されます。重度使用リザーブドインスタンスは、リザーブドインスタンス期間全体における時間に対しての請求となります(これは、時間内に使用が発生したかどうかに関わりなく、時間料金がお客様に課金されることを意味しています)。
重度使用リザーブドインスタンスは、使用しなくても時間料金がかかるということなので。こっちが正解か…。
※別のサービス流用できるようであればこの限りではない。
期間3年のものも書こうかな。。
※最新価格はこちらを参照ください!!
S3にバックアップを作成するアプリケーション(スクリプト)。
日本語の情報が多いのは s3sync.rb(http://s3sync.net/) というrubyのスクリプト(ちょっと古くて、もう開発されていない。『Tarsnapがいいよ』って書いてある。Tarsnapは前払いで$0.30 / GB-monthらしい。)
今のS3でも一応使える。(新しい機能は使えない。低冗長化は使えなかった)
s3tools の s3cmd というコマンド(python製)が新しいのでコレを使う。ファイルのUID,GID,だけじゃなくて元ファイルのタイムスタンプもS3のMetadataに保存される。
やりたいこと
いくらくらいか計算しよう。
東京リージョンの価格
ストレージ料金表
スタンダードストレージ | 低冗長化ストレージ | |
---|---|---|
最初の 1 TB/月 | $0.130 /GB | $0.100 /GB |
データ転送料金表
データ「アウト」(データ「イン」は無料) | |
---|---|
最初の 1 GB/月 | $0.000 /GB |
10 TB まで/月 | $0.201 /GB |
詳細はhttp://aws.amazon.com/jp/s3/#pricing
500GBのデータを低冗長化ストレージに置くとして$0.1×500GB=$50/月
データ取り出すとすると$0.201×500GB=$100.5/回
あれ…ひょっとして結構高い?(は置いといて…)
今回のサーバはCentOS5なのでyumレポジトリを追加する方法でインストールする。(こちらを参考にhttp://s3tools.org/repositories)
yum でインストールする。
cat /etc/yum.repos.d/s3tools.repo # # Save this file to /etc/yum.repos.d on your system # and run "yum install s3cmd" # [s3tools] name=Tools for managing Amazon S3 - Simple Storage Service (RHEL_5) type=rpm-md baseurl=http://s3tools.org/repo/RHEL_5/ gpgcheck=1 gpgkey=http://s3tools.org/repo/RHEL_5/repodata/repomd.xml.key enabled=0
yum install --enablerepo s3tools s3cmd
アクセスキーなど設定する。
s3cmd --configure Access key and Secret key are your identifiers for Amazon S3 …
$HOME/.s3cfg に設定が保存される。
s3cmd sync --verbose --recursive --delete-removed --reduced-redundancy /home/hoge/ s3://hoge-test/home-hoge/
こんな感じでrsyncっぽくバックアップ出来る。
–reduced-redundancy:低冗長化ストレージのオプション
–dry-run:テスト。(どのファイルが更新されるか表示されるけど実際にはなにもしない)