投稿者「admin」のアーカイブ

samba で msdfs proxy 設定。(日本語sharename使えるようにpatchを適用。)


マンホールが猫娘



※写真と本文は関係ありません。


samba で msdfs proxy 設定。

昔うまくいかなかった(これ↑)、日本語共有名で msdfs proxy 設定。(うまくいかなかったのでnfs経由で使ってた。)
H/Wの更新後。(OSなども新しくなった。sambaとnfsも…)
あるファイル(Word、Excel)だけ開くのに時間がかかるので(ログを見ているとnfs経由のところだけ引っかかるのでその辺が問題か…)やむにやまれず。情報を探したら。

nfsマウントしたところをsamba共有で使うのはおすすめしないらしい。メーリングリストのこの辺のやりとり。

msdfs使ったほうがいいとのこと。

あばばば。(今までが微妙なバランスでうまく動いていたのか…)でも日本語の共有名でmsdfs proxyするとうまく動かない。(´・ω・`)
とりあえずsambaが古いので3.0→3.5にVer.上げたけど、変わらず。
で、『samba MSDFS multibyte』あたりのキーワードでググると、ズバリな感じのBugレポートが…。

Bug 5909 – MS-DFS does not work on Vista, if link name includes multibyte character.

今回ダメなのを確認していたものはCentOS5.8にあった、samba-3.0.33-3.39.el5_8。
srpmをインストールしてソースを確認すると、該当する部分にpatchは当たっていない様子。

このpatchを適用してみよう

rpmbuild/SOURCES/ にメーリングリストにあったpatchを適当な名前(samba-3.0-ms-dfs.patch)で保存。
rpmbuild/SPECS/samba.specに下記を追記する。


…
Patch271: samba-3.0-CVE-2012-1182.patch
Patch272: samba-3.0-ms-dfs.patch      # 追記
 …
%patch271 -p1 -b .CVE-2012-1182
%patch272 -p1 -b .ms-dfs       # 追記
…


$ rpmbuild -ba rpmbuild/SPECS/samba.spec
とするとrpmとsrpmが作成される。

Windows7のクライアントで試してみたところ問題なく動いたのでXPでも試す予定。(XPでも動くと良いなぁ。)→XPでも動きました!!
samba側のmsdfsの設定を変更したら、クライアントを一度再起動しないとちゃんと認識しなかったので、動作確認が複雑でした。(古いFAQに『クライアントはログオフするだけじゃダメで再起動しないとダメだ』って書いてあった。URL失念。)

※今回はたまたま動きましたが、動作保証するわけではないのであしからずご了承ください。これででダメだったら MIRACLE LINUX 使おうかなと思ってたのだけど、うまくいってよかった。。



Amazon Web Services の Route53 でDDNS。


ピカ〜



※写真と本文は関係ありません。


客先のイントラ内にあるサーバ。
sshでメンテナンス出来るようにルータでポートフォワードしてある。
アクセスするIPアドレスは固定IPアドレス契約じゃないのでルータを再起動すると変わる。
今までは、Perl-CGIで作ったページにcronで定期的にアクセスして、IPを記録してた。(sshで繋げるだけなので不便じゃなかった。)
VPNでそのイントラネットに接続したい要望があったり、そうするとIPアドレスだけじゃ不便。
前からダイナミックDNSでDNSサーバに登録したいという気持ちがあったんだけど、運用中のDNSサーバにDDNSの設定を追加するのは怖いなぁと思ってたところ。

AWSのRoute53で登録出来たら便利だよなぁ。と調べると、登録スクリプトを公開してる人がいたのでやってみた。

example.co.jp を持っているDNSサーバで、kyoyu-kun.example.co.jp のサブドメインをroute53に移譲する設定を書く。
AWSで登録するホスト名は『hogehoge.kyoyu-kun.example.co.jp』という感じにしたいので、こんな感じ


; kyoyu-kun
kyoyu-kun IN NS ns-465.awsdns-58.com. 
kyoyu-kun IN NS ns-776.awsdns-33.net.
kyoyu-kun IN NS ns-1050.awsdns-03.org.
kyoyu-kun IN NS ns-1718.awsdns-22.co.uk.


kyoyu-kun.example.co.jp をRoute53にHosted Zone登録する。

でリモート側で定期的にRoute53に登録する仕掛けを。

http://www.improvisedscience.org/notes/Route_53_Dynamic_DNSこのあたりを参考に。まずAWSで公開してるdnscurl.pl を使えるようにする。
このあたりのパッケージが必要でした。(インストールしたOSはVine4.2からCent6のRedhat系のOS。)

  • perl-Digest-HMAC
  • perl-Digest-SHA1
  • curl
  • expat

bashのスクリプトを公開してる方がいらっしゃったので、ちょっと改造して使わせていただく。
xpath が必要だったのでXML::XPathをインストール。

修正したスクリプト。→ https://gist.github.com/furu-nob/4711578

xpath の-eオプション使えなかった。(ubuntu のxpathは-eオプションらしい。)スクリプト中の『2>/dev/null』をなくすとエラーが見えるのでデバッグしやすい。
あ、あとコマンドを『$ LANG=C route53DynDNS.bash』とコマンドラインを英語にしないと、日付が日本語で処理されてうまく動かないので注意!

タイムアウトするようであれば、dnscurl.pl のsub fetch_server_date の中の『”–max-time”, “5”,』を調整する。(30 くらいにしないとちゃんと動かないことがあった。原因はなんだろう。回線?そんなに大きなデータやりとりしてないよね。。参考にした情報→ https://forums.aws.amazon.com/message.jspa?messageID=291859

http://www.matt-helps.com/dnscurl-pl-lookup-timed-out-amazon-route53


sub fetch_server_date {
    my ($url) = @_;
#    my $curl_output_lines = run_cmd_read($CURL, "--progress-bar", "-I", "--max-time", "5", "--url", $url);
    my $curl_output_lines = run_cmd_read($CURL, "--progress-bar", "-I", "--max-time", "30", "--url", $url);
    for my $line (@$curl_output_lines) {
        if ($line =~ /^Date:\s+([[:print:]]+)/) {
            return $1;
        }
    }
    die "Could not find a Date header in server HEAD response: " . join(";", @$curl_output_lines);
}


こんな感じで帰ってくれば、登録成功。


Could not find A RR for hoge.kyoyu-kun.example.co.jp.
Creating initial record
Public IP address is: 218.47.21.11
Creating A record for hoge.kyoyu-kun.example.co.jp. to be 218.47.21.11
Got update status ID C2D7D41QNH6QMM with status PENDING
Pausing 40 seconds to allow for sync
Success!


正常な時の返事はこんな感じ。


Public IP address is: 218.47.21.11
Current A RR IP address is: 218.47.21.11
No need to update A record.


IP変更時はこんな返事。


Public IP address is: 218.47.21.13
A Record for hoge.kyoyu-kun.example.co.jp. is 218.47.21.11 with ttl: 600
Updating A record for hoge.kyoyu-kun.example.co.jp. to be 218.47.21.13 with ttl 600
Got update status ID C3FHALYY4B1VTU with status PENDING
Pausing 40 seconds to allow for sync
Success!


ちゃんと更新されてるかLogを取りたかったので、cron にこんなスクリプトを5分おきに動くように登録。


#!/bin/sh
LOG='/var/log/route53'
LANG='C'
echo '-------8<-------' >> $LOG
date >> $LOG
/root/scripts/route53/route53DynDNS.bash >> $LOG 2>&1


AWS料金は、DNSサーバへのクエリ回数で課金されるのでほとんど課金されないはず。

1ヶ月使うとこんな感じでした。(Queries なんて自分以外は使わないから誤差の範囲w。)


Amazon Route 53 $0.51
$0.50 per Hosted Zone for the first 25 Hosted Zones	 1 HostedZone	 0.50
$0.50 per 1,000,000 queries for the first 1 Billion queries	 213 Queries	 0.01


Windows サーバ同じことをしたいなら。
Route53 Dynamic DNS Windows GUI | Stepan Yakovlev’s Blog このあたりを参考に。
github からダウンロードする。

Service版とそうじゃないのがある。
私が試したのは『そうじゃない版』
※ .NET 4.0が必要なので要インストール。(Wondows 2000 Serverは.NET4.0 はインストール出来ないので使えない)
access key などを設定して、スタートアップで起動する設定にする。設定変更・停止はタスクバーの右の黒いアイコンから出来る。
引っかかったところは、登録しようとするレコードがないと更新されないので、あらかじめ適当なIPアドレスを登録しておくくらいかな。Route53のGUIから適当なIPアドレス(hogehoge.example.com 192.168.1.1)を登録しておく。

デフォルトだと600秒(5分)おきに更新実行するので、ログを見て更新されてるのを確認する。(とてもわかりにくいけど)
更新不要のときはログで『Bye monster.』とか言ってておもしろい。

awstat.conf の雛形。


IMG_0010



※写真と本文は関係ありません。


awstats.model.conf を自分好みの雛形に書き直した。
awstat.patch を適用する。

$ cd /etc/awstats/
$ patch -b awstats.model.conf < awstats.patch

以下patch


$ cat awstats.patch 
--- awstats.model.conf_org  2012-12-06 14:51:21.000000000 +0900
+++ awstats.model.conf  2012-12-06 15:48:06.000000000 +0900
@@ -48,8 +48,8 @@
 # If there are several log files from load balancing servers :
 # Example: "/pathtotools/logresolvemerge.pl *.log |"
 #
-LogFile="/var/log/httpd/mylog.log"
-
+#LogFile="/var/log/httpd/mylog.log"
+LogFile="/bin/cat /var/log/httpd/example_log.1 /var/log/httpd/example._log |"
 
 # Enter the log file type you want to analyze.
 # Possible values:
@@ -119,7 +119,7 @@
 # Example for IIS:
 # LogFormat = 2
 #
-LogFormat=1
+LogFormat = 1
 
 
 # If your log field's separator is not a space, you can change this parameter.
@@ -150,7 +150,7 @@
 # Example: "ftp.domain.com"
 # Example: "domain.com"
 #
-SiteDomain=""
+SiteDomain="www.example.jp"
 
 
 # Enter here all other possible domain names, addresses or virtual host
@@ -165,7 +165,8 @@
 # Note: You can also use @/mypath/myfile if list of aliases are in a file.
 # Example: "www.myserver.com localhost 127.0.0.1 REGEX[mydomain\.(net|org)$]"
 #
-HostAliases="localhost 127.0.0.1 REGEX[myserver\.com$]"
+#HostAliases="localhost 127.0.0.1 REGEX[myserver\.com$]"
+HostAliases="localhost 127.0.0.1 REGEX[example\.jp$]"
 
 
 # If you want to have hosts reported by name instead of ip address, AWStats
@@ -185,7 +186,8 @@
 # 2 - DNS Lookup is made only from static DNS cache file (if it exists)
 # Default: 2
 # 
-DNSLookup=2
+#DNSLookup=2
+DNSLookup=1
 
 
 # When AWStats updates its statistics, it stores results of its analysis in 
@@ -200,7 +202,8 @@
 # Example: "C:/awstats_data_dir"
 # Default: "."          (means same directory as awstats.pl)
 #
-DirData="."
+#DirData="."
+DirData="/usr/local/awstats/var/lib/awstats"
 
 
 # Relative or absolute web URL of your awstats cgi-bin directory.
@@ -219,7 +222,8 @@
 # Example: "../icon"
 # Default: "/icon" (means you must copy icon directories in "/mywwwroot/icon")
 #
-DirIcons="/icon"
+#DirIcons="/icon"
+DirIcons="/awstatsicons"
 
 
 # When this parameter is set to 1, AWStats adds a button on report page to
@@ -327,6 +331,7 @@
 # Default: 0
 #
 AllowAccessFromWebToAuthenticatedUsersOnly=0
+#AllowAccessFromWebToAuthenticatedUsersOnly=1  
 
 
 # This parameter gives the list of all authorized authenticated users to view
@@ -337,7 +342,7 @@
 # Example: "__REMOTE_USER__"
 # Default: ""
 #
-AllowAccessFromWebToFollowingAuthenticatedUsers=""
+AllowAccessFromWebToFollowingAuthenticatedUsers="example_user"
 
 
 # When this parameter is defined to something, the IP address of the user that
@@ -463,8 +468,8 @@
 # Example: "localhost REGEX[^.*\.localdomain$]"
 # Default: ""
 #
-SkipHosts=""
-
+#SkipHosts=""
+SkipHosts="127.0.0.1 REGEX[^192\.168\.] localhost REGEX[^.*\.localdomain$]"
 
 # Do not include access from clients with a user agent that match following
 # criteria. If you want to exclude a robot, you should update the robots.pm
@@ -476,7 +481,8 @@
 # Example: "konqueror REGEX[ua_test_v\d\.\d]"
 # Default: ""
 #
-SkipUserAgents=""
+#SkipUserAgents=""
+SkipUserAgents="Nagios"
 
 
 # Use SkipFiles to ignore access to URLs that match one of following entries.
@@ -494,8 +500,8 @@
 # Example: "/badpage.php /page.php?param=x REGEX[^\/excludedirectory]"
 # Default: ""
 #
-SkipFiles=""
-
+#SkipFiles=""
+SkipFiles="REGEX[^\/awstats\/] REGEX[^\/admin\/]" 
 
 # Use SkipReferrersBlackList if you want to exclude records coming from a SPAM
 # referrer. Parameter must receive a local file name containing rules applied


# mkdir -p /usr/local/awstats/var/lib/awstats
apache の設定
# cp /usr/local/awstats/tools/httpd_conf /etc/httpd/conf.d/awstats.conf
Virttual Hostの設定などがあれば、そっちに書く。

$ cp /etc/awstats/awstats.model.conf /etc/awstats/awstats.example.jp.conf
SiteDomain などを変更する。

解析スクリプトを動かす。
$ perl /usr/local/awstats/wwwroot/cgi-bin/awstats.pl -config=www.example.jp -update

cron 設定
# cat /etc/cron.d/awstat
7 5 * * * root /usr/bin/perl /usr/local/awstats/wwwroot/cgi-bin/awstats.pl -config=www.example.jp -update

閲覧はconfigの引数を付ける。
http://www.example.jp/awstats/awstats.pl?config=www.example.jp

slow_query_log したいときのmy.cnfの書き方。


IMGP4587



※写真と本文は関係ありません。


mysql 5.1 の my.cnf の書き方。『slow_query_log = ON』では設定が反映されない。
『slow_query_log = 1』と書く。

こんなふうに書いたら有効にならない。


[mysqld]
slow_query_log = ON
slow_query_log_file = /var/log/mysql-slow.log
long_query_time = 0.1


mysql で show variables して確認。有効じゃない!!(他の設定は反映されてるのに…)


mysql> show variables like 'slow%';
+---------------------+-------------------------+
| Variable_name       | Value                   |
+---------------------+-------------------------+
| slow_launch_time    | 2                       |
| slow_query_log      | OFF                     |
| slow_query_log_file | /var/log/mysql-slow.log |
+---------------------+-------------------------+
3 rows in set (0.00 sec)
mysql> show variables like 'long%';
+-----------------+----------+
| Variable_name   | Value    |
+-----------------+----------+
| long_query_time | 0.100000 |
+-----------------+----------+
1 row in set (0.00 sec)


『slow_query_log = 1』と書けばOK。


[mysqld]
slow_query_log = 1
slow_query_log_file = /var/log/mysql-slow.log
long_query_time = 0.1


でmysqldを起動するとこんな感じで、Logfile に Versionなどが書き込まれる。


# tail -f /var/log/mysql-slow.log
/usr/libexec/mysqld, Version: 5.1.56-log (MySQL Community Server (GPL) by Remi). started with:
Tcp port: 3306  Unix socket: /var/lib/mysql/mysql.sock
Time                 Id Command    Argument


show variables して確認。OK。


mysql> show variables like 'slow%';
+---------------------+-------------------------+
| Variable_name       | Value                   |
+---------------------+-------------------------+
| slow_launch_time    | 2                       |
| slow_query_log      | ON                      |
| slow_query_log_file | /var/log/mysql-slow.log |
+---------------------+-------------------------+
3 rows in set (0.01 sec)


集計するには『mysqldumpslow』コマンド(実行時間が長い順にソート)
mysqldumpslow -s at /var/log/mysql-slow.log


ウノウラボ by Zynga Japan: MySQLのチューニングのためのデータの集め方


〜mysql 5.0 だとオプションが違う。


long_query_time=1
log-slow-queries=/var/log/mysql/slow.log


touch /var/log/mysql/slow.log
chmod 664 /var/log/mysql/slow.log
chown mysql:mysql /var/log/mysql/slow.log

/var/log/mysql/slow.log のパーミッション注意。

log-queries-not-using-indexes オプションも有効にするといいかも。

HP DL180G6 + CentOS6.3 の hp-health で Segmentation fault。


でもこれはこれで。



※写真と本文は関係ありません。


インストールした環境


$ uname -a
Linux backup2012.localdomain 2.6.32-279.14.1.el6.x86_64 #1 SMP Tue Nov 6 23:43:09 UTC 2012 x86_64 x86_64 x86_64 GNU/Linux
$ cat /etc/redhat-release
CentOS release 6.3 (Final)
$ rpm -qa |grep ^hp
hpmouse-1.2.1-1.noarch
hponcfg-4.0.1-0.noarch
hp-health-9.1.0.42-54.rhel6.x86_64
hpacucli-9.30-15.0.x86_64
hpvca-7.1.2-0.i386
hp-smh-templates-9.2.5.6-6.all.noarch
hpsmh-7.1.2-3.x86_64
hp-snmp-agents-9.1.0.57-51.rhel6.x86_64
hp-fc-enablement-1.2-14.noarch
hpdiags-9.3.0-466.x86_64


hp-snmp-agentsやhp-health を起動しようとすると 『セグメンテーション違反です』と言われる。
/etc/init.d/hp-snmp-agents start
とすると hp-health の起動スクリプトでエラー。
/etc/init.d/hp-health start
すると当然エラー。

日本語だと。


# /etc/init.d/hp-snmp-agents start  Using Proliant Standard
      IPMI based 1XX System Health Monitor
  Using standard Linux IPMI device driver
Starting ipmi drivers:                                     [  OK  ]
  Starting Proliant Standard
      IPMI based 1XX System Health Monitor (hpasmpld):
/etc/init.d/hp-health: line 666:  2710 セグメンテーション違反です               (コアダンプ) $PNAME $PARGS < /dev/null >> $LOGFILE 2>&1
                                                           [失敗]
/etc/init.d/hp-health: failed to start! Please review log file for details.
The log file locations are documented in the hp-health(4) man page.
#
#
#  /etc/init.d/hp-health start
  Using Proliant Standard
      IPMI based 1XX System Health Monitor
  Using standard Linux IPMI device driver
Starting ipmi drivers:                                     [  OK  ]
  Starting Proliant Standard
      IPMI based 1XX System Health Monitor (hpasmpld):
/etc/init.d/hp-health: line 666:  2922 セグメンテーション違反です               (コアダンプ) $PNAME $PARGS < /dev/null >> $LOGFILE 2>&1
                                                           [失敗]


LANG=C をするとこんな感じ。


# LANG=C /etc/init.d/hp-snmp-agents start
  Using Proliant Standard
      IPMI based 1XX System Health Monitor
  Using standard Linux IPMI device driver
Starting ipmi drivers:                                     [  OK  ]
  Starting Proliant Standard
      IPMI based 1XX System Health Monitor (hpasmpld):
/etc/init.d/hp-health: line 666:  2795 Segmentation fault      (core dumped) $PNAME $PARGS < /dev/null >> $LOGFILE 2>&1
                                                           [FAILED]
/etc/init.d/hp-health: failed to start! Please review log file for details.
The log file locations are documented in the hp-health(4) man page.
#
#
# LANG=C  /etc/init.d/hp-health start
  Using Proliant Standard
      IPMI based 1XX System Health Monitor
  Using standard Linux IPMI device driver
Starting ipmi drivers:                                     [  OK  ]
  Starting Proliant Standard
      IPMI based 1XX System Health Monitor (hpasmpld):
/etc/init.d/hp-health: line 666:  3006 Segmentation fault      (core dumped) $PNAME $PARGS < /dev/null >> $LOGFILE 2>&1
                                                           [FAILED]


いろいろ調べたらHPのメーリングリストに書いてあった。Fix for hp-health on DL100 series running CentOS6

で解決。

mcelogdを止めてからhp-healthを起動するとうまくいくらしい。
/etc/init.d/hp-healthの
# chkconfig: 2345 91 2 を
# chkconfig: 2345 31 2 に直したあと

chkconfig –del hp-health
chkconfig –add hp-health
して、自動起動を設定し直す。

で、ちゃんと起動するようになりました。

サイクルコンピュータを Garmin にしてみた。


2012-11-13 18.26.30


ブレーキとサイクルコンピュータを新しくしたので軽く乗ってきた。(速くなるパーツじゃないのでいまいちテンション上がらないけど…)
木枯らし一号の日で、風がひどかった。もう冬だね。。



GPSついてるので地図が出る!

それはそうと、左股関節の痛みと左足薬指のしびれが治らないー。

ClamXav のAppStore版をコマンドラインで使う。


IMG


※写真と本文は関係ありません。


セキュリティなんとかのあれで、社内のコンピュータは定期的にウイルススキャンしなけりゃいけない。

ClamXav のダウンロード版をのコマンドをcronで週1回動かして使ってたんだけど、AppStore版になってPATHが変わったので書いておこう。

/usr/local/clamXav/bin/clamscan にあった コマンドが移動して、/Applications/ClamXav.app/Contents//Resources/ScanningEngine/bin/clamscan
使いたいコマンドは /Applications/ClamXav.app/Contents//Resources/ScanningEngine/bin/ 以下にある。

–help ってやると細かいオプションが確認出来る。

※Warningが出ていたので、Virus database をupdateするように追記。


LibClamAV Warning: **************************************************
LibClamAV Warning: ***  The virus database is older than 7 days!  ***
LibClamAV Warning: ***   Please update it as soon as possible.    ***
LibClamAV Warning: **************************************************


Updateするようにした。(Updateコマンド→freshclamとConfigはここにある)


# コマンド
# /Applications/ClamXav.app/Contents/Resources/ScanningEngine/bin/freshclam
# 設定
# cat /Applications/ClamXav.app/Contents/Resources/ScanningEngine/etc/freshclam.conf


こんなスクリプトを書いて週1回動かしてる。


#!/bin/sh
 
SCANDIR='/Users/furuyamanobuyuki/'
 
LOG=`mktemp /tmp/clamscan.tmp.XXXXXX`
ME='furuyama@example.com'
TOMAIL='qc@example.com'
 
UPDATE_DB='/Applications/ClamXav.app/Contents/Resources/ScanningEngine/bin/freshclam'
CLAMSCAN='/Applications/ClamXav.app/Contents/Resources/ScanningEngine/bin/clamscan'
echo `date` >> $LOG
echo "Scan Dir $SCANDIR" >> $LOG
$UPDATE_DB >> $LOG
 
$CLAMSCAN -r -i -l $LOG --exclude-dir=/Users/furuyamanobuyuki/kakuri/ $SCANDIR
/bin/cat $LOG | /usr/bin/mail -s "furuyama scan result" $ME
/bin/cat $LOG | /usr/bin/mail -s "furuyama scan result" $TOMAIL
 
rm $LOG


すごい時間かかるんだけどね。




ClamXav App


カテゴリ: ユーティリティ
価格: 無料

自転車の長距離イベントに初参加。(2)



HRモニターのデータ


自転車の長距離イベントに初参加。(1)からの続き。

PC3(第3チェックポイント・135km)マックスコーヒー飲んだ。(その後雨…)

2012-10-28 16.11.08


しばらく工業地帯の何もないまっすぐな道。暗くなってくる。
途中、木更津のショッピングモールの近くを通ったはずだけどわからず…。

16号に出たのでこのまま北上とおもいきや、曲がって上りがあったり。結構交通量の激しい中ひたすら走る。最後残り数キロのところでゴールがわからなくなって道聞いたりしながらゴール!!

2012-10-28 20.25.00


コンポタ買ってレシートもらう。タイムは12時間17分でした。(午前8時スタートなので夜の8時17分にゴール!)

最後にファミレスへ移動(各コンビニで買ったレシートで時間などをチェックする)。途中立ちゴケ(ヘロヘロで何もないところでこけた)でブレーキレバーがずれた…(ゴールしたあとは気が抜けるから気をつけてって言われたのに…)。でチェック後無事OKとなって、サインしたり、メダル申し込んだり。。

スタート地点近くに停めてたクルマで帰宅。自宅近くの温泉施設で風呂。ファミレスでハンバーグ。で1時くらいに帰宅。


初参加なのでいろいろわからなかったけど。気になったところを書こう。

  • 心拍計のベルトつけたところの肌が擦り切れた。(保護クリーム塗っときゃよかった)
  • 直前に買ったサドル(Selle smp forma)はあまり尻は痛くなかった。いい感じ!
  • 直前に買ったシューズは雨でずぶ濡れ(ドロドロ)になった。><
  • 初使用のサドルバックが走ってるうちにうなだれてきてた。
  • ライトは明るいものが必要。夜走ることをあんまり考えてなかったなぁ。
  • 手元を照らすライトも必要。地図とかサイコンの距離がわからない。(交差点間の距離を測るので結構重要)
  • 雨で夜で灯りないと、かなりキツイ。
  • もっとたくさん食べないとダメだったんじゃないかしら。ようかんとカロリーメイトを自転車乗りながらもぐもぐしてた。
  • ゴール近くのコインパーキングにクルマ停めればよかった。
  • ハンディGPSがいまいち。

その後の体の回復具合

  • 翌日は筋肉痛で目が覚めるくらいだったけど、洗濯したり、自転車でスーパー行ったり。(振替休日でおやすみ)でした。
  • 今は筋肉痛もすっかり治って、気になるのは左足先が痺れてるくらい。痛みはなし。(これどうすりゃ治るのかな…)
  • スキーで伸ばした左ひざの靭帯がおもったより調子悪くならなかったのでよかった。


2012-10-28 15.58.15


自転車もすっかりドロドロになって、雨で油切れたせいでブレーキが動かなくなったり…。


600km目指したいけど、とりあえず次は300km(制限時間20時間)ですかねぇ。。難易度はコースによるけど天気(主に風)によるよね。。

その後、GPS付きサイコンとブレーキを注文しちゃったー。冬に向けてスキーの道具買わないとなのに…。なぁ。

自転車の長距離イベントに初参加。(1)




大きな地図で見る


またGPS途中で切れてた…。(豪雨で防水してなかったし、そのせいか…。)


ブルベという、自転車版ラリーのような200kmを制限時間13.5時間で走るイベント。
概要→2012 BRM1028千葉200km(検見川)

コースは検見川(幕張のとなり)→鴨川→富津→袖ヶ浦→検見川に戻るコース。


2012-10-28 07.57.51


2012-10-28 07.27.12


天気予報は『曇のち(昼過ぎから)雨』で、ちょっとやな感じ、でもスタート時間に降ってなかったので参加。

PC1(第1チェックポイント・53km)までは、薄日が差すくらいの天気だった。でもまあ予報通り雨降ってきてPC1出た直後に合羽装着。PC1でまんじゅうとスポーツドリンク補給。

2012-10-28 10.35.13


2012-10-28 12.22.13


その後山道へ。土砂降り。トンネルで『わーわー!』って言ったり、下りで『ひょー!!!!!』って叫んだり。。

PC2(第2チェックポイント・92km)で大きな峠が終わり海が見えた!塩おにぎりと肉まんとカロリー高そうなパンを買って、コンビニ駐車場でパン以外を食べた。(雨じゃなければ公園みたいなところで食べられるんだろうけどなぁ)

2012-10-28 13.12.11
止まると寒い。
でもすぐ海が終わって、富津の方へ山越え(このへんは雨降ってなかったきがする)。山の途中の雑貨店の前のベンチで休憩。何人かの参加者のかたに抜かれる、さっき買ったパンを食べる。

2012-10-28 14.46.12

その2へ続く。

awstats で閲覧できるユーザを制限する。


恵比寿のバカラ シャンデリア



※写真と本文は関係ありません。


アクセス解析のawsstat。引数をつけて、解析結果を切り替えられるので便利。(複数の解析結果を見せるのが楽)
『同じ URL で結果を表示するから、ユーザでアクセス制限したいけど Basic 認証じゃダメだよなぁ…』って思ってたら、設定があった。

それぞれのawstatの設定に書く。


$ cat /etc/awstats/awstats.host1.conf
…
AllowAccessFromWebToAuthenticatedUsersOnly=1
AllowAccessFromWebToFollowingAuthenticatedUsers="host1-user"
…
$ cat /etc/awstats/awstats.host2.conf
…
AllowAccessFromWebToAuthenticatedUsersOnly=1
AllowAccessFromWebToFollowingAuthenticatedUsers="host2-user"
…


apache のほうはBasic認証の設定。


<Directory "/usr/local/awstats/wwwroot">
Options None
AllowOverride None
Order deny,allow
Deny from all
Allow from 127.0.0.1
AuthUserFile /usr/local/awstats/.htpasswd
AuthGroupFile /dev/null
AuthName "Please enter your ID and password"
AuthType Basic
require valid-user
</Directory>


普通にBasic認証を設定して、htpasswdファイルにユーザ追加。(この場合だと host1-user と host2-user を追加)
閲覧許可ユーザを awsstat のConfig AllowAccessFromWebToFollowingAuthenticatedUsers で指定する。


さらにいろいろ制御したいなら、-output -staticlinks オプションで静的にページを生成する。
セキュリティに関するTips – ログ解析スクリプトAWStats 5.0ドキュメント