生焼けの豚肉を食らう


 えーと。ウスラぼんやりしながら食ってたんですよ。肉をね。豚のね。
 何故か頭の中では、「この豚肉マジうめー」という判断と、「何かちょっと赤いけど牛肉のレアは問題ないしうめー」という判断が同時進行していた。何かがおかしい。五枚くらいを胃袋に収め、六枚目くらいに入ったところでハッと。
 最近ちょっと頭ヤバくなってね?

 一応、ネットで生焼けの豚肉を食った話なんかを検索してみる。ふーむふむ。まあ、運だな。分の悪い勝負では無さそうだ。イケルイケル。ほんのり赤い程度だから火は通ってるだろー。肉も確かいい物だったはずだし。
 アルコールで虫は死なないよなあ、と思いながらも何となく日本酒をダバダバ飲んでみたりはした。


BackWPupの転送先でちょっと迷った


 WordPressのバックアップ関係の悩みがまとめて解決しそうな感触のこのプラグインだが、またしてもS3のリージョンで迷う。今回は深く考えずに東京に置いたが、例の重要データと同じように考えるなら、こいつも東海岸に置いた方がいいのかなあ。試しに東海岸に即時バックアップを掛けさせてみよう。7.52MBの転送を東京が一瞬で終わらせているところ、東海岸だと72秒か。マジで重いな。つーか東京だけ異様に軽いんだな。うーむ。
 そこで思い出したのだが、このblogのサーバロケーションは大阪だったような。東西で分散してりゃ十分ではなかろーかと。うむ。所詮は俺のblogだし。

 それにしても、ほんのちょっと使う程度でいいならS3最高かもなあ。対応してるソフトも多いし。個人用の丈夫で小さい金庫みたいな使い方なら一円未満で済みそうだし。触れ込み通りの丈夫さは期待してないけど、この価格帯の大抵のサーバと比べて同等以上くらいなら期待していい気はする。
 つっても、金庫と違ってアレなデータとかは暗号化しても置きたくないな。それはどこのサーバでも変わらんが。つーかアレ系はふつー巨大だからオンラインとか無理だろー。
 それより、これって少額の課金はどうなってるんだろうなあ。ちゃんと調べてみようか。ふむふむ。公式な告知ではないけど、1セント程度の少額ならシステム的に表示されても実際には請求しないっすよ、とあるな。そりゃそうか。請求しても金融機関しか得しないもんな。実質タダで使える範囲は思ったより広そうだ。くそー。Amazon嫌いのこの俺がー。
 ただ怖いのは、青天井の従量課金なので、何かのミスなりバグなりで膨大なデータでも突っ込んだらえらいことになるであろうということ。特に東京リージョンは高速なので怖い。課金の上限設定も見当たらないしなあ。BackWPupのスケジューリングは激しく自由だから、毎分フルバックアップとかうっかり設定したらたまらん訳で。いやまあ、現状で8MB程度だから、えーと、毎分putを一ヶ月間やったら337.5GBの転送だから2700円くらいか。あれ。計算ミスってないか俺。この程度ならどーでもよくね?
 あとはまあ、プラグイン自体のバグが怖いくらいか。ここは自己責任だよなあ…。

 という訳で、S3の東京リージョンに月次バックアップ二世代、ローカルに毎日バックアップ二世代、という最初の設定を維持しそうではあった。こないだと同じだな。考えて試して結局変えないオチ。
 しかし、月次バックアップ先をOsukiniに変える手はありかもしれない。FTPは使いたくないが、ローカルのバックアップを自前のスクリプトでscpすればいいのだ。そこまでS3を恐れることは無い気もしますが。

追記:
 結局S3に送るのはやめた。この程度の用途なら、DropboxやSugarSyncのように上限のある世界の方が気楽だった。


BackWPupを入れてみた


 このblogも見た目にはほぼ直ったが、パーマリンクのURLは復旧していないので、最近の記事はリンク切れがあるかもしれない。まあ、仕方ないな。
 しかし、最近ひどい操作ミスが増えたような気がしてならない。いやまあ、「最近」というのは多分気のせいだろう。もう十年以上前だが、まだ知り合いのPCをパーツから組み立てたりしてた頃、電源で大ポカやらかして大胆に吹っ飛ばした記憶とかもあるしな。人間は時々やらかす、というだけの話だろう。そうだといいね!

 で、放置気味だったけどWordPressのバックアップを考え直すことに。何か最近バックアップの話ばっかりだなここ。つっても現に吹っ飛んでるからなあ。懲りて吹っ飛ぶような無茶をしないようにするんじゃなく、吹っ飛んでもいいようにして無茶を続けたい。つっても、今回は無茶したんじゃなくて、単純にログインしてるサーバを間違えてデータ消しちゃっただけだけど(笑)。
 とりあえずMySQLのレプリケーションは復旧させたが、止まってても気付かない、というのは戴けない。監視を設定すべきな気もしたが、そもそもOsukiniはいつでも切り捨てられる状態にする方針なので、別の方式も追加しておきたいとは思う。WXR形式でどっかに吐くとか。

 で、こういう時はプラグインだな、と探してみると、BackWPupというのが目に留まった。WXRで吐くのも、DBのデータを吐くのも、メディアやらテーマやらの状態を完全保存するのも出来るっぽくて、保存先もローカルやらFTPやらメールやらS3やら、さらにはAzureやらRackspace CloudやらDropboxやらSugarSyncやらと、やけに対応が広い。
 という訳でインストールする。うむ。やっぱり英語か。まあ、適当にJobsからAdd Newして、テスト開始。圧縮はtar.bz2にするとして、現時点でWXRだけだと380.57KB、フルだと7.52MBなので、S3に入れたとしてもタダ同然ではあるのだが、フルを毎日掛けると数十円は掛かりそうか。画像が増えると毎日は厳しそうだな。
 うーん。画像データとかを突然増やしたくなった時にネックになるのも嫌だし、気楽にフルで毎日掛けたいなあ。んじゃS3は除外、…という必要も無いか。毎日のバックアップはローカルに、月次バックアップはS3に、それぞれ二世代ずつってとこでいいんじゃん。
 早速設定してみたが、ログとかバックアップとかの一覧が激しく便利で、テスト実行も簡単。リストアのテストは簡単じゃないけど。自動スケジュール設定も細かく可能だし、かなり良さげな気が。エラーメールの送信テストがあればもっといいなあ。

 まあ、これでだいぶ気にならなくなったかも。一応は三重化ってことになるか。タダ同然だから気分がいいな。つーか掛かるとしてもS3の料金だけなので、概算してみた。東京リージョンで月0.25円くらい。タダですね。


復旧完了


 4/17〜5/9の記事を手作業でGoogleリーダーのキャッシュから書き戻し完了。割とすぐに終わった。タイムスタンプは日付以外は適当だし、微妙に修正した記事なんかは古いままになってそうだけど。
 これRSSで読んでる人にはドバーと更新が送られるのか。若干迷惑気味かもしれない。申し訳ない。


Googleリーダーから復旧を試みる


 一ヶ月分も飛んでないので、どっかにキャッシュされてねーかな、と思ってふと思い出す。Googleリーダーに登録してたよな。あれ拾ってくれてるんじゃね?
 早速見に行くと、あったあった。すぐに拾おう。あとは、えーと、この程度は手作業でいいかなあ。XMLの作業とか慣れてねーし。さっさと復旧したいし。