某ニュースサイトに紹介してもらった

「やばいサーバ負荷耐えれるかな?」とか浮かれてたのですがamazonってやっぱすごいですね。
まったく落ちる/不安定になるとか無しに1ドル程度で処理できちゃいました。

せっかくなので今回の構成の詳細を書いて行きたいと思います。

DNSサーバ

value-domainを利用しています。
(時々ポカをしてる気がしますが)無料で利用できるし名前解決が遅いということも無くそこそこ安心して利用してます。

WEB(静的コンテンツ)サーバ

ドメイン名のbacketを作成するとCNAMEレコードを設定するだけで、そのまま独自ドメインの(静的コンテンツ)サーバに出来ます。
最近はディレクトリーインデックスやエラードキュメントも設定できるのでめちゃくちゃ便利です。
注意点は
CGIやサーバサイドインクルード(SSI)は利用できないし別のサービスと組み合わせないとSSLも利用できないのと
「アップロードするときにpublicにするのを忘れないように!」<これ大切

今回はHTML,CSS,JSは全部S3にお任せしました。
エラードキュメントで特定のHTMLを呼び出してHTMLからJSでAPIを叩くという仕組みにしてるのでほとんどのアクセスはS3が処理してます。

APIサーバ

CRUD(今回はUに該当する処理はありません)はEC2のmicro instanceを利用しました。
個人のサービスのほとんどを置いてるサーバですが大部分はS3においたHTMLとJSが面倒みてくれてるので
APIは最低限のチェックとS3の操作だけで済むので普段と負荷は変わりませんでした。

細かい話だと、完全に設計ミスで取得処理がJSだけでは出来ずphp呼び出してるのが気になってしょうがないので今後のアップデートで対応したいと思っています。

DBサーバ

S3でコンテンツと同じバケット使ってます。
今回はプライマリーキーのみなので、普通のサーバだとinodeがきになりますがS3使ってるとまったく気にしなくていいのでがんがんファイルアウトしてます。

IE対策>見た目>コード

「技術者仲間には作るの早かったね」って言われるのですがこのサービス作るのにコードは200行前後しか書いておらず
IEが動かなかったり、他と違う挙動していて調査や調整にほとんどの時間割いていて最低限の動作だけなら3時間くらいで出来ちゃってます。

今必要な技術って適切なライブラリ/モジュールを見つけられる事なんだなと思いました。

アクセス量やら負荷やら

作ったサービスが技術者向けなせいか、二番煎じだったせいか、紹介当日で1000人/日〜翌日は300人/日くらいで
紹介してくれた記事が大手ポータルサイトに転載されてたのでもっと期待してたのですがアクセスしにくい状況以前でサーバが暇すぎて困るくらいでした。

確かに紹介無かったよりは増えてるのですがSEOスパムの実験した時のほうがアクセス量は増えますorz
yahooに記事載った!とかだとまた違うのかな?

大きいサイトに紹介してもらうとアクセス数増えるんですね!って言いたかったのになぁってのが率直なところでした。