インターネットで使いたいデータを見つけたけど、ページ数は数百ページ。
1ページずつ開いて、コピー&ペーストなんてやってませんか?
そんな面倒な事を、自動でやってくれるソフトを作ります。
例1:すでに公開されている、大量のデータをダウンロードする。
ヤフー天気にある、地震情報履歴を見てください。
http://typhoon.yahoo.co.jp/weather/jp/earthquake/list/
217ページにも渡るデータを、1つのファイルにまとめます。
あとはエクセルで編集するなどしてください。
例2:リアルタイムの情報を、一定間隔で保存していく。
USJのアトラクション待ち情報を見てください。
http://usj.nanjaku.com/realtime.php
定期的に更新される待ち時間を収集して、1つのファイルにまとめます。
履歴データが取得できます。
他の出品者と違い、データを自分が好きなタイミングで何度でも収集できるので、
一度つくってしまえば、繰り返し使えます。
単純作業を効率化します。 ほかにも、毎日 マウスでコピー&ペーストが業務なんて人は
ご相談ください。
まず、どのページのどのデータを収集したいのか、ご相談ください。
データそのものの提供は致しません。
取得したデータの利用については、ホームページの利用規約に則って、正しく利用してください。
認証(ログイン)が必要なページのデータは取れない場合があります。
ホームページのURLが定まっていないと、データは収集できません。
プログラムは、windows7で動作します。
1つのフリーソフトとバッチファイルで構成されています。
1ページで収集できる情報には上限があります。