毎回、同じサイトから価格・在庫・記事タイトルなどを手作業で集めている方向けのスクレイピング自動化です。
指定URLを貼るだけで取得→CSV(標準)に保存。インストール不要の単体アプリ(.exe)として納品します(PyInstallerでパッケージ化/PCにPython不要)。
提供内容
1サイト向け専用ツール作成(URL入力→開始ボタンで実行)
静的/動的ページ対応(JSレンダリング・ページネーション・無限スクロール待機)
取得項目例:タイトル/価格/本文/URL/画像URL/在庫/評価/更新日時 など
保存形式:CSV(既定)、XLSX/JSON/SQLite(任意)
出力整理:日付フォルダ、自動追記、重複排除、タイムスタンプ
信頼性:要素待機・リトライ・タイムアウト・ログ出力
納品物
実行ファイル(.exe)
設定ファイル(取得項目・保存先)
README(使い方)+サンプルCSV
(希望者)1〜3分の操作動画
使い方
ツールを起動
取得したいURLを入力(複数可)
「Enter」をクリック → 自動収集 → CSV保存
対応範囲・オプション
目安:最大5,000件/回・1サイト
ログインが必要なページ:ご本人アカウントでの利用かつ規約許容の場合、Cookie方式等で対応可(要相談)
オプション:複数URL一括/定期実行(タスクスケジューラ設定)/Googleスプレッドシート出力/スクリーンショット保存/差分抽出(前回比)
無料ミニ検証
URLと「欲しい項目」を箇条書きでお送りください。取得可否の確認・出力見本を提示のうえ見積します。
納品後7日以内の微修正は無償(軽微な構造変更・項目調整)。
まずは「URL」と「必要な列名」をお知らせください。最短で動く形までお作りします。
スクレイプするURL、必要な列名を事前に用意してください