絞り込み条件を変更する
検索条件を絞り込む

すべてのカテゴリ

43 件中 1 - 43 件表示
カバー画像

ウェブページのデータを簡単にExcelに取り込む方法

「競合他社の価格情報を定期的にチェックしたいけど、手作業でコピーするのが大変」という相談をよくいただきます。 ウェブサイトの情報を手動でExcelに転記していると、時間もかかるし入力ミスも起こりやすいですよね。 そこで、ウェブページのデータを自動でExcelに取り込む仕組みを作ってみました。 今回作成したデータ取り込みシステムは、3つの用途で活用できます。 用途Aは競合他社の商品価格を定期的に収集して、価格比較表を自動で作成する機能です。 用途Bは求人サイトから条件に合う案件情報を抽出して、営業リストとして整理する仕組みです。 用途Cはニュースサイトから業界関連の記事タイトルを収集して、トレンド分析用のデータベースを構築する機能です。 ウェブデータの自動収集で得られるメリットは非常に大きいです。 まず、リアルタイムで最新情報を取得できるので、市場の変化にすぐに対応できます。 次に、大量のデータを短時間で処理できるので、人手では不可能な規模の分析が可能になります。 そして、定期的に同じフォーマットでデータが整理されるので、継続的な比較分析ができるようになります。 ウェブデータ取り込みツールを作る際のコツをお伝えします。 最初に対象サイトの構造をしっかり分析して、必要なデータがどこにあるかを正確に把握することが重要です。 また、相手サイトに負荷をかけないよう、適切な間隔でデータを取得するように設定します。 そして、ウェブサイトの仕様変更に対応できるよう、柔軟性のある設計にしておくことが大切です。 実際にシステムを導入したお客様の成果は素晴らしいものでした。 「週5時間かかっていた価
0
カバー画像

Googleマップのデータを取得する方法と注意点

Googleマップは、店舗情報やレビュー、位置データなど、ビジネスや研究に役立つ膨大な情報を提供しています。しかし、これらのデータを取得する際には、技術的な方法だけでなく、法的な注意点も理解しておくことが重要です。この記事では、Googleマップからデータを取得する方法と、気をつけるべきポイントを解説します。データを取得する方法1. Google Maps APIの活用   Googleは公式に「Google Maps Platform」を提供しており、APIを通じて合法的にデータを取得できます。Place APIやGeocoding APIを使用すれば、店舗名、住所、評価などの情報をプログラムで収集可能です。ただし、APIの利用にはGoogle Cloudアカウントの登録とAPIキーの取得が必要です。また、無料枠を超えると課金が発生するため、コスト管理が重要です。2. 手動でのデータ収集   小規模なデータが必要な場合、Googleマップのウェブサイトから直接情報をコピーする方法もあります。検索結果や店舗ページから手動でデータをExcelなどにまとめる方法です。ただし、大量のデータを扱うには非効率であり、時間がかかる点がデメリットです。3. スクレイピングツールの利用   プログラミングに慣れている場合、Pythonのライブラリ(例:BeautifulSoupやScrapy)を使ってGoogleマップのウェブページからデータを抽出することも可能です。ただし、この方法はGoogleの利用規約に抵触する可能性があるため、慎重に行う必要があります。注意点- 利用規約の遵守  Goo
0
カバー画像

DMMのAPIを簡単に加工♪大量データインポート★完成★

◆サンプル動画をどうぞ◆※もしこのVBAを使用後に出来るCSVが見たい方は質問ページや商品ページ等から声を掛けてくださいサンプルCSVファイルをお渡ししますついに完成しました!↓ ↓ ↓ ↓ ↓ ↓ ↓これを使えばDMM・APIのxmlデータをCSVに加工してくれます!100~1000作品程度のデータを一挙ずらり!そしてワードプレスとの相性抜群です『Import any XML or CSV File to WordPress』を使ってる方でDMMアフィリエイトで大量記事生成をしたい場合はお勧めです♪とくに作品の『スタート時間とエンド時間』を設定できる点が便利例えば、2025.7.1 0:00 ~ 2025.8.1 0:00 と投稿時間を決める事が出来ますそしてその間の時間を作品数で均等に割った時間を表示しますので大量投稿の設定をすると朝も昼も夜も自動でアップできますよ!『Scheduled Post Trigger』と言うプラグインもセットで入れておけば時間が来た時の投稿忘れも自動でやってくれます先程挙げた2つのプラグインは無料機能でも動作します(2025.6.10時点確認)また、SEO対策も織り交ぜればなおグッド★Twitter(X)に記事を紹介したりブログランキング等で記事投稿を周知させるとアクセス数引き込みのサポートにもなります特にSEO対策が得意な方は効果を発揮するでしょう!さぁあなたもDMMの商品の大量記事生成をやってみませんか?もし気になった方はこちらからどうぞw↓ ↓ ↓ ↓ ↓ ↓ ↓◆Twitter(X)のアクセス稼ぎのサポートツールはいかが?
0
カバー画像

DMMのAPIを簡単に加工♪大量データインポート★6 記事

先週、もう少しと思っていたのですがワードプレスにアップ作業中に別の問題が発覚し、修正作業に追われてましたwおそらくこれで問題を潰し、現在は紹介する為の動画の大枠の作成に取り掛かっております動画編集は去年の暮れで人生初でしたので熟練も浅いですが何とか作成しております多分今週中(また詐欺か?)に販売したいと思ってます◆ このツールをおすすめの方の条件や概要 ◆ 1:DMMのAPIでアフィリエイトしてる方 (またはしたい方) 2:ワードプレスを使う方 3:HTML・CSSに理解のある方 ◆ 何ができる? ◆ APIデータを法則に従って大量のデータをCSV化します なのでブログ記事をパターン的に大量に上げたい方です また本ツールは『VBA』です 私はこのツールを使い、大量のDMM商品の記事を作成し 利益を上げました ただこのツールだけ使えば良いってものでは当然ありません SEO対策を理解できている(アフィリエイター等)にはおすすめです すでにアクセス数を稼いでいるブログ・ホームぺージ等や 何らかのSNSとかです おそらくそういうところからアクセスを稼げると早いと思います 完成はもう少し掛かりそうですが興味のある方はお待ちください※Twitter(X)のトレンドワードを楽々入手! Twitterに発信はもちろん、 トレンドワードの動向チェックにも使えます!#DMMアフィリエイト #CSV #API自動化 #WordPress投稿 #VBAマクロ #APIデータ取得 #XML解析 #CSV整形 #アフィリエイト戦略 #WordPress連携 #自動投稿ツール運用術 #データ収集 #自動化設
0
カバー画像

DMMのAPIを簡単に加工♪大量データインポート★5

先週は私事が立て込んでいてVBAツールの作成はほぼ手が付けられませんでした・・昨日日曜日、ようやく少しの作業の手を進め最終段階のチェックを終えました動作自体は問題ない為最後に注意事項や説明書等の周辺の肉付け作業だけとなりました完成自体は間近ですが、こういう作業は初めてなのでもう少しだけは時間掛かりそうです初回の販売はできれば(何事もなければ)今週中にはしたいと思ってますが・・◆ このツールをおすすめの方の条件や概要 ◆1:DMMのAPIでアフィリエイトしてる方 (またはしたい方) 2:ワードプレスを使う方 3:HTML・CSSに理解のある方 ◆ 何ができる? ◆APIデータを法則に従って大量のデータをCSV化しますなのでブログ記事をパターン的に大量に上げたい方ですまた本ツールは『VBA』です私はこのツールを使い、大量のDMM商品の記事を作成し利益を上げましたただこのツールだけ使えば良いってものでは当然ありませんSEO対策を理解できている(アフィリエイター等)にはおすすめですすでにアクセス数を稼いでいるブログ・ホームぺージ等や何らかのSNSとかですおそらくそういうところからアクセスを稼げると早いと思います完成はもう少し掛かりそうですが興味のある方はお待ちください※Twitter(X)のトレンドワードを楽々入手! Twitterに発信はもちろん、 トレンドワードの動向チェックにも使えます!#DMMアフィリエイト #CSV #API自動化 #WordPress投稿 #VBAマクロ #APIデータ取得 #XML解析 #CSV整形 #アフィリエイト戦略 #WordPress連携 #自動投
0
カバー画像

DMMのAPIを簡単に加工♪大量データインポート★4

初回のツールがほとんどできました!1~2週間前には使うだけなら出来てたのですが、販売する前にツール全体の整然化や本当にトラブルはないの?って事で嫌だけどもう一度作成(リメイク?)する事に決めましたいや、疲れた・・結構おかしな点を発見し、改良そして使いやすさや機能面も整えました近々発売はしたいと考えてますこの手の下準備が出来る方はお勧めですかね1:DMMのAPIでアフィリエイトしてる方(またはしたい方)2:ワードプレスを使う方3:HTML・CSSに理解のある方4:大量記事を楽に生成したい方5:本ツールはVBA6:SEO対策等が判る方大体こういった点がある方にはお勧めです或いはこういう方向性にチャレンジしたい方等です本ツールはあくまで記事の大量生成を楽にするツールであってそれだけで稼げるものではない事を理解して欲しいです当然ですがSEO対策で1昔前とは違い今はSNSが発展しておりそこから流入できるかどうかが勝負のカギとなるでしょうDMM商品等のアフィリエイトをしてる方、考えている方は是非検討をヨロシクお願いします!※Twitter(X)のトレンドワードを楽々入手!Twitterに発信はもちろん、トレンドワードの動向チェックにも使えます!#DMMアフィリエイト #CSV #API自動化 #WordPress投稿 #VBAマクロ #APIデータ取得 #XML解析 #CSV整形 #アフィリエイト戦略 #WordPress連携 #自動投稿ツール運用術 #データ収集 #自動化設定 #インポート処理 #CSV編集マスター
0
カバー画像

DMMのAPIを簡単に加工♪大量データインポート★3

https://coconala.com/mypage/blogs/edit/566001一旦荒削りでの完成はしました!あちこちギコちない面々があり、これらの修正作業をこれから始める感じですと言っても、また1から作り直しと言うかリメイクと言うかと言った感じですねDMMのAPIデータを大量に処理できるVBAですが一番の目的は何と言っても『時短』に付きますそしてワードプレスとHTMLの経験がある方はAPIデータにあるお決まりのタグのデータをHTML文で組み替えるだけでパターン通りの記事を大量生成可能ですでは作業に取り掛かります・・いつできるか分かりません、すみません・・#DMMアフィリエイト #CSV #API自動化 #WordPress投稿 #VBAマクロ #APIデータ取得 #XML解析 #CSV整形 #アフィリエイト戦略 #WordPress連携 #自動投稿ツール運用術 #データ収集 #自動化設定 #インポート処理 #CSV編集マスター
0
カバー画像

DMMのAPIを簡単に加工♪大量データインポート★

※2025.4.25 22:30頃昔も今も価値があるものの一つ・・それは『時間』DMMにはAPIデータと言うものがあり大量の商品のデータが載ってますこのデータを加工して自分なりに使いやすいデータを作り、それを何らかに使う・・よくあるパターンの1つはやはりワードプレスに大量にデータを載せる!これが王道です私はDMMのAPIのデータを加工し、ワードプレスに大量のデータを突っ込んで記事を大量生産し、利益を上げていますSEO的な事もあってすぐに成果は発生しませんでしたが長くやってるとGoogle先生も認めてくれ、成果は出るものです・・ただこのDMM・APIデータは1:DMM・APIデータを意味を知ってる人2:ワードプレス3:HTMLの知識これくらいは最低限必要です1に関してはDMMの説明書きに目を通すしかありませんが(そもそもそれを何ひとつ理解してないのは流石にです)2と3がある方にはお勧めですねAPIデータを・・VBAで必要なデータを裁いてしまいましょう♪例えば・・タイトル・トップ画像・サンプル画像・タグこれら使って後はHTMLを使い、当てはめる場所や全体の設計を行いましょう例えば・・1000作品あるとして、1つの作品にその設計をやれば残りの作品も全てその型の通りに!ただ、私の気力が弱弱しいので完成はいつになるか分かりません気力があればまたご報告しますね・・#DMMアフィリエイト #API連携 #CSV出力 #WordPress自動投稿 #VBA自動化 #データ取得 #DMM同人 #CSV整形 #アフィリエイト収益化 #WordPress連携 #自動化ツール #VBAマクロ #A
0
カバー画像

noteでホットペッパービューティーのサロンデータの販売を開始! - 業務効率化の記録 #19

以前書いたブログにて美容サロンデータの収集を行っている状態なのですが、その成果物を販売することになりました。販売場所はnoteなのですが、エリア別に1記事で分けています。現座時点で北海道、青森県、岩手県エリアの3つですが順次収集予定です。興味ある方は覗いてほしいです。なお、ご要望があれば出来る限り優先して取得して収集する予定です。(詳細はポートフォリオにも記載しております)急ぎやカスタマイズ要望などあればいつも通り、以下のサービスからお問い合わせいただければと思います。データを収集する際に違法となる場合は、お断りさせていただきますのでご了承ください。最後まで見ていただき、ありがとうございました!
0
カバー画像

PythonとOctoparseを徹底対決!どちらがあなたのデータ収集に最適?

1. はじめに1.1. データ収集の重要性 最近のデジタル化が進む中、私たちの生活はデータに根ざしたものになっています。ビジネス界では、データ駆動型社会の重要性が増し、決定の根拠をデータに依存する企業が多くなっています。マーケットコンディションを把握し、顧客のニーズを理解するためには、効果的なデータ収集の手法が必要不可欠です。 データ収集は、ビジネスの意思決定、製品の改善、競争優位の確立など、多くの面で役立ちます。データを活用することで、企業はリソースを効率的に配分し、ROIを最大化することが可能です。研究分野においても、データは新しい発見を支える基盤となります。 1.2. この記事の目的 この記事の目的は、PythonとOctoparseという二つの異なるデータ収集ツールを比較することです。それぞれの特性を理解することで、読者が自身のニーズに適したツールを選択する助けとなるように解説いたします。 2. スクレイピングとは? 2.1. スクレイピングの基本概念 スクレイピングとは、特定のウェブサイトから情報を自動的に収集する手法を指します。これにより、手作業では不可能な量のデータを効率的に収集することができます。スクレイピングは、自動的にページを巡回し、指定したデータを抽出することが一般的です。 2.2. スクレイピングの一般的な用途 スクレイピングは様々な分野で利用されています。例えば、Eコマースの分野では、価格や商品情報を収集することで競合分析が可能になります。また、市場調査では、消費者のフィードバックやトレンドを確認するためにスクレイピング技術が使われます。その他にも、学
0
カバー画像

ホットペッパービューティーのサロンデータをプログラムで自動取得 - 業務効率化の記録 #18

データ取得先ホットペッパービューティー取得データの詳細・ショップID・店舗名・詳細店舗名・カテゴリー・電話番号・住所・営業時間・定休日・支払方法・設備・スタッフ人数・こだわり条件・備考・その他・口コミ数・星評価・取得日・更新日取得方法スクレイピング結果取得したデータです。所感・まとめホットペッパービューティーのデータは元々取得はしておりましたが、今回項目を増やすためにプログラム修正をしました。定休日やこだわり条件なども取得したので、より精度高く抽出も可能になるかと思います。販売促進用のサイトも作成検討中なので進めていきたいと思います。ホットペッパービューティーのデータは一部販売中ですが、これらのデータはまだ取得中なので販売はしておりません。必要な方はお問い合わせください。データを収集する際に違法となる場合は、お断りさせていただきますのでご了承ください。最後まで見ていただき、ありがとうございました!
0
カバー画像

Pico W と Pydroid 3 で socket 通信

まだ実験的な取り組みですが、Raspberr Pi Pico W (MicroPython) と Pydroid 3 を使って socket 通信を試しています。文字列(コマンド&レスポンス)の送受信の他、ファイル転送が出来ています。そして、Pydroid 3 を使う Android で WiFiテザリングを行い、そのLAN内で Pico W とアクセスポイントの Android 間で socket 通信が可能でした。WiFi環境の無い現場で Pico W を使ってセンサーデータを取得して保存し、定期的にAndroid を持ったスタッフが現場に来てテザリングをONにしてPydroidアプリを実行すれば保存されたセンサーデータをまとめて Android に転送することが出来そうです。Android に取り込んだデータをその場でグラフ表示したり、クラウドにアップしたりが可能になると思います。用途測定値に基づくリアルタイムの発報は出来ませんが、WiFi の無い環境でのデータ収集や、一時的なロギングなどに使えると思います。Pico W の RTC は電源が切れるとリセットされてしまいますが、Android との通信時に時刻を取得して使えば測定時刻も記録出来ると思います。Pydroid 3 を使うことで、アプリケーションに応じてセンサー類の数やサンプリング周期、データの取り扱い方法など柔軟に対応出来る利点があると思います。今後の予定当面はお金を掛けずに実験を行うため、ハードウェア製作なしで Pico W 内蔵の温度センサのログを収集してグラフ表示するようなものを自主制作したいと考えていま
0
カバー画像

楽天市場から出店企業情報をプラグラムで自動取得 - 業務効率化の記録 #14

データ取得先楽天市場取得データの詳細・会社区分・会社名・郵便番号・住所(都道府県)・住所(市区町村)・住所(その他)・電話番号・FAX・代表者・責任者・メールアドレス取得方法スクレイピング結果会社IDは楽天市場で管理しているIDです。所感・まとめある程度綺麗に取得できそうです。多少手を入れながら修正していくと販売まで漕ぎ着けることができると思います。ここからさらにデータ付与を考えていて、取扱いジャンルを企業ごとに把握できるようにすることです。この会社はレディースファッションを扱っている、こちらの会社ではレディースファッションと食料品を扱っているなどです。データを収集する際に違法となる場合は、お断りさせていただきますのでご了承ください。最後まで見ていただき、ありがとうございました!
0
カバー画像

お客様のリアルな声とは?

みなさん、こんにちは!ブレラビです😊今回はSNSアカウントリサーチ代行サービス内のお客様の感想をご紹介します!実際に出品ページ下部にも掲載されていますので、よろしければご覧ください。こちらのSNSアカウントリサーチ代行ではInstagramやX(旧Twitter)、TikTokなどのSNSアカウントをリサーチする作業を代行します。ご要望により、特定の地域や年齢層、業種などを絞ってリサーチし、Excelやスプレッドシートにリスト化します!特定の条件のアカウントを見つける方法がわからない方やそのリサーチ時間を省略したい方などにおすすめのサービスです!お客様の声男性①:「迅速にご対応をいただくことができました。ご対応いただきありがとうございました!」こちらのご依頼ではInstagram内の旅行業種のアカウントをリサーチしました!企業様①:「2回目の依頼でしたが、今回も丁寧・スムーズにご対応頂けました。また何かありました際にはご相談させて下さい。ありがとうございました。」こちらのご依頼ではX(旧Twitter)内の特定のアカウントのコメントからアカウントを収集しました!企業様②:「丁寧に対応いただけました!」こちらのご依頼では事業内容のPRをするにあたって、そのPRアカウントをInstagram内でリサーチしました!デザイナー様:「とても手間のかかる調査依頼でしたが快く対応してくださり大変助かりました。対応は迅速丁寧でとても助かりました。ありがとうございました。」こちらのご依頼では特定のサイト内において、特定の商品を販売しているショップ様をリサーチし、その商品数に応じてランキングを作成
0
カバー画像

インスタグラムでアカウントを収集してみた - 業務効率化の記録 #12

データ取得先インスタグラム取得データの詳細・取得日・アカウントURL・アカウント名・フォロワー数・フォロー数・投稿数・紹介文フォロワー数などは取得日時点の数値になります。取得方法APIなど完了までに要した時間5時間以内結果(csv)所感・まとめインスタグラムにてAPIなどを利用してアカウントを取得してみました。アクセスの制限等がありますが、ハッシュタグを利用して投稿からアカウントを取得していくプログラム。ちなみに画像にあるアカウントリストは「#レシピ」のタグから蓄積しています。フォロワー数も取得しているので使えそうです。このようなデータ収集や加工にご興味あればご相談をしてくださればと思います。データを収集する際に違法となる場合は、お断りさせていただきますのでご了承ください。最後まで見ていただき、ありがとうございました!
0
カバー画像

YouTube動画を独自に文字起こししてみた - 業務効率化の記録 #11

データ取得先YouTubeの任意の動画※著作権の扱いはご注意ください取得データの詳細動画で話された言葉のテキスト化取得方法無償提供されているライブラリを使用してプログラム作成完了までに要した時間3時間以内結果(csv)所感・まとめYouTube内で文字起こし自体は機能としてありますが、それを活用しやすくする為に独自に作成してみました。完璧に解析できてはいないですが、これができるとクワウドソーシングでも引き受けられそうです。仕組みとしては以下です。備忘録です1. 動画ファイル(今回は10分以上の動画)を1分動画に分割2. 分割した動画をそれぞれ解析用ファイルに変換3. 解析用ファイルに対して文字を取り出してデータに落としこむなぜ1分動画に分割するのかは、使用しているライブラリ制限で分割しています。ちなみに有償なら長い動画もぶんかつせずにいけますまぁ難しいこと書きましたが結果うまくいきました。精度に関しては弱い部分があるので最終的に人間がみないといけないですねこのようなデータ収集や加工にご興味あればご相談をしてくださればと思います。データを収集する際に違法となる場合は、お断りさせていただきますのでご了承ください。最後まで見ていただき、ありがとうございました!
0
カバー画像

総務省のPDFを読み取って固定電話の簡易ツール作成 - 業務効率化の記録 #10

データ取得先総務省 電気通信番号指定状況取得データの詳細・番号区画コード・番号・市外局番・市内局番・事業者・使用状況・備考取得方法プログラムでPDF読み込み完了までに要した時間1時間以内結果(csv)結果(スプレッドシート)上記のcsvを活用して固定電話番号情報を取得したのと同時に電話番号を入力するとキャリア事業者が出てくるツールを作りました(めちゃ簡易的ですね)所感・まとめデータ自体は総務省なので活用しがいのあるツールかなと思います。実際に固定電話からキャリアを取得するWebサイトもあるようで、それを元に簡易的にスプレッドシートで作れました。携帯電話番号はどうキャリア判定してるんですかね。手が空くかご要望あれば調べたいと思いました。このようなデータ収集や加工にご興味あればご相談をしてくださればと思います。データを収集する際に違法となる場合は、お断りさせていただきますのでご了承ください。最後まで見ていただき、ありがとうございました!
0
カバー画像

iOSアプリの一覧をプログラムで取得 - 業務効率化の記録 #9

データ取得先App Store - Apple(日本)取得データの詳細・対象年齢・アプリ名・サブタイトル・開発者・ストア内順位・ストア内星評価・有料か無料かなど取得方法秘密完了までに要した時間3時間以内結果(スプレッドシート)csv出力したものを見やすくしています所感・まとめアプリ一覧がないので全て網羅して取得することは不可能である。ただし、サイト全体をクロールすることでできる限りアプリ一覧を取得することを目指した。今回ブログのために100アプリ程度の取得であるが、随時クロールし続ければ立派なアプリ一覧が完成できる見込みであるこれ、、、広告代理店さんとか営業リストで活用できませんか?このようなデータ収集や加工にご興味あればご相談をしてくださればと思います。データを収集する際に違法となる場合は、お断りさせていただきますのでご了承ください。最後まで見ていただき、ありがとうございました!
0
カバー画像

内閣府登録のNPO法人をプログラムで取得して地図にピン! - 業務効率化の記録 #8

データ取得先内閣府NPOホームページ取得データの詳細全国や各都道府県ごとにCSVが用意されていたのでそちらをダウンロード。ただしデータが大量だったので、大阪府限定・現在稼働中のNPOを取り出しました・取得日・郵便番号・都道府県・主住所・NPO名称・責任者・設立日・目的(定款)取得方法データ加工・地図にピンできるサイト完了までに要した時間2時間以内結果(csv)csv出力結果です。結果(地図ピン)利用サイト:Leafletで地図に複数の住所を一括表示所感・まとめ全国に約10,000のNPOがあるようでした(清算も含む)そもそもNPOが何をしているのかも、必要なのかわかりません。節税のためなのでしょうか。こんな増殖状況のNPO団体の増加を見ていただきたく今回まとめました。地図は191ピンあります。これは、大阪府のみ、かつ、令和(2019年5月1日)以降に設立した団体です。めっちゃ多い(気がする?)このようなデータ収集や加工にご興味あればご相談をしてくださればと思います。データを収集する際に違法となる場合は、お断りさせていただきますのでご了承ください。最後まで見ていただき、ありがとうございました!
0
カバー画像

日本企業の株価情報をプログラムで取得 - 業務効率化の記録 #7

データ取得先秘密取得データの詳細・取得日・始値・高値・安値・終値・出来高・調整後終値取得方法スクレイピング完了までに要した時間3時間以内結果(csv)csv出力結果です。今回は2023年から現在までの約1年と少しのトヨタ自動車株式会社における日足データを取得。本来株価は数十年分のデータ量となるため、1年ちょいでやめました。さらに下位足だとより多くなりますねおまけ結果(グラフ)所感・まとめ1社だけ、日足データでさえもかなりのデータ量になりますね。保有するのであればデータベース管理にはなりますが、単純に株価の推移をみたいだけであれば沢山対応しているサイトがあるので便利な社会です。独自に調査する場合は管理方法含めて熟考するべきかなと。あとはPDF管理の決算書等も解析できるようプログラムを組むのもいいかもしれません。このようなデータ収集や加工にご興味あればご相談をしてくださればと思います。データを収集する際に違法となる場合は、お断りさせていただきますのでご了承ください。最後まで見ていただき、ありがとうございました!
0
カバー画像

Google検索結果一覧をプログラムで取得 - 業務効率化の記録 #6

データ取得先Google検索結果画面取得データの詳細・取得日・検索キーワード(KW)・順位・タイトル・ドメインURL取得方法スクレイピング完了までに要した時間3時間以内結果(csv)csv出力結果です。キーワード(KW)に対して1ページ目検索結果状態を取得しました。取得したURLはドメインですが、詳細URLではありません。どちらも取得はできますが今回はドメインのみ。所感・まとめGoogle検索結果の情報を取得しましたが、YahooでもBingでも可能かと思います。また検索結果以外のTwitter表示やナレッジパネル、画像や動画のタブページなどの結果画面でも同様に取得可能です。サジェスト等も取れるのでときをみてトライしてみようと思っていますこのようなデータ収集や加工にご興味あればご相談をしてくださればと思います。データを収集する際に違法となる場合は、お断りさせていただきますのでご了承ください。最後まで見ていただき、ありがとうございました!
0
カバー画像

一般社団法人ってなに?一覧をプログラムで取得 - 業務効率化の記録 #5

データ取得先秘密取得データの詳細法人名称、法人住所取得方法スクレイピング完了までに要した時間2時間以内結果(csv)csv出力結果です。東京都新宿区の一般社団法人を抽出しました。取得先は内緒で、収集件数も具体的には言いません。新宿だけでも数千は存在していました。所感・まとめ昨今の住民訴訟案件や医療事故の増えてきた一般社団法人。監督官庁がなく各都道府県の届出で設立できてしまう、謎で怪しい組織。監督官庁がないため収集は厄介でしたが、今プログラムでは全国の一般社団法人を取得できるようになりました。必要な方いますかね?っていう、すごく数があるんだけど、必要なのかなぁ・・・このようなデータ収集や加工にご興味あればご相談をしてくださればと思います。データを収集する際に違法となる場合は、お断りさせていただきますのでご了承ください。最後まで見ていただき、ありがとうございました!
0
カバー画像

Amazonセラーアカウントから詳細情報をプログラムで取得 - 業務効率化の記録 #4

前回のASIN取得からの続きデータ取得先Amazon US(米国🇺🇸)のセラーアカウント個別ページ1. こちらはレビューや出品国などの詳細情報を取得2. こちらは出品数を取得取得データの詳細セラーアカウントに紐づく取得時点のレビュー状態、評価%、30日間のレビュー数、90日間のレビュー数、1年間のレビュー数、全期間のレビュー数、出品国、出品数取得方法秘密完了までに要した時間2時間以内結果(csv)csv出力結果です。約300のセラーアカウントが対象となっています。出品国に関してはJPが多いのはセラーアカウントを取得するする際に、japanで検索したASINから、セラーアカウントを収集したため。大体20分くらいで処理完了しました!今回はcsvだと見づらくなるため、Googleスプレッドシートで表示させています所感・まとめAmazon販売やECサイト販売をされている方にはお馴染みのレビューや出品数を取得してみました。基本表示されているものは取得できるので、セラーリサーチが捗るかと思われます。個人的には出品国の判断がつけられるのがいいかと思っています。データをデータベース管理するとなるとさらに爆速化できそうですが。このようなデータ収集や加工にご興味あればご相談をしてくださればと思います。データを収集する際に違法となる場合は、お断りさせていただきますのでご了承ください。最後まで見ていただき、ありがとうございました!
0
カバー画像

Amazonセラーアカウントをプログラムで取得 - 業務効率化の記録 #3

前回のASIN取得からの続きデータ取得先Amazon US(米国🇺🇸)の個別商品ページ個べう商品ページに飛ぶと複数セラーが競い合って出て狂うかと思います。カートとなっているセラーさんだけはなく、出品している競合セラーさんも全て引っこ抜きます。※以下はページ例です取得データの詳細Amazon USに個別商品に出品しているセラーアカウントID取得方法秘密完了までに要した時間1時間以内結果(csv)csv出力結果です。取得項目は、セラーアカウントのIDのみとなります。300個のASINを調べて、2時間くらいの処理で大体300個のセラーアカウントIDを取得できました!当然重複削除はしています所感・まとめ Amazon販売やECサイト販売をされている方にはお馴染みのセラーアカウントのIDを根こそぎ取得してみました。前回ブログで得た300のASINから取得しており、このIDから出品数や出品国、レビュー状態などもとれる準備ができました!それらに関しては随時アップしたいと思います。このようなデータ収集や加工にご興味あればご相談をしてくださればと思います。データを収集する際に違法となる場合は、お断りさせていただきますのでご了承ください。最後まで見ていただき、ありがとうございました!
0
カバー画像

Amazon商品一覧からASINをプログラムで取得 - 業務効率化の記録 #2

データ取得先Amazon US(米国🇺🇸)の何かしらの商品一覧ページ◼️Toys & Games ∟ Arts & Crafts Supplies ∟ Baby & Toddler Toys ∟ Building Toys ∟ Collectible Toys ∟ Dolls & Accessories今回は上記ページで商品価格の高い順で取得。特に米国サイトだけが対象ではなく、日本はもちろん、カナダやメキシコなど全てが対象です。各ページ3ページ目まで取得するようにします取得データの詳細Amazon USに出品されているASIN取得方法秘密完了までに要した時間30分以内結果(csv)csv出力結果です。取得項目は、ASINのみとなります。5カテゴリー、各3ページ目まで取得して、10分くらいの処理で大体300個のASINを取得できました!当然重複削除はしています所感・まとめAmazon販売やECサイト販売をされている方にはお馴染みのASINを取得してみました。今回は単純な一覧からASINを取り出しましたが、私の持っているプログラムでは、この商品に基づいた人気商品やサイズやカラバリなどのASINを根こそぎとれるものもあります。それらに関しては随時アップしたいと思います。このようなデータ収集や加工にご興味あればご相談をしてくださればと思います。データを収集する際に違法となる場合は、お断りさせていただきますのでご了承ください。最後まで見ていただき、ありがとうございました!
0
カバー画像

気象庁から気象データをプログラムで取得 - 業務効率化の記録 #1

データ取得先国土交通省 気象庁Japan Meteorological Agency取得データの詳細日本 🇯🇵 北海道 / 十勝地方 ぬかびら源泉郷日本 🇯🇵 東京都 / 練馬地点日本 🇯🇵 沖縄県 / 那覇地点それぞれ1978年〜2024年6月(約46年間分)の平均気温(℃)を取得。データ出力はCSVで、本ブログではグラフを表示させてみることにする取得方法Pythonによるスクレイピング完了までに要した時間計2〜3時間結果(csv)csv出力結果です。取得項目は、取得日、都道府県コード(全国共通かどうかは調べてない)、エリアコード、年、月、平均気温となります。表示されているの44の1002は、東京都 / 練馬地点を意味している結果(グラフ)Googleスプレッドシートで実装してます。表示されましたが、まぁ気温のデータなので大したグラフにはならないですね。所感・まとめ時間別、日別データによって取得できるものが違ったので、取得データは、約46年の日別の平均気温データで統一してみた。収集自体は問題なくできて、かつ、グラフ化もスムーズに行えた。厄介な部分としては、エリアによって地味に表示されている内容が異なっている場合があった。今回はそこは統一したため楽をして終わらせたこのようなデータ収集や加工にご興味あればご相談をしてくださればと思います。データを収集する際に違法となる場合は、お断りさせていただきますのでご了承ください。最後まで見ていただき、ありがとうございました!
0
カバー画像

netkeibaからデータを取得する【第4回】pythonスクレイピング

netkeibaからデータを取得するの第四弾です。 といっても 一回目でレース日程とレース一覧 二回目で出走表と結果 三回目で競走馬情報 を取得してきましたので、基本的な分析データは集まったと言えるので正直あまりやることはなく 今までのデータを一活取得するツールを作成したので、よろしくといった記事です。 フローを書くと 1.指定した開始日と終了日からレースが行われている日程リストを取得 2.1から開催日のレース一覧を取得 3.2から特定のレースの出走表または結果を取得 4.3から出走している競走馬のプロフィールや過去成績のデータを取得する といった流れです。詳しくは前回の記事を参照ください。注意点などは前回の記事に記載しています。 またサンプルのexeファイルを配布しています。商品ページに載せておきます。(※もしサイズや拡張子的に載せられない場合は配布するのでお声掛けください) サンプルでは、実際取得可能な日程とレースは固定しておりますので、操作感を確認していただければと思いますので、よろしくお願いします。 次回は取得したデータを実際に分析する記事を作成しようと思います。 未定ですが、統計学の観点や機械学習を取り入れた分析入門的な記事が書ければと思っています。 以上
0
カバー画像

netkeibaから馬のプロフィールと過去成績を取得する方法【第3回】pythonスクレイピング

netkeibaからデータを取得するの第三弾です。 前回は取得済みのレース一覧または指定の日付範囲から出走表と結果を取得しました。今回は馬ごとのプロフィールと過去成績を取得していきます。競走馬のページを確認特定の馬のページは以下urlに’horse/{horse_code}/’という形でページ分けされています。 今回欲しい情報はページ上部中央のプロフィールとその下にある過去レースの成績一覧です。取得テスト前回のブログをご覧になった方なら、テーブル状になってるからpandasで簡単に取得できるかも!ということがわかるかもしれません。 試しにやってみましょう。 前回同様にdriverをgetするところからですfrom time import sleepimport pandas as pddriver = get_driver()# アーモンドアイのページを取得driver.get(r"/horse/2015104961") # 使用不可文字なのでドメイン部分を追記してくださいsleep(3) # 遅延data = pd.read_html(driver.page_source)取得したdataを確認しますこれをみると2つ目と5つ目を取得すれば問題なさそうですが、実はそう上手く行かず。。 というのも4つ目のテーブルを見てみるとこの受賞歴の欄は、優秀な実績を残した馬にのみ与えられる賞で、ほとんどの馬には存在しない欄なのです。 試しに重賞馬ではない他の馬を見てみましょう。この馬は現在2勝クラスで活躍中のエンプレスペイという馬です。 余談ですが、私がDMMの一口馬主で出資している馬なので
0
カバー画像

netkeibaから出走表と結果を取得する方法【第2回】pythonスクレイピング

netkeibaからデータを取得するの第二弾です。前回は指定の日付範囲から日程とレース一覧を取得しましたが、 今回は具体的な出走表と結果と払い戻しを取得します。 netkeibaには通常の結果とデータベースの結果ページが存在しますが、今回は前者をターゲットとします。対象ページの確認まずは出走表のページを見ると、レースIDが書いてます。そして結果ページも同様です。 レースIDは前回のレース一覧で取得済みです。(RIDという列名で保存してます) 出走表ページに戻って、欲しい出走表がどのように配置されているか開発者ツールで確認します。 するとテーブルになっているので、こういう時は便利なpandasを使いましょう。取得テスト前回同様にget_driver関数でドライバを取得し、出走表のURLを入力してdriver.get(url)します。 そして以下のようにpandasのテーブルタグを読みこんでデータフレームリストで返す関数を使用しますdata = pd.read_html(driver.page_source) len(data) # テーブルが何個読み取られたか # 5お目当てのデータは最初のリストに格納されていました。pandasを使用すると簡単に取得できますが、馬名に貼られているリンクは別途取得する必要があります。 今回は省略しますが、作成したツールの方では取得しています。出走表取得コードdef get_race_table(driver, race_id):     url = f"race/shutuba.html?race_id={race_id}" # 禁止文字列のた
0
カバー画像

面倒なことをお任せ!SNSアカウント収集代行サービス

SNS上でのターゲットを見つけるのは、非常に時間と労力を要します。しかし、今回ご紹介するのは、その問題を解決してくれます!ご紹介するのは、「アカウント収集代行サービス」です!Instagram、X(旧Twitter)、TikTok上の様々なジャンルや業種のアカウントを収集し、ビジネスや広報活動に役立てることができます。本サービスを利用することで、ターゲット層や業界、目的に合ったアカウントを収集できます。どんな方にこのサービスがおすすめなのか?1. リサーチの時間がない方 事業を運営する中で、リサーチに費やす時間は貴重です。アカウント収集を代行することで、時間を節約し、他の重要な業務に集中できます。2. どこからリサーチしていいかわからない方SNS上でのリサーチは、ある程度の知識と経験が必要です。代行してもらうことで、確実かつ効果的なデータ収集が可能です。3. 複数の参考アカウントが必要な方特定のテーマや業界に関連する複数のアカウントを必要とする場合、条件に合うアカウントを探すのは大変です。代行サービスなら、必要な数のアカウントを効率よく収集できます。4. 事業や企業などの広報活動をしてくれそうなアカウントをお探しの方広報活動に必要なアカウントを見つけることは、事業の成功に必要不可欠なものです。この代行サービスは、広報活動に最適なアカウントを収集します。5. アカウントの傾向を模索したい方特定のアカウントの傾向やトレンドを把握することはSNSや事業を運用していく上で大切なことです。6. 営業をするターゲットを探している方  営業戦略の一環として、DM送信をしたいアカウントを見つけ
0
カバー画像

PythonとBeautifulSoupを使ったWebスクレイピングの高速化:処理速度向上のコツと事例紹介

Webスクレイピングは、ウェブページから情報を抽出する技術です。PythonとBeautifulSoupを使用してスクレイピングを行うことで、効率的にデータ収集が可能になります。しかし、大量のデータを扱う際は、処理速度が重要な要素となります。本記事では、PythonとBeautifulSoupを使ったWebスクレイピングの高速化について、実践的なコツと事例を紹介します。 目次 1.PythonとBeautifulSoupの基本 2.処理速度を向上させるポイント 3.実践的な高速化テクニック 4.事例紹介 5.まとめ 1.PythonとBeautifulSoupの基本 Pythonは、シンプルで読みやすいコードが特徴のプログラミング言語です。Webスクレイピングには、PythonのライブラリであるBeautifulSoupがよく使われます。BeautifulSoupは、HTMLやXMLのパース(解析)を行い、データ抽出を容易にします。 2.処理速度を向上させるポイント Webスクレイピングで処理速度を向上させるためには、以下のポイントを考慮してください。 (1) スクレイピング対象のページ数を最小限にする (2) 不要なタグや属性を除外する (3) 適切なセレクタを使用する (4) マルチスレッドやマルチプロセスを利用する 3.実践的な高速化テクニック (1) ページ数の最小化スクレイピング対象となるページ数を減らすことで、処理速度が向上します。例えば、ページネーションを活用することで、一度に取得するデータ量を制限できます。(2) 不要なタグや属性の除外 BeautifulSou
0
カバー画像

Excel VBAとWebスクレイピングを組み合わせた自動データ収集・レポート作成の効率化

はじめに 近年、データ分析や情報収集が企業のビジネス戦略において重要な役割を果たしています。特に、Web上からデータを取得し、Excelで解析することは日常業務の一部となっています。しかし、データの取得や解析に手作業を要することは効率が悪く、時間の無駄です。そこで、Excel VBAとWebスクレイピングを組み合わせた自動データ収集・レポート作成の効率化を解説します。目次 1.Webスクレイピングとは 2.Excel VBAとWebスクレイピングの基本 3.データ収集の自動化 4.レポート作成の自動化 5.実践例 6.まとめ Webスクレイピングとは Webスクレイピングとは、Webサイトから情報を抽出し、構造化されたデータとして保存する技術のことです。HTMLやXML形式で記述されているWebページから、必要なデータを効率的に取得することができます。 【Excel VBAとWebスクレイピングの基本】Excel VBAを使ってWebスクレイピングを行う場合、以下の手順が基本です。 ①Webサイトへアクセスし、HTMLソースコードを取得する。 ②取得したソースコードから必要なデータを抽出する。 ③抽出したデータをExcelシートに書き込む。 データ収集の自動化 ①Excel VBAを使ってWebスクレイピングを行い、データ収集を自動化する方法を紹介します。まず、参照設定で「Microsoft HTML Object Library」と「Microsoft XML, v6.0」を有効にします。↓②次に、Webサイトへアクセスし、HTMLソースコードを取得するVBAコードを作成しま
0
カバー画像

Pythonで業務効率を爆あがり!?

最近リモートワークも定着し始めリモートワークでやることといえば書類整理やら報告書作成、簡単な作業ばかりでつまらなくないですか?特に単純作業なんていやですよね。そこでプログラミングができると業務効率を上げることができ、簡単な作業を手を動かすことなくできるのです!タイトルではPythonと書いていますが、ExcelであればVBAという言語で効率を上げることができるし、他の言語でも可能です!ではなぜPythonと書いているかというともちろん私が1番利用しているからというのもありますがその他にも理由はあります。・初心者でも始めやすい・理解がしやすい・パズル感覚でできる・分からないことは検索すれば出てくるなどの要素があり、おすすめなのです!この記事を読んでいる大半の方がプログラミングをあまり経験していない方が多いと思われるので自身で始める場合にもとてもおすすめなのです!業務効率を上げることができるのは・画像サイズの一括変更・データ収集・データ入力・コピーアンドペーストが多いもの・自動返信ツールなどなどこんなことに時間を使いたくないと思う単純作業の効率を上げることができるのです!私が得意としているのはWebサイトのデータ収集とデータ入力です!営業の方などは企業情報を収集したかったり、物販をやっている方はショッピングサイトやオークションサイトの情報をプログラム一本で何百件もの情報を収集したいと考えるはず。プログラマーではなくとも営業の方などがプログラミングを覚えるだけで自分の成績も上げると共に楽に仕事ができるようになります!ぜひプログラミングを始めて周りとの差を作ったり、業務効率をあげて見て
0
カバー画像

サービス紹介動画①:Amazon商品データの自動抽出

この度はYusa_0309のブログにお越しくださり、ありがとうございます!以下の動画では、Yusa_0309が提供させていただいているWebデータ収集サービスの一つである『Amazon商品データの自動抽出』をご覧いただけます。("Nintendo Switch"の検索結果10ページ分のデータを抽出しております。)本ツールは、Python (selenium/BeautifulSoup)を用いたブラウザの自動化・WebサイトのHTML情報の抽出、の二点をベースに動いています。本動画内で取得しているデータは、ページ番号・ASIN・商品名・価格・評価・在庫の有無の6つですが、お客様のご要望に応じて取得項目を追加することが可能です。お気軽にご相談ください!
0
カバー画像

食べログの飲食店情報をプログラムで自動取得 - 業務効率化の記録 #20

概要株式会社カカクコムが運営から取得した店舗・会社の情報収集をしてみました。営業リスト等を作成しているわけではなく、単に取得できるか確認したブログになります。取得データ店舗URL / 店舗名 / 最寄駅 / 住所取得方法スクレイピング結果(csv)営業リストの作成代行このようなデータ収集や加工にご興味あればご相談をしてくださればと思います。データを収集する際に違法となる場合は、お断りさせていただきますのでご了承ください。最後まで見ていただき、ありがとうございました!
0
カバー画像

企業のメールアドレスをプログラムで自動取得 - 業務効率化の記録 #17

データ取得先企業サイト取得データの詳細・メールアドレス取得方法スクレイピング結果B列がメールアドレスです。※メールアドレスの主用部分は「・・・」で目隠しをしております。所感・まとめ現在はWebトップページからのみ取得するようなプログラムのため、収集率は低いです。すべてのリンクからチェックも可能ですが現状かなり時間を要してしまうのでプログラムの改良は必須です。ただ、使えるプログラムなので活用していきたいです。要望あれば問い合わせください。データを収集する際に違法となる場合は、お断りさせていただきますのでご了承ください。最後まで見ていただき、ありがとうございました!
0
カバー画像

Pixiv(ピクシブ)画像をプログラムで自動ダウンロード - 業務効率化の記録 #16

データ取得先Pixiv取得データの詳細・画像(jpgやpngなど)取得方法秘密結果画像は載せられませんのでトップページを掲載します。ご了承ください。所感・まとめなかなか苦労した処理でした。出品者IDをもとに画像全て、新たに更新されたら自動でダウンロードできる仕組みを作ることができました。私的利用やAI解析用であれば収集のお手伝いをすることは可能ですので、詳細を載せておきます。データを収集する際に違法となる場合は、お断りさせていただきますのでご了承ください。最後まで見ていただき、ありがとうございました!
0
カバー画像

ヤフオフ画像をプログラムで自動ダウンロード - 業務効率化の記録 #15

データ取得先Yahoo!オークション取得データの詳細・画像(jpgやpngなど)取得方法スクレイピング結果画像は載せられませんのでトップページを掲載します。ご了承ください。所感・まとめ出品者IDがわかれば画像全て、新たに更新されたら自動でダウンロードできる仕組みを作ることができました。私的利用やAI解析用であれば収集のお手伝いをすることは可能ですので、詳細を載せておきます。データを収集する際に違法となる場合は、お断りさせていただきますのでご了承ください。最後まで見ていただき、ありがとうございました!
0
カバー画像

企業の問い合わせURLをプログラムで自動取得 - 業務効率化の記録 #13

データ取得先企業サイトなど取得データの詳細・問い合わせページのURL取得方法スクレイピング完了までに要した時間1時間結果C列が問い合わせURLです。所感・まとめ結果は、これから販売予定の歯科医院のリストから問い合わせURLを取り出しました。結果からわかるようにフィルタがかかっており、取得できなかったものは表示をさせていません。問い合わせURLの取得率をあげて実践でも利用できるように、プログラム改修をしていく予定です。要望あれば問い合わせください。データを収集する際に違法となる場合は、お断りさせていただきますのでご了承ください。最後まで見ていただき、ありがとうございました!
0
カバー画像

営業リストやデータ収集してデータ販売していこう

データ販売を近々始めたいと思っています趣味やインサイドセールス用の営業リスト用です。とはいえどんな営業リストが需要があるのかわかりませんコメントでご意見もらいたいのですが中々発信力がないので、ひとまず仮説立てて取得していく予定です。ご意見あれば是非よろしくお願いします!
0
カバー画像

スクレイピングはお任せください

Ruby・Pythonどっちの言語でもスクレイピングできます。WEBサイト形式でのスクレイピングツール、実行ファイルでのスクレイピングツール作成やCSVファイルやエクセルファイルでの納品も可能です。お気軽にご連絡ください。
0
カバー画像

ランキング上位1000アイテムのデータ収集を自動化

先日、とある顧客の方から受けた依頼で、ECサイトのランキング上位、1000アイテムのデータを自動収集してCSVにする機能を実装しました。・ URLを入力して、ボタンを押す・ 各商品の、商品名・カテゴリ・価格・商品説明などのリストが生成されるというものです。グーグルのスプレッドシート上に実装しました。誰でも簡単に操作できます。同様の案件、お受けすることが可能です。もしお困りでしたら、ご相談ください!
0
カバー画像

【AllExpress】アリエク用商品データ収集ツール アリエクスプレス

アリエクの商品データを収集出来るツールを別途作成しようか検討中。 いいねをくれた方か、ダイレクトメールくれた方で、かつ、バグ報告をしてくれる方にツールをプレゼントしようと思っています。(5名様ぐらいかな)とは言っても、あくまで需要があればですが…理由は、商品出品データ変換ツールのお仕事を、ご依頼して頂くお客様の中で、”変換元データがない”という方がいらっしゃったからです。さすがに、当方がリソースを使用し、API手続きだしてスクレイピングするのは・・・ちょっとね。いいねとか、頑張って作ってくださいとか、なにかしら、リアクション頂ければ、ちょっとやってみます。笑
0
43 件中 1 - 43