絞り込み条件を変更する
検索条件を絞り込む
有料ブログの投稿方法はこちら

すべてのカテゴリ

234 件中 1 - 60 件表示
カバー画像

AIで来るシンギュラリティーとは

 AIで来るシンギュラリティー、シンギュラリティーというが、何がどうなると思っているでしょうか。 画家やクリエーターの仕事がなくなるとか、いろいろ言われているけれどその実態とはどんなでしょうか。 さて私の宿曜占星を習い学んでくれる人が数人現われ、エクセルやパイソンでのプログラム化が大きく進んだ。私の頭の中にだけあった術だったが、一部宗教団体でもそれらを用いていた。具体的に言えば、オーム真理教や阿含宗だが、因縁を出して修行をするという主旨で使っていたようだ。そしてプログラム化もされていた。 しかしプログラムにするにしても、条件に接ぐ条件が重なって解読が複雑になって行く。一例を言えば、淵海子平の、空亡を天中殺というが、消えてなくなるという意味ではあるが、刑、合、冲などすれば再び現れるという変な理論だ。この空亡が、ろくでもない柱なら空亡してハッピーだが、刑合冲など解空して戻ってきたら帰ってきた暴れ柱になる。解空がいいか悪いかどんな柱かにもよるわけだ。 これら複雑な思考を吐き出していく一歩として、この老人も60の手習いでPythonで基本骨子を昨日一晩で書いてデバッグもおわった。眠くもならず寒いのに雨降って朝になり、もっとああしたいこうしたいと痒いところをいじりまわしてぐしゃぐしゃにしたりしてやり直す。 手習いとはだれに習うか。AIのチャットGPTだ。一発で暦の計算であることを読み取り、最適のプログラムを提案してくる。なるほど、AIの時代とはこういう時代か。もう老人が知恵を伝承する必要はない。自分でAIを使い知識をプログラム化して商品でも秘密の稼ぎマシーンでも思うように使っていくことが
0
カバー画像

Pythonでプログラムの画面をカスタマイズ(3)

今回は、pack(),grid(),place()の3つのメソッドのオプションについてご紹介します。■pack()メソッド pack()メソッドには、「ウィンドウのどこに置くのか」を指定するためのsideというオプションがあります。メソッドの引数に「side = 定数」と書くことで位置を指定できます。Tkinterでは、4つの定数を使って配置する位置を指定します。 ・tkinter.TOP ⇒上から並べる(デフォルト) ・tkinter.LEFT ⇒左から並べる ・tkinter.RIGHT ⇒右から並べる ・tkinter.BOTTOM ⇒下から並べる■grid()メソッド grid()はウィジェットを格子状に並べて配置するメソッドで、row(行)とcolumn(列)を指定する。例えば以下のようにコードを書くと、2×2でウィジェットを配置できる。~.grid(row=0, column=0)~.grid(row=0, column=1)~.grid(row=1, column=0)~.grid(row=1, column=1)■place()メソッド place()メソッドはxとy座標を指定してウィジェットを配置する。単位はピクセルを使用する。例えば以下のようにコードを書くと、ウィジェットを左上隅に配置できる。~.place(x=0, y=0)用途に応じて使い分けることができると非常に便利なメソッドです。次回は、ボタンがクリックされたときに処理を行う方法についてご紹介します。
0
カバー画像

Pythonでプログラムの画面をカスタマイズ(2)

今回もTkinterを使ったカスタマイズとして、ウィンドウにボタンを配置する方法をご紹介します。Tkinterには、ボタンやチェックボックスなどGUIアプリでおなじみの部品が用意されています。Tkinterでは、これらの部品のことを「ウィジェット」と呼び、次の3つのメソッドのいずれかを使ってウィンドウに配置します。その1:pack()を使ってウィンドウの上部から順番にウィジェットを配置その2:grid()を使ってrowとcolumnの位置を指定してウィジェットを配置その3:place()を使ってxとyの座標を指定してウィジェットを配置例えば、pack()メソッドを使ってコードを書くと以下のようになります。---------import tkinter as tk base = tk.Tk()  base.geometry('300x300')#変数 = tkinter.Button(親要素, text='ボタンに表示する文字列')button = tk.Button(base, text='ボタン').pack()base.mainloop()---------このようにコードを書くことでボタンを配置することができます。次回は、上記3つのメソッドのオプションについてご紹介します。
0
カバー画像

Pythonでプログラムの画面を作る方法

Pythonには、GUI(Graphical User Interface)のアプリケーションを作るためのライブラリが標準で用意されています。Tkinter(Tool Kit Interface)はインポートするだけですぐに使うことができます。例えば、シンプルなウィンドウを表示するコードは以下のようになっています。--------#tkinterをインポートしてtkという名前で使えるようにするimport tkinter as tk #Tkクラスをインスタンス化base = tk.Tk()#ウィンドウの状態を維持base.mainloop()--------これをベースとしていろいろなカスタマイズを施すことができます!
0
カバー画像

生体信号データは取った後の処理が大変 解析・分析にプログラミングは必要か?

医療系Pythonサポーター小倉です。医療系のPythonプログラミングについて相談を受けたり、開発をしたりしています。多くの医療職・医学系研究職の方々はバックグラウンドが医学であって情報処理を専門的には学んできてはいないと思います。ですが、いざデータ分析となると使い慣れない統計ソフトを使ったり、Excelで複雑な数式を書いたりとする方も多いでしょう。この記事ではそういった人たちにとってPythonというプログラミング言語がどのように役に立つのか簡単な紹介をしていきます。なお、Pythonプログラミングに関する相談・開発等については以下のサービスを出品中ですので参考にしてください。1.学会・研究会・論文などの学術発表において必要なものとは?臨床しかやっていない人であっても職場の方針などによっては、学会・研究会へ参加・発表したりすることもあるでしょう。さらには論文を書く人も中にはいます。さて、では学会・研究会・論文でデータを提示するわけですが、どのように提示したら良いでしょうか?パッと思い付くだけでも以下のスキルが必要になることは理解できるかと思います。 ・データの整理 ・データ処理・分析(統計解析など) ・データの可視化(グラフ化)一言で言うなれば「データを扱う技術」ですね。単純なものであればExcelで十分でしょう。使い慣れたExcelなどのソフトであれば、それほど苦も無く作業できそうですね。しかし、Excelでできることは限られています。複雑なことができないわけではありませんが、ある一定レベル以上の作業になると多くの場合、Excelなどのソフトは使われなくなります。では何が
0
カバー画像

業務プロセスを自動化して開発環境構築を1クリックで完了

フリーランス歴1年が経過したこともあり、業務プロセスの自動化を進めています。 最近、特に開発環境の構築プロセスに注目し、1クリックで完了できるようツールの開発を行いました。開発環境の詳細は省略しますが、コードの管理が必要な場合はgithubを利用しています。githubへはAPIを利用して、新規リポジトリの作成と最初のプッシュを自動で行うようにしています。以下に具体的なステップをご紹介します。使用方法1. プロジェクトの設定 まずはプロジェクトの詳細を入力します。プロジェクト名に入力された内容は、仮想環境の名前、GitHubのリポジトリ名に利用されます。そのほか、ファイルを管理するフォルダの指定など、プロジェクトに必要な情報を入力します。2. テンプレートファイルのコピー ファイルのテンプレートを用意してあるものは、事前に用意されたテンプレートファイルを指定したフォルダにコピーします。3. 仮想環境の構築 Pythonを使用する場合は、仮想環境の構築も自動で行います。これにより、プロジェクトごとに異なる環境を簡単に構築できます。 4. GitHubへの登録 初期ファイルが整ったら、GitHubでリポジトリを作成し、初版として登録します。このプロセスの自動化によって、案件の種類に関係なく、1クリックでプロジェクトの準備が整います。作業ミスも少なく、効率的に仕事に集中できるようになりました。特に受注している案件自体がそれほど規模が大きくなく、案件数が多い場合にはこれらの作業の工数が減らせるので大きく効果があると思います。
0
カバー画像

Googleカレンダーの予定から空き情報を取得するツールの開発

私は個人用とビジネス用の2つのGoogleアカウントを使い分けています。基本的に予定はGoogleカレンダー上で管理しており、仕事の打ち合わせの日程を調整する際にこちらの候補日時を伝える機会が多く、毎回Googleカレンダーを確認する手間がかかっていました。そこで、今回の機能を開発してみました。気になる方、ご質問などあれば、メッセージにてご連絡いただけますようお願いいたします!!ツールの実装内容このツールでは、Pythonを使用してGoogleカレンダーにアクセスし、複数のアカウントから予定を取得することができます。取得した予定から、前後30分に予定があるかどうかを確認し、営業時間内でかつ土日祝日や休日でない場合の空き情報を抽出します。 アカウントや、営業時間、休日などは設定ファイルを用意しているので、適宜利用者に合わせて動作させることが可能です。使用方法使用するケースはいくつか考えられるので、まずは下記の2つの方法で実装しました。Windowsの実行ファイルから取得この機能を利用するためにPythonの実行ファイルを作成し、実行すると結果がクリップボードにコピーされます。 Chromeの拡張機能から取得また、ブラウザ上でも利用できるよう、Pythonの処理をFlask上で実装し、Chromeの拡張機能を介してクリップボードに取得できるよう実装しました。
0
カバー画像

pythonでの例外処理

VBAではプログラム実行時に、何らかのエラーがでるとVBAの進行そのものが停止してしまいます。黄色のハイライトにて大まかな指摘はしてくれますが、何がエラーの原因になっているのかは、1行ずつ確認しなければなりません。pythonであれば、エラーがでるかもしれないコードを実行すると、エラーなく実行できるのか、エラーがでるのかで条件を分けて処理をすることができます。その方法は、『try』になります。利用方法は、try:␣␣␣␣ エラーがでるかもしれないコードを記載します。さらに細かく説明すると、try:␣␣␣␣ エラーがでるかもしれないコードexcept:␣␣␣␣ エラーが出た場合のコードelse:␣␣␣␣ エラーが出ない場合のコードfinally:␣␣␣␣エラーの有無に関わらず実施するコード以上のように使い分けることで、if文に頼らない条件分離が可能です。
0
カバー画像

システムの開発及び構築の相談・改修と幅広くお手伝いします

ご覧いただきありがとうございます! 要件定義・設計・実装・テスト・リリース・技術相談と幅広くが対応可能でございます。 LaravelやStripeなどの決済システムや外部APIの実績も多数ございますので、まずはお気軽にお問い合わせください。 迅速丁寧な対応を心がけておりますので、よろしくお願いいたします。 『例』  →Webシステムの開発のお手伝いをしてほしい →HTML・CSS・Javascriptを使ったWebサイト作成・修正 →既存システムの修正・機能改修をお手伝いしてほしい →Webサービスの仕様・設計をお手伝いしてほしい その他ご相談承ります。 『対応実績』 →Laravelを使用したAPIの開発 →Stripeを使った決済機能の追加 →外部APIを使ったシステム開発 →テーブル設計 【 対応言語 】 ・PHP/Laravel ・HTML/CSS ・Javascript/Vue.js/Nuxt.js・Python(Django or Flask)・Java(SpringBoot)
0
カバー画像

【2023年度版】VSCodeでPythonの開発環境を整えよう

はじめにPython+VSCodeで開発を進める上で、入れた方がいい拡張機能や、やった方がいい設定を紹介します。※私が実際に行っている設定です注意事項このブログでは以下のことについては説明しません。 ・Pythonの導入方法 ・VSCodeのインストール方法導入する拡張機能 ・Python  →Pythonを使用する上での基本的なことを手伝ってくれます   例)仮想環境の設定、デバッグ ・Pylance  →Pythonの入力補完などPythonでコーディンする際の作業を楽にしてくれます ・Flake8  →PEP8(※)のルールに則ってコードのチェックを行ってくれます ・autopep8  →コードをPEP8のルールに則って自動で修正してくれます ・indent-rainbow  →インデントに色を付けてくれます※PEP8とは、Python標準のコーディング規約です。 Pythonで開発する際は、基本的にこのコーディング規約に則ってコードを書いていく事が多いです。導入手順■基本編 拡張機能を導入する上での基本操作を説明します。  ○拡張機能のインストール方法1.拡張機能タブを開く2.拡張機能を検索する3.インストールする■インストールのみで完了するもの 以下の4つの拡張機能はインストールした時点で使用できます。 カッコ内の拡張機能IDで検索してインストールしてください。 ・Python(ms-python.python) ・Pylance(ms-python.vscode-pylance) ・indent-rainbow(oderwat.indent-rainbow) ・Fl
0
カバー画像

数値計算ライブラリNumpy基本ガイド

Pythonの機械学習やデータ分析において欠かせないライブラリの一つがNumpyです。Numpy(Numerical Python)は、大量のデータを効率的に扱うために開発されたPythonライブラリで、ベクトルや行列などの多次元配列を高速に処理することができます。1.Numpyのインストール以下のコマンドを使って、ターミナルからNumpyをインストールできます。pip install numpy 2.Numpyのインポート次に、Numpyをインポートします。通常、npというエイリアスを使ってインポートします。import numpy as np 3.Numpy配列の生成Numpyを用いて、多次元配列を生成することができます。# 一次元配列 a = np.array([1, 2, 3])print(a)# 二次元配列b = np.array([[1, 2, 3], [4, 5, 6]])print(b)また、特定の値で初期化された配列を作成することもできます。# すべての要素が0の配列 c = np.zeros((3, 3))print(c)# すべての要素が1の配列d = np.ones((3, 3))print(d)# 任意の値(7)で初期化した配列e = np.full((3, 3), 7)print(e)4.配列の操作配列の形状を取得したり、形状を変更したりすることができます。# 配列の形状を取得print(b.shape) # => (2, 3)# 配列の形状を変更b = b.reshape((3, 2))print(b) # => [[1 2]   
0
カバー画像

Random Forestを用いた高度なデータ分析

Pythonの機械学習ライブラリであるscikit-learn(sklearn)は、アルゴリズムの実装からデータセットの提供まで、高度なデータ分析を行うための機能が多数備わっています。今回はその中から、アンサンブル学習の一種であるランダムフォレストを使用し、グリッドサーチと交差検証によるハイパーパラメータチューニング、さらには特徴量の重要度を可視化する方法について紹介します。1.Random Forestとはランダムフォレストは、アンサンブル学習の一種で、多数の決定木を生成し、その予測結果の多数決で最終的な予測を行う方法です。各決定木はデータセットの一部の特徴量から構築され、個々の決定木がデータの異なる側面を学習することで、全体として過学習を抑えつつ精度の高いモデルを構築します。 ランダムフォレストは特徴量の重要度を算出できるという利点もあります。これは、各決定木で利用される特徴量とその特徴が予測にどれだけ寄与したかを評価することで得られます。 では、具体的な実装を見てみましょう。2.データの準備まずはsklearn.datasetsからirisデータセットをロードします。このデータセットは4つの特徴量を持つ150のサンプルで、アヤメの3つの品種に分類されます。from sklearn import datasets# irisデータセットのロードiris = datasets.load_iris()X = iris.datay = iris.target3. データセットの分割 データセットはtrain_test_split関数を使用し、訓練用とテスト用に分割します。te
0
カバー画像

Pythonを使った画像処理の基本

Pythonは、その豊富なライブラリと汎用性により、画像処理のタスクを簡単に自動化することができます。この記事では、PythonのPillowライブラリを使用して、基本的な画像処理を行う方法を解説します。0.必要なライブラリのインストールまずはじめに、Pillowライブラリをインストールします。このライブラリは、Pythonで画像ファイルを読み書きするためのものです。以下のコマンドでインストールできます。pip install pillow 1.画像の読み込み画像を読み込むには、PillowのImage.open関数を使用します。この関数は画像ファイルのパスを引数に取り、画像データを表すImageオブジェクトを返します。'input_jpg'の箇所を用意された画像にしてくださいfrom PIL import Image img = Image.open('input.jpg') 2.画像のリサイズ画像のサイズを変更するには、Imageオブジェクトのresizeメソッドを使用します。このメソッドは新しいサイズを表すタプルを引数に取り、サイズが変更された新しいImageオブジェクトを返します。img_resized = img.resize((1200, 800))3.画像のグレースケール変換画像をグレースケールに変換するには、Imageオブジェクトのconvertメソッドを使用します。このメソッドは変換後の色空間を表す文字列を引数に取り、色空間が変換された新しいImageオブジェクトを返します。img_gray = img_resized.convert('L') 4.画像の保存
0
カバー画像

Pythonを使ったプレゼンテーション自動作成

Pythonは、その豊富なライブラリと汎用性により、さまざまなタスクを自動化するのに適しています。その一つが、プレゼンテーションスライドの自動生成です。この記事では、python-pptxというライブラリを使用して、PowerPointスライドを自動生成する方法を解説します。0.必要なライブラリのインストールまずはじめに、python-pptxライブラリをインストールします。このライブラリは、PythonでPowerPointファイルを読み書きするためのものです。以下のコマンドでインストールできます。pip install python-pptx1.プレゼンテーションの作成プレゼンテーションを作成するには、まずPresentationオブジェクトを作成します。from pptx import Presentation prs = Presentation() 2.スライドの追加次に、スライドを追加します。add_slideメソッドを使用して新しいスライドを追加します。このメソッドは、スライドのレイアウトを引数として受け取ります。レイアウトはslide_layouts属性から選択できます。slide = prs.slides.add_slide(prs.slide_layouts[0])3.タイトルとサブタイトルの追加タイトルとサブタイトルは、スライドのshapes属性からアクセスできます。タイトルはtitle属性、サブタイトルはplaceholders[1]からアクセスできます。title = slide.shapes.titletitle.text = "Hello, Wor
0
カバー画像

Pythonを使ったファイルの自動整理

Pythonはその豊富なライブラリと簡潔な文法により、ファイルの自動整理を簡単に行うことができます。この記事では、Pythonを使ってファイルを自動的に整理する方法について解説します。1.使用するライブラリPythonの標準ライブラリであるosとshutilを使用します。osライブラリは、OSに依存した機能を提供します。ファイルやディレクトリを操作するために必要な関数が含まれています。shutilライブラリは、高レベルのファイル操作を提供します。ファイルのコピー、移動、削除などを行うことができます。2.ファイルの整理以下に、特定のディレクトリ内のファイルを拡張子ごとに整理するPythonスクリプトの例を示します。import osimport shutildef organize_files(directory):    # ディレクトリ内の全てのファイルを取得    for filename in os.listdir(directory):        # ファイルのフルパスを取得        file_path = os.path.join(directory, filename)        # ファイルでなければスキップ        if not os.path.isfile(file_path):            continue        # ファイルの拡張子を取得        _, extension = os.path.splitext(filename)        extension = extension[1:] # 先頭の"."
0
カバー画像

Pythonを使ったデータ分析の基礎:機械学習を活用

Pythonはその使いやすさと、豊富なデータ分析関連のライブラリが存在するため、データ分析において広く使用されています。本記事ではPythonを使ったデータ分析の基本的な手順を、scikit-learnライブラリのデータセットを利用して解説します。0.必要なライブラリのインストール本記事では、ライブラリとしてpandas、numpy、matplotlib、seaborn、sklearnを使用します。インストールがまだお済でない場合、以下をコマンドプロンプトで実行してください。pip install pandas pip install numpy pip install matplotlibpip install seaborn pip install sklearn 1.必要なライブラリのインポートデータ分析には様々なライブラリが使われますが、ここでは主にpandasとnumpy、そして可視化にはmatplotlibとseabornを使います。また、データセットを読み込むためのsklearn.datasetsもインポートします。import pandas as pd import numpy as npimport matplotlib.pyplot as pltimport seaborn as snsfrom sklearn import datasets2.データの読み込みscikit-learnには、分析の練習用としていくつかのデータセットが提供されています。ここでは、ワインの品質を示す「wine」データセットを利用します。wine = datasets.load_w
0
カバー画像

Pythonを使ったウェブスクレイピングの基礎

ウェブスクレイピングは、Webページから情報を抽出するテクニックです。Pythonには、ウェブスクレイピング用いるためのライブラリが用意されています。本記事では、Pythonを使用してウィキペディアから情報を抽出する基本的な手順を解説します。0.必要なライブラリのインストール本記事では、requests、BeautifulSoupライブラリを使用します。requestsは、HTTPリクエストを扱うためのものです。特にウェブページのHTMLを取得するためによく使用されます。BeautifulSoupは、HTMLやXMLの解析を行うためのものです。HTMLのタグ構造を理解し、特定のタグや属性を簡単に検索・抽出できるようにする機能を提供します。以上のインストールがお済でない方は、ターミナルで以下を実行してください。pip install requestspip install BeautifulSoup1.必要なライブラリのインポートまずはじめに、ウェブスクレイピングに必要なライブラリをインポートします。import requestsfrom bs4 import BeautifulSoup2.Webページの取得requests.get()関数を使用して、特定のURLのWebページを取得します。変数urlに、ウェブスクレイピングしたいurlを入れてください。ただし、ウェブスクレイピングはウェブサイトの所有者の許可なしに行うと違法となることもあるため、利用規約に反しないようにご注意ください。url = 'ウェブスクレイピングしたいurlを入れてください'response = reque
0
カバー画像

Pythonを使った日本語テキストマイニング:夏目漱石「こころ」

テキストマイニングとは、テキストデータから有用な情報を抽出するための方法です。それを行う言語としてPythonは非常に優れています。この記事では、Pythonとそのライブラリを使い、夏目漱石の「こころ」をテキストマイニングする基本的な手順を解説します。0.必要なライブラリのインストール今回使用するライブラリは、MeCab、gensimです。MeCabはオープンソースの形態素解析エンジンであり、日本語テキストを単語に分割し、それぞれの単語の品詞情報などを提供することができます。gensimは自然言語処理ライブラリで、主にトピックモデリングとドキュメント類似性の分析に利用されます。これらのタスクは、大量のテキストデータから主要なトピックを抽出したり、文書間の類似度を計算したりするためのものです。コマンドプロンプトからインストールを行ってください。pip install Mecabpip install gensim1. データの取得まずは、青空文庫から「こころ」のテキストをダウンロードします。ここでは、事前に手動でダウンロードしたテキストデータを使うこととします。 2. データの読み込みPythonの標準ライブラリを使ってテキストファイルを読み込みます。f= open('kokoro.txt', encoding="utf-8") text = f.read()f.close()3. データの前処理日本語テキストデータを解析するためには、形態素解析という前処理が必要です。ここでは、日本語に対応した形態素解析器「MeCab」を用いてテキストを単語に分割します。また、不要な単語(ストッ
0
カバー画像

僕がDjangoによるバックエンド開発に関わった音声メモアプリがサービス公開した話

久しぶりの投稿なので簡単に自己紹介すると、最近は主にGPT-3 (生成AIのAPI)を使ったWebアプリケーション(Django)開発や、それを解説した技術ブログの寄稿を主にやらせていただいておりますべナオと申します。今回のブログでは、ココナラさんで実際に仕事をお受けした時の体験談を、そこまでの経緯も合わせて紹介したいと思います。想定する読者さんは、以下のような方です。 ・「Pythonエンジニアの働き方に興味がある」 ・「Pythonエンジニアの普段見れない裏側を知りたい」 ・「暇つぶしにべナオの記事でも読んでみるか」1. 外部サイトでPythonの記事を3年書き続けていたらネットで依頼が来るようにもともとは外部の某ブログサイトでPythonの技術ブログを趣味で書いていました。扱うテーマはチャットボットや機械学習やSNS分析などです。始めた当時(4年前)は今ほど日本のPythonエンジニアが多くなかったので、ネットで公開するだけでPVが伸びていたのを覚えています。それからも自作のプログラムを中心に、技術ブログを数ヶ月おきに書いてきました。ほとんどのnoteは無料で、自分の知識の整理やSNSを介しての他のエンジニアの方との交流を目的として地味に続けてきました。 知り合いのバーを借りて、エンジニア向けの交流会を開いてパスタを自分で作ってお客さんに出していたりもしました(料理は今でも好きです)。 そんなこともあってTwitterで少しは目立っていたのか、IT系の方にフォローされることが増えていきました。そこでこんなことを思いついたのです。 「これだったらネットで仕事を受ける窓口さ
0
カバー画像

タイタニック号沈没事故を例に機械学習における決定木を深ぼる

1997年、ジェームズキャメロン監督による映画「TITANIC」は個人的に大好きな作品。当時はまだVHSが現役の時代。3時間を超えるボリュームでビデオ2本(前半パート・後半パート)で販売されていました。今思うとかなり分厚いケースでした笑。当時はフィルムが擦り切れる位、何度も何度も観たな~。ストーリーもさることながら、当時では圧倒的なグラフィック映像で、またキャストも豪華俳優さんばかりで、また日本ではレオ様!とレオナルド・ディカプリオ旋風が巻き起こりましたね~。いやぁー、当時のディカプリオはマジで美少年そのものでした。こんな人、本当に実在するんだなって思うくらい。。今回はそんな映画の題材となったタイタニック号沈没事故を例に機械学習における決定木分類について深掘りたいと思います。そもそも決定木分類って?機械学習におけるデータ分析は大きく分けて教師あり学習・教師なし学習・強化学習の3つに別れ、教師あり学習には分類と回帰の手法があります。教師ありとは”答え”(正解データ)がある場合をいいます。例えば、今回タイタニック号沈没事故を例にすると、各乗客にはチケットクラス(1等、2等、3等)や年齢、性別、部屋番号、搭乗港等の特徴的な情報と生か死かという情報があります。これはデータ分析の視点で見ると、各乗客のこれらの特徴的な情報に対して、正あるいは死に振り分けられる、つまり正か死に分類ができると言え、これはつまり、各特徴的な情報と紐づけて正、死の2クラスの正解データに分類できます。そして、教師あり学習とは、この正解データがあるデータでの学習を指します。じゃあ、具体的に何を学習するのかというと、上
0
カバー画像

webスクレイピングについて②

seleniumでウェブサイトの情報を取得する際に、ネット環境が不安定であったり、ウェブサイトの情報が大きいと、サイトが表示されるまで時間がかかってしまいます。表示するだけならいいのですが、ウェブサイトを操作したりする場合には、スクレイピングが中断してしまいます。過去のブログでtime.sleep(x)を利用して、コードの進行を意図的に止める方法をお伝えしましたが、止める時間を具体的に指定できる一方で、あらゆるウェブサイトの表示時間をあらかじめ予測することは難しいと思います。そこで、ウェブサイトがすべて表示されたら、次のコードに進むようにしてしまえば、具体的に秒数を指定する必要もなくなります。また、あまりにも表示に時間がかかる場合も考えられますので、待機時間を最大30秒にも指定してみます。具体的には、①必要なモジュールのインストールpip install selenium#seleniumをインストールします。②必要なモジュールをインポートfrom selenium import webdriver#ドライバーのインポートfrom selenium.webdriver.support import expected_conditions as EC#読み込むまで待機する機能のための、インポート。from selenium.webdriver.support.ui import WebDriverWait#最大の読み込み時間を設定するためのインポート③コード内容driver = webdriver.Chrome()  wait = WebDriverWait(driver=dri
0
カバー画像

chromeのバージョンへの対処方法(スクレイピング)

前回のブログで記載していたchromeドライバーのバージョン違いに対する対処方法になります。結論から記載すると、コードの実行ごとにchromeドライバーの最新のものをインストールしなおして対処する方法になります。具体的には以下に記載します。①pip install webdriver_manager#モジュールをインストールします。②from webdriver_manager.chrome import ChromeDriverManager #chromedriverの自動更新に必要なため、importします。③service_path = ChromeDriverManager().install()#chromeドライバーマネージャーにてインストールします。④driver = webdriver.Chrome(service_path)  driver.get(URLを記載) #ウェブスクレイピングしていきます。以上のように記載することで、ドライバーのバージョン違いを回避することができます。
0
カバー画像

webスクレイピングについて

インターネットを経由して必要な情報の取得や、webの操作を自動化するにはseleniumを利用します。標準モジュールではないので、pip install seleniumでインストールする必要があります。chromeのドライバを指定して利用するには、from selenium import webdriverdriver = webdriver.Chrome()driver.get(URLを記載) で可能です。しかし、chromeのバージョンとパソコン内のchromeドライバーのバージョンが同じでないとエラーが発生し、スクレイピングが中断してしまいます。chromeのバージョンの確認は、chromeを開いて、『設定』→『chromeについて』を開くことで可能となります。しかし、chromeのバージョンは突然変わることもあり、その度にchromeのドライバーをインストールしなおすには手間がかかり、保守性が低下してしまいます。そこで、この対処方法を次回のブログで紹介しようと思います。
0
カバー画像

datetime モジュール

定期的なバックアップでファイル名に日付を記載する、現時刻を取得したい場合はdatetimeモジュールが利用できます。datetimeは標準モジュールなので、import datetimeと記載することで使用することができます。現在の日付を取得する場合は、datetime.datetime.now() で可能です。具体的な例としては、  dt_nowを変数と仮定して、  dt_now = datetime.datetime.now() ここから日付を文字列として取得するには、 dt_now.strftime('%Y.%m.%d.') とすることで、2023.6.29という文字列が取得できます。時間を取得する場合は、dt_now.strftime('%H.%M.%S')では、07.12.45のように、時、分、秒を取得することができます。お試しあれ。
0
カバー画像

tkinterモジュールのmessagebox

pythonのコードを書いている際に、条件分岐やコードそのものが長くなった場合、デバック(動作確認)が曖昧になることがありました。特に、変数に何が格納されているのか、条件通りにコードが動いているのかを確認に手間を感じていました。例えば、変数(a)の確認であれば、print(a)でターミナル画面に反映することができますが、コードの文字も多いため、見えにくさを感じます。そこでお薦めしたいのが、tkinterモジュールのmessageboxです。利用方法は、from tkinter import messageboxmessagebox.showinfo(タイトル,表示メッセージ)になります。タイトル、メッセージとも文字列になりますが、変数を記載することで、その変数に格納した内容を表示することも可能です。VBAでいうと、MsgBox のように活用することができます。
0
カバー画像

ctypesモジュール 画像は意図的にぼかしています

tkinterのモジュール(改めて記事を書こうと思っています。)を活用していたところ、呼び出したWindow画面の文字がぼやけるという事象がありました。文字は読めなくもないのですが、ぼやけるというのは視認性の低下につながってしまいます。調べると、どうやらtkinterで画面を呼び出すと、Window画面が拡大表示されてしまい、解像度が低下して文字がぼやけてしまうようです。そこで、対処法として活用できるのが、 ctypesモジュールになります。このモジュールも標準モジュールになるので、新たにインストールは不要です。使用方法としては、以下になります。#GUIがぼやけることに対する対処法 import ctypesctypes.windll.shcore.SetProcessDpiAwareness(True)見やすさって大事ですね。
0
カバー画像

os モジュール①

osモジュールはファイルやディレクトリの一覧を取得するためのモジュールになります。ファイルの指定として、絶対パスと相対パスで指定する方法があります。絶対パスは、Shift+マウスの右クリックでパスのコピーをすることで、取得することができます。簡便でパスを取得できます。しかし、この方法はパソコンが違う、データの置き場所を変更した際に記載内容を変更する手間が生じてしまいます。データの量が増えると、修正することも大変です。そこで、便利になるのが、osモジュールでのパスの取得になります。特に、pythonのコードを動かして、特定のファイルを操作する際に活用しています。具体的には、import os 変数=os.path.dirname(os.path.abspath(__file__))このコードを活用することで、実行しているコードの作業フォルダ(ディレクトリ)のパスを取得可能です。
0
カバー画像

しばらくぶりですが、pythonのコードの総括中です。

pythonコードを単独で利用するコードをいろいろと学んできました。seleniumを利用したウェブスクレイピング、openpyxlを活用したExcelデータの活用などなど。単独で利用する分にはいいのですが、まとめてアプリケーション化することで、誰でもどこでも活用することができます。標準モジュールである、『tkinter』(てぃきんたー)を活用することで、webアプリケーションの開発もpythonにて開発でき、単独で活用していたコードをまとめていっています。さらに、Excelデータ内にVBAを作成し、webアプリケーションからマクロの操作、データ処理も可能です。外部モジュールの扱いに慣れてきたので、ぼちぼちと紹介していきます。
0
カバー画像

Pythonによる物理シミュレーション環境を用いたアームロボット制御

 本コンテンツでは、Pythonよる物理シミュレーション環境"PyBullet"を用いたアームロボットの制御を行う方法を解説します。  PyBulletの導入と基本操作は、下のブログで紹介しています。 PyBulletのインストール まずは、PyBulletのインストール方法について解説します。PyBulletのインストールは、コマンドプロンプトから行います。コマンドプロンプトにて以下のコードを実行してください。  python -m pip install --upgrade pip  pip install pybullet ひとつ目のコードでpipを最新状態にし、ふたつ目のコードでPyBulletをインストールすることができます。結果的に、"Successfully installed pybullet-(version)"が表示されれば成功です。ロボットアームの機構 ロボットアームは、リンクおよびリンク同士を結合するジョイントから構成されます。ジョイントには、基本的なものとして回転(revolute)と直動(prismatic)があります。 以上の記号を用いて、本コンテンツで使用するロボットアームを表すと、次のようになります。順運動学・逆運動学 順運動学と逆運動学の関係は、次のようになっています。 関節角度から手先位置を求める方法が順運動学であり、手先位置から関節角度を求める方法が逆運動学です。
0 1,000円
カバー画像

Pythonとは何か、なぜAIや機械学習で頻繁に使われるのか

おはようございます。今日からブログを書いて見ようと思います。初回は最近話題の機械学習やAI分野でよく使われるプログラミング言語、Pythonについて解説します。お前は誰やねん。という話ですが私は日本のメーカーでデータを扱う仕事をしており、Python基礎講座という社内研修を担当しています。そもそもPythonとは?Pythonは、非常にシンプルで読みやすいコードが特徴のプログラミング言語です。Pythonの特徴の一つに、「可読性」があります。他の言語と比較して、Pythonのコードは非常に明確で、自然言語に近い形式で書くことができます。そのため、初心者でも理解しやすく、学びやすいのです。PythonがAIや機械学習でよく使われる理由では、なぜPythonがAIや機械学習でよく使われるのでしょうか。その理由はいくつかあります。1. ライブラリの豊富さ:Pythonは、AIや機械学習のためのライブラリが非常に多く提供されています。ライブラリとは、特定の機能を実行するためのコードの集まりで、自分でゼロからコードを書く必要なく、それらの機能を使用できます。たとえば、NumPyは数値計算を、Pandasはデータ分析を、Scikit-learnは機械学習を、そしてTensorFlowやPyTorchは深層学習を簡単に行うことができます。2. 汎用性と使いやすさ: Pythonは汎用プログラミング言語であり、ウェブ開発、データ分析、ソフトウェア開発など、さまざまな用途で使用できます。また、そのシンタックス(文法)は非常に直感的であるため、初心者にとっても学びやすいです。3. コミュニティ:P
0
カバー画像

Pythonによる物理シミュレーション環境PyBulletの導入

 本記事では、Pythonによる物理シミュレーション環境PyBulletのインストールから基本的な使い方までを紹介します。PyBulletのインストール Pybulletのインストールは、コマンド操作によって行います。Pythonとpipがすでにインストールされている前提で進めていきます。まだPython及びpipをインストールされていない方は、Python及びpipのインストールから行ってください。  まずはコマンドプロンプトを開き、以下のコマンドを実行してください。   python -m pip install --upgrade pip  pipコマンドとは、Pip Install Packagesの略称であり、pythonに公式に登録されたパッケージをインストールするためのものです。これをアップグレードしておかないと、古いバージョンのPybulletがインストールされる可能性があります。pipコマンドをアップグレードしたら、Pybulletをインストールしましょう。  (Windowsの場合)  pip install pybullet  (Linuxの場合)  sudo pip install pybullet  “Installing collected packages: pybullet”と表示されれば、正しくインストールが開始されています。しばらく待ち、“Successfully installed pybullet-x.x.x(バージョン)”と表示されれば、インストール完了になります。環境の設定 インストールが完了したら、実際にPybulletを利用して物
0
カバー画像

Pythonによる物理シミュレーション環境を用いた車モデルの強化学習

 本コンテンツでは、Pythonよる物理シミュレーション環境"PyBullet"および機械学習ライブラリ"PyTorch"を用いた車モデルの強化学習を行う方法を解説します。 PyBulletの導入と基本操作は、下のブログで紹介しています。PyBullet / PyTorchのインストール まずは、PyBulletとPyTorchそれぞれのインストール方法について解説します。PyBulletのインストールは、コマンドプロンプトから行います。コマンドプロンプトにて以下のコードを実行してください。 python -m pip install --upgrade pip pip install pybullet ひとつ目のコードでpipを最新状態にし、ふたつ目のコードでPyBulletをインストールすることができます。結果的に、"Successfully installed pybullet-(version)"が表示されれば成功です。 次に、PyTorchのインストール方法について解説します。PyTorchのインストールは公式ホームページを利用します。"PyTorch"と検索すると、公式ホームページがヒットします。はじめのページを下にスクロールすると、次のような表示が現れます。  それぞれの項目について、ご自身のパソコンに合ったものを選択すると、画像一番下の"Run this Command"にコマンドが表示されます。これをコピーし、コマンドプロンプトにペーストして実行することで、PyTorchをインストールすることができます。ニューラルネットワーク 本コンテンツでは、ニューラルネッ
0 2,000円
カバー画像

【ココナラ】プログラミングのビデオ通話サービスのメリデメ解説

こんにちは!ふみとです。今回はココナラでプログラミングのビデオ通話サービスを購入するメリットとデメリットについて、現役エンジニア(E資格保有)かつプログラミング教材出品者の立場で解説します。プログラミングのビデオ通話サービスを購入するメリデメは下記のとおりです。【メリット】・実装したいプログラムがうまく動かないとき、すぐに解決できる。【デメリット】・基本60分 3,000円程度で割高。・限られた時間でのレクチャーなので、技術力がいつまでも身につかない。 ※プログラミングを60分で知識まで教えるのは無理があります。結論を申し上げますと、デメリットの方が大きいです。出品者の立場からすると、プログラミングのレクチャーで案件を取ることって簡単なんです。なぜなら、都度困っている箇所を解決し丁寧にレクチャーすれば高単価でリピートして案件を取ることができるから。(特に基礎周り・・)お客さまもその場では満足いただけます。でも、それって本当に本質的な知識身についてますか!?何度も購入して、結局割高になっていません?今までこのようなサービスを購入されていた方は、気を悪くされるかもしれません。申し訳ありません。。「プログラミングできるからそんなこと言えるんでしょ?できない人の気持ちも分からないくせに。。」と思われるかもしれませんね。実は、わたしも独学でプログラミングを身に着けた側なので誰かに助けてもらいたい気持ちは痛いほど分かります。しかも基礎の部分ですら、誤った理解や挫折を何度も繰り返しながら1年以上かけてやっとのことで身に着けることができた容量の悪い人間です。なんども才能がないのかもしれないと、
0
カバー画像

Python3にて二つ目の資格を取得

前回、Python3を独学で勉強、約2か月で資格取得の記事から1か月ちょっと経ちましたが、ようやくPython3エンジニアデータ分析の試験に合格したので、記事を書かせて頂いております。個人的には1か月っていうのは、ちょっと時間を掛け過ぎた感はありますが、色々とコードを書いたり、参考書の内容を読み、時にはその内容をノートにとりながら学習したことで、Pythonの事についてより理解を深めることができたので、まあいいかなぁという感じです。試験自体は模擬試験とはちょっと離れた感じの問題が多いイメージでした。要は模擬試験の中身を暗記しとけば合格できるようなものではなく、ちゃんと本質を理解してますか?という問題が多い印象を受けました。(他の方の合格体験記では、模擬試験を繰り返しやれば受かると書かれていましたが。。。私の自頭の悪さのせいかもw)まぁ、とにかくスコアは9割以上だったので、自信にはなりました!でもここがスタート地点なので、改めて緒を引き締めて頑張りたいと思います!そういえば、前回の記事にてデータ分析に興味があると記載したと思いますが、今回の試験に受かったことや、これまでの学習を通して、ますますデータ分析の分野に興味を持ちました。データ分析には大きく分けてデータサイエンティストとデータアナリストの職種があるそうですが、データサイエンティストは与えられたデータをもとに、達成したいタスク(目標)に沿って、最適なアルゴリズムを選定し、それを基に学習モデルを構築、学習モデルを使用してデータ分析・その分析評価を行いながら、さらにその分析精度を(各パラメータの調整等により)高めていくことが主な
0
カバー画像

Webスクレイピングってなに?

こんにちは!ばすけ大好きおじさん、略して「ばすおじ」です。世の中には膨大な情報が溢れていますが、その情報を自分の手元に収集することができれば、ビジネスや研究、あるいは趣味の世界でも大きな武器となります。そこで注目を集めるのが、Webスクレイピングです。今回は、そんなWebスクレイピングについて解説していきます。目次1. Webスクレイピングとは2. 活用法3. 注意点4. まとめ1. WebスクレイピングとはWebスクレイピングとは、Webサイトから情報を収集するための技術のことです。スクレイピングによって自動的にWebページを解析し、必要な情報を取得することができます。2. 活用法Webスクレイピングは、以下のような場面で活用されます。マーケティング競合他社の情報や消費者の意見・嗜好を分析するために、商品情報やレビューを収集することができます。データ分析企業や研究機関は、Web上のデータを集めて分析することで、市場調査や競合分析、業務効率化などに役立てることができます。ニュース収集特定のトピックに関する最新情報を迅速かつ正確に収集することができます。3. 注意点Webスクレイピングには、以下のような注意点があります。著作権の問題Webスクレイピングによって収集された情報は、その情報の著作権が存在する場合があります。収集した情報の使用には十分注意する必要があります。サイトの利用規約に違反しないことWebスクレイピングは、収集するデータの取り扱いに関するサイトの利用規約に違反することがあるため、利用規約を事前に確認することが重要です。サイトに負荷をかけないこと一度に多数のページを
0
カバー画像

OpenAi Whisper中Chat-GPT

最初のWhisperでの文字起こし中、あまりにPCが「うーんうーん」しているので、「これ大丈夫かいな。」とちょっぴり不安になって、Chat-GPTに「かくかくしかじか、ええんか、これ?」と尋ねたら、「CPUだけでの使用では、PCのスペックによってそうなる可能性が高い云々。GPUを使用した場合は、云々。」と宣って、その上、「Whisper、Python等の最新版にて使用されることをお勧め云々。」「Whisperは、Pythonの3.7~3.10のバージョンで使用してねって、ドキュメントにあるやん。Pythonの最新は、3.11以上でWhisper動かへんやん。おみゃ~さん、矛盾しとるやないか。」と突っ込んだら、「申し訳ございません。ドキュメントにそう記載されていて、云々。」Chat-GPT、ちょっと突っ込んだり、強気に出ると、すぐ謝って済まそうとするところが、「イラッ」とまではいかないが、「イッ」まではいく。ついでに、「Pythonの自分のコードは、表示させるとしているけど、テキストファイルに書き出すコードはどないやねん」と尋ねたら、これでございますとスラスラッと表示してきた。ちゃっかり、貰いました。
0
カバー画像

Pythonを使ってCSVファイルの画像URLデータを処理する方法

Pythonを使ってCSVファイルの画像URLデータを処理する方法について、基本的なアドバイスを提供できます。 まず、PythonにはCSVファイルを扱うための標準ライブラリが用意されています。csvモジュールを使用してCSVファイルを読み込むことができます。次に、Pillowライブラリを使用して画像を処理することができます。具体的には、Imageクラスを使用して画像を開き、ImageOpsモジュールを使用して白抜きの画像を作成することができます。 このラインより上のエリアが無料で表示されます。 以下は、CSVファイルの画像URLデータを読み込み、最初の画像を白抜きの画像に変換する例です。 import csv from io import BytesIO from PIL import Image, ImageOps import requests # CSVファイルの読み込み with open('input.csv') as f:     reader = csv.reader(f)     # ヘッダー行をスキップ     next(reader)     # 最初の行を取得     row = next(reader) # 画像URLから画像を取得 response = requests.get(row[0]) img = Image.open(BytesIO(response.content)) # 白抜きの画像に変換 img = ImageOps.invert(img.convert('RGBA')) # 変換後の画像を保存 img.save('output.pn
0
カバー画像

Python3を独学で勉強、約2か月で資格取得

さて、前回のYoutuberヒカルの記事から約半年ぶりの更新。(そういえば、最近、ヒカルがネクストステージ解散がショックでした。あと坂本龍一さんの訃報も本当にショックでしたね。。)仕事がやっと落ち着いたのと、ここ約2か月間、ずっとPython言語の勉強をし、資格を一つ取得できたので、一つの区切りの意味として記事を書いています。そういえば以前、webコーディングの記事を書いたことがあります。当時の僕はweb作成はサイトとソースコードを見比べしながら作成できるので、直観的で分かりやすくて面白いなぁ~と感じていたんですが、、、その記事でも書いているんですが、やっぱりCSS(サイトのデザイン調整)で挫折してしまいました。まぁ、そのあとのWordPressの自作も大変とは聞いてたんですけど、それ以前にこれは自分には合わないと判断。そこから方向転換をし、今更ながらPython言語の世界に飛び込みました。なぜこの世界なのかというと、元々情報工学専攻だったので、プログラム(主にC言語)に対してのある程度の知識があったのと(じゃあ何でCSSは理解できないんだう。。)、Python言語の特徴としてシンプルで分かり易く、色んな機能(微積分や行列の計算が簡単に行えたり、簡単なデスクトップアプリを作成できたり、web の解析や画像処理などなど)が備わっており、また外部機能も簡単にインストールできるので、python言語のポテンシャルはホントにエグイです。そして、タイトルにもある通り約2か月程でPythonエンジニア基礎検定を取得しました。試験自体はpython言語に関する基礎文法や*インタプリタの機能に
0
カバー画像

コンテンツマーケティングの救世主!インスタグラムスクレイピングで、効率的な情報収集を実現しよう!

はじめに初めまして.ココナラでプログラミングや語学など様々なサービスを展開中のodrag0nと申します.タイトルの通り、本記事ではインスタグラムスクレイピングの重要性や、具体的な方法、そして実際に使用できるスクレイピングツールを参考資料として紹介しています。興味深い内容が満載の10000文字以上の記事となっておりますので、ぜひ最後までご覧ください。コンテンツマーケティングにおける情報収集の重要性現代のマーケティング戦略において、コンテンツマーケティングは欠かせない要素の一つとなっています。しかし、コンテンツを生み出すためには、ターゲットユーザーに合わせた情報収集が必要不可欠です。その中でも、SNSであるインスタグラムは現在、ビジネスにおいて最も有効なプラットフォームの一つとなっています。しかしながら、インスタグラムには膨大な数のアカウントが存在するため、情報収集には時間と手間がかかるものです。そこで、本記事では、インスタグラムスクレイピングの重要性と、その方法、有料で提供していたツールを特別に公開させていただきます。
0 500円
カバー画像

【GAS】サイトの更新をチェックしメールで通知する

はじめに初めまして.ココナラでプログラミングや語学など様々なサービスを展開中のodrag0nと申します.早速ですが今回はGASを使用して,「サイトの更新をチェックし、更新されていたらメールで通知する」するというプログラムを書いてみたいと思います.GASとは?Google Apps Script(GAS)は、ひとことで言えばGoogleが提供する各種サービスの自動化/連携を行うためのツールです。GASを使うと、Gmailやカレンダー、Googleスプレッドシート、Googleドライブなど、Googleが提供する様々なサービス上で処理を自動化したり、複数のサービスを連携させたりできます。ExcelやWordなどでマクロやOfficeスクリプトなどを使ったことのある方は、それらのGoogle版だとイメージしていただければいいと思います!GAS のメリットとして、学習コストが低いこと、開発環境の構築が不要なこと、Google サービスとの連携が簡単であること、スクリプトの実行が自動化できることなどが挙げられます。活用例としては,Googleスプレッドシート上に設置したボタンのクリックで文字列を一括変換したり、GoogleスプレッドシートのデータをGmailに取り込んでメールを自動作成・送信したりすることができます。プログラムの流れ今回実装するプログラムの流れとしては以下のようになります.1. 監視するサイトのURLを設定する。2. 最新のコンテンツを取得する。3. 前回のコンテンツと比較する。4. 変更があれば、メールを送信する。早速実装を始めてみましょう!
0 500円
カバー画像

初めてでも大丈夫!ココナラでPythonの仕事を受ける方法

皆さん、こんにちは!最近、ココナラでPythonの仕事を受けることができると知っていましたか?Pythonは、プログラミング初心者でも簡単に学べる言語で、需要も高いです。そんなPythonのスキルがある方は、是非ココナラで仕事を受けてみましょう!ココナラは日本最大級のスキルシェアサービスで、様々なジャンルの仕事を受注することができます。今回は、初めてココナラでPythonの仕事を受ける方に向けて、手順や注意点をご紹介します。↓↓ ブログやアフィリエイトを始めたい方必見 ↓↓【初回限定】ココナラ出品記念!“ 文字単価0.33円 ”の格安記事作成!※販売件数が一定数に達し次第終了となりますココナラとは?ココナラはスキルシェアサービスの一つで、様々な分野のスキルを持った人が個人的にビジネスを行う場所です。例えば、プログラミングやデザイン、文章作成や翻訳などのスキルを持っている人が自分のスキルを提供し、それを求めている人が報酬を支払って利用する仕組みです。ココナラは初めてスキルを提供する人でも簡単にバイトができる場所なので、学生から社会人まで幅広い層の人が利用しています。報酬は依頼内容によって異なりますが、簡単な作業でも数千円から受注が可能です。Pythonの仕事ってどんな仕事があるの?Pythonの仕事には、Webサイトやアプリケーションの開発、データ分析、自動化プログラムの開発などがあります。Pythonは汎用性が高く、機械学習や人工知能の分野でもよく使われているため、さまざまな分野の仕事があります。ココナラでも、Pythonを使ったWebサイトの開発や自動化プログラムの作成などの
0
カバー画像

PythonとSeleniumを使ったWebスクレイピング入門:動的なサイトからのデータ収集と活用法

はじめに Webスクレイピングは、ウェブページから情報を抽出する技術です。動的なサイトでは、JavaScriptやAjaxを利用してページ内容が動的に変更されるため、通常のスクレイピング手法ではデータを取得することが難しい場合があります。本記事では、PythonとSeleniumを使って動的なサイトからデータを収集する方法とその活用法について解説します。 目次 1.動的サイトと静的サイトの違い 2.PythonとSeleniumの基本 3.動的サイトからのデータ収集方法 4.データ活用法 5.注意点とコツ 6.まとめ 1.動的サイトと静的サイトの違い 静的サイトは、HTMLとCSSを利用して作成されたウェブページで、サーバーから取得した情報がそのまま表示されます。一方、動的サイトでは、JavaScriptやAjaxを利用してページ内容が動的に変更されるため、通常のスクレイピング手法ではデータを取得することが難しい場合があります。 2.PythonとSeleniumの基本 Pythonは、シンプルで読みやすいコードが特徴のプログラミング言語です。Webスクレイピングには、PythonのライブラリであるSeleniumがよく使われます。Seleniumは、ウェブドライバを使ってブラウザを操作し、動的なサイトからデータを取得することができます。 3.動的サイトからのデータ収集方法 PythonとSeleniumを使って動的なサイトからデータを収集する方法を以下に示します。 (1) Seleniumとウェブドライバのインストール まずは、Pythonのパッケージ管理ツールであるpipを
0
カバー画像

PythonとBeautifulSoupを使ったWebスクレイピングの高速化:処理速度向上のコツと事例紹介

Webスクレイピングは、ウェブページから情報を抽出する技術です。PythonとBeautifulSoupを使用してスクレイピングを行うことで、効率的にデータ収集が可能になります。しかし、大量のデータを扱う際は、処理速度が重要な要素となります。本記事では、PythonとBeautifulSoupを使ったWebスクレイピングの高速化について、実践的なコツと事例を紹介します。 目次 1.PythonとBeautifulSoupの基本 2.処理速度を向上させるポイント 3.実践的な高速化テクニック 4.事例紹介 5.まとめ 1.PythonとBeautifulSoupの基本 Pythonは、シンプルで読みやすいコードが特徴のプログラミング言語です。Webスクレイピングには、PythonのライブラリであるBeautifulSoupがよく使われます。BeautifulSoupは、HTMLやXMLのパース(解析)を行い、データ抽出を容易にします。 2.処理速度を向上させるポイント Webスクレイピングで処理速度を向上させるためには、以下のポイントを考慮してください。 (1) スクレイピング対象のページ数を最小限にする (2) 不要なタグや属性を除外する (3) 適切なセレクタを使用する (4) マルチスレッドやマルチプロセスを利用する 3.実践的な高速化テクニック (1) ページ数の最小化スクレイピング対象となるページ数を減らすことで、処理速度が向上します。例えば、ページネーションを活用することで、一度に取得するデータ量を制限できます。(2) 不要なタグや属性の除外 BeautifulSou
0
カバー画像

伝書鳩オンライン

 よく考えてみますと、いままで携わってきた通信は、ローカルや専用線での直接通信(もしくは隠蔽されて気にならない)が主でした。 一般的なパソコン環境やスマートフォンなどでインターネットを利用して端末間の通信を実現しようとするとなかなか面倒なようです。 実験的に無償で利用できそうなものを3点試してみました。データー送受信、文字チャットのような例です。1.WebRTC NTT comの旧SkyWayを試してみました。サンプルもサクッと動作し反応性も抜群です。おそらくP2Pできるのは限られた環境で、中継サーバーを使用することになるのだと思います。SDK依存になるので障害時は自分だけで解析が難しいかもしれません。2.Google GAS GASを中継サーバーにしてWebサービス公開で試してみました。一次記憶はなんでもいいのですが、スプレッドを使用しました。GETでID別のシートにデーターをセルに積んだり崩したりする感じです。これをXMLHttpRequestで送受します。 GASは一回のトランザクションが数秒かかるので反応性はチョット緩慢ですね。Googleアカウントで気軽に試すことができるは便利です。3.レンタルWebサーバー レンタルWebサーバーを中継サーバーにしてみました。SSLに対応してPythonやPHPのCGIが使えることから、XREAというのを試してみました。 基本はGASと同じですが、反応性は申し分ないです。一時記憶はファイルにしました。 無償では広告を埋め込む必要があり、実際のデーターよりこの部分の容量が大きくなりそうです。 XMLHttpRequestで広告のHTM
0
カバー画像

せどりにおけるプログラミング技術の活用方法

改めてせどりとは、商品を仕入れて販売するビジネスモデルの一つであり、オンラインマーケットプレイスなどでの販売が主流です。プログラミング技術を使うことで、せどりビジネスの効率化や競争力の向上につながるメリットがあります。以下に、私がせどりとITをかけあわせたことで感じたメリットをまとめてみました★自動化が可能になるーーーーーーーーーーーーーーーーーーーーーーーーープログラミング技術を使うことで、せどりビジネスの作業を自動化することができます。例えば、WebスクレイピングやAPI連携を使って、商品情報を取得し、自動的に価格比較や在庫管理を行うことができます。これにより、作業の手間や時間を減らし、効率化が図れます。 ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー★大量のデータを処理できるーーーーーーーーーーーーーーーーーーーーーーせどりビジネスでは、多くの商品データを扱うことが必要です。プログラミング技術を使うことで、大量のデータを処理することができます。例えば、機械学習やデータ分析を使って、商品価格の変動や需要予測を行うことができます。これにより、競合他社よりも正確な価格設定や仕入れ先の選定が可能になります。 ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー★アルゴリズムを実装できるーーーーーーーーーーーーーーーーーーーーーープログラミング技術を使うことで、複雑なアルゴリズムを実装することができます。例えば、画像認識技術を使って、商品画像から商品情報を自動的に取得することができます。例えばあるECサイト商品画像から、他社のECサイトでの
0
カバー画像

Webスクレイピングの利用事例7選:企業が取り組んだ市場調査事例

Webスクレイピングは、インターネット上の情報を収集するための強力なツールです。この技術を活用することで、ビジネスにおいて競合調査や市場調査を効率的に行うことができます。この記事では、Webスクレイピングを活用して実際に企業が市場調査に取り組んだ事例を紹介します。 【事例1】 ある化粧品メーカーは、新製品の発売前に競合他社の製品情報を収集するためにWebスクレイピングを利用しました。同社は、競合他社の製品ページから製品名、価格、成分などの情報をスクレイピングして、比較分析に活用しました。また、競合他社が取り組んでいるキャンペーンや販売戦略なども収集し、自社の販売戦略の改善に活かしました。 【事例2】 ある旅行会社は、旅行予約サイトの口コミデータをスクレイピングして、顧客の旅行ニーズを分析しました。同社は、顧客がどのような旅行プランを求めているのか、どのような口コミが多いのかを調査し、それに基づいた旅行商品の開発や販売戦略の改善を行いました。 【事例3】 あるECサイトは、商品カテゴリーごとに競合他社の価格や在庫情報を収集するためにWebスクレイピングを利用しました。同社は、競合他社の価格や在庫状況に合わせて自社の価格を調整し、常に競合他社と比較して優位な価格設定を行いました。 【事例4】 ある小売店は、商品レビューサイトから自社が取り扱っている商品の評価やレビュー情報を収集するためにWebスクレイピングを利用しました。同社は、収集した情報を商品の改善や販売戦略の改善に活かすことで、顧客満足度の向上を目指しました。 【事例5】 ある保険会社は、同業他社のサイトから保険商品の情報
0
カバー画像

プログラミングによる自動化のメリットとデメリットとは?せどりにおける自動化ツール開発の体験談

改めてせどりとは、安く仕入れた商品を高く売ることで利益を得る副業として認知されております。 せどりには市場調査は最重要となっております。 せどりの成功は仕入れた商品が売れ、かつ利益率が高いことが条件ですが、なかなかその売れ筋商品を調べたり、利益率の高い商品を見つけるためにはどうしても負担になってしまっております。 私自身、毎日その作業をしていたときに、これは自動化できるんじゃないか?ということで1からツールを作成してみました。 自作のプログラミングを組んでみて感じたこと、自動化することのメリットとデメリットを下記のようにまとめてみました。 これから始めたいという方はご参考にされてみてください。 ーーーーーーーーーーーーーーーーーーーーーーーー 【メリット】 ★効率の向上:繰り返し行う作業を自動化することで、効率的に処理できるようになります。これにより、作業時間を大幅に削減することができる。 ★正確性の向上:手作業で行う場合には、ミスやヒューマンエラーが発生する可能性がありますが、プログラムで自動化することで、正確性を高めることができる。 ★作業の可視化:自動化により、作業内容が明確になり、どのような手順で作業が行われているかが把握しやすくなる。 ★拡張性の向上:プログラムで自動化した作業は、簡単に修正や拡張が可能です。そのため、業務プロセスの変更に柔軟に対応することができる。 【デメリット】 ★技術的な知識が必要:自動化には、プログラミングの技術的な知識が必要です。そのため、自動化を行うための技術的な知識を持っていない場合には、プログラムを開発することができない。 ★予測できな
0
カバー画像

プログラミング

私はプログラミングのPython講座をやっていて、AIを作るところまでやる講座ですが、残念ながらプログラミングを覚えても仕事は取れないと思われ、趣味という事になります。Webデザインはできますから仕事を探しましたが、1件の案件に50人以上が提案するという状態なので、既に実績がある人ならともかく、新規参入は難しいと思いました。どうすればいいかと言えば、GooglePlayにアプリやゲームをアップするという方向性でやれば、ライバルが少ないはずなので、まだマシなはずです。あとはロジックの訓練になりますから、誰でも趣味程度のプログラミングはお勧めします。英語で書くという難点がありますが、それほど難しいものではありません。英語がそれなりにできる人なら楽なんではないでしょうか?Python講座が終わったらWebデザイン講座をやろうと思いますが、Webデザインは既にできる為に、あまり新しい発見はないかも知れません。Pythonに関しても、既に覚えたプログラミング言語の復習みたいなものです。Unityでゲーム開発するので、C#という言語を覚えたいです。PythonはAIの開発に使われる言語で、Googleなどシリコンバレーで使われてる言語です。シリコンバレーはGoogleやFacebookなどの会社が集まっている事で有名です。プログラミングは今どき読書よりもやった方がいい勉強ですが、仕事に使えるレベルは難しいと思いますから、趣味でやるものです。
0
カバー画像

Webスクレイピングで競合調査!効率的に市場情報を収集する方法

Webスクレイピングを利用して、競合調査を行い市場情報を収集することは、ビジネスの様々な場面で役立つ方法の一つです。この記事では、Webスクレイピングを使った競合調査の方法やそのメリットについて解説します。 まずは、競合調査の目的を明確にすることが大切です。競合調査を行うことで、自社の製品やサービスが市場においてどのような位置にあるのか、競合他社がどのような戦略をとっているのかを知ることができます。これにより、自社のビジネス戦略を見直すことができ、より効果的なマーケティング戦略を構築することができます。 次に、Webスクレイピングを使った競合調査の方法を紹介します。まずは、競合他社のウェブサイトを収集対象にします。例えば、競合他社の商品ページやニュースリリース、ブログ記事などを収集することができます。これらの情報から、競合他社がどのような製品を提供しているのか、どのようなキャンペーンを実施しているのかを知ることができます。 また、競合他社のSNSや口コミサイトなどからも情報を収集することができます。これらの情報から、競合他社の商品やサービスに対するユーザーの評価や不満点を知ることができます。さらに、競合他社のマーケティング戦略や広告宣伝活動を調査することもできます。 Webスクレイピングによる競合調査のメリットは、以下のようにまとめることができます。 1.時間の節約:Webスクレイピングを利用することで、手動で情報を収集する必要がなくなります。これにより、時間を短縮し、効率的な調査が可能となります。 2.詳細な情報の収集:Webスクレイピングを利用することで、広範囲かつ詳細な情
0
カバー画像

スクレイピング初心者でもできる!Webスクレイピングのやり方とツール紹介

Webスクレイピングとは、Webページから必要な情報を取得することです。Webスクレイピングを利用することで、情報を取得する作業を自動化することができます。今回は、スクレイピング初心者でもできる、Webスクレイピングのやり方とツールについて紹介します。Webスクレイピングのやり方 1.目的のWebページのURLを取得する。 2.目的のWebページのHTMLを取得する。 3.HTMLを解析し、必要な情報を取得する。 1. 目的のWebページのURLを取得する 目的のWebページのURLは、スクレイピングするための重要な情報です。目的のWebページをスクレイピングする前に、目的のWebページのURLを取得する必要があります。 2. 目的のWebページのHTMLを取得する 目的のWebページのHTMLを取得することができれば、そのWebページに含まれる情報を解析することができます。HTMLを取得するためには、HTTPリクエストを送信する必要があります。Pythonのrequestsライブラリを使用することで、簡単にHTTPリクエストを送信することができます。3. HTMLを解析し、必要な情報を取得する 目的のWebページのHTMLを取得したら、必要な情報を取得するためにHTMLを解析する必要があります。HTMLを解析するためには、PythonのBeautifulSoupライブラリを使用することができます。BeautifulSoupライブラリを使用することで、HTMLの構造を解析し、必要な情報を取得することができます。~ツールの紹介~Webスクレイピングを手軽に行うために、以下のツール
0
カバー画像

Webスクレイピングができるサイト一覧!多様なビジネスシーンで使える活用例

Webスクレイピングは、Web上に公開されたデータを自動的に取得する技術です。Web上の多くのサイトがスクレイピングに対して警戒心を持っているため、スクレイピングを利用する際には注意が必要です。ここでは、スクレイピングの活用例と、利用を許可しているサイトの一覧について紹介します。 【スクレイピングの活用例】 1.情報収集 スクレイピングは、Web上の情報収集に役立ちます。例えば、競合他社の商品やサービスに関する情報を収集し、自社のビジネス戦略に役立てることができます。また、マーケティング調査のためのデータ収集にも活用できます。 2.自動化 Webサイトから情報を取得し、自動で処理することで、作業の効率化が可能になります。例えば、Webサイトの更新情報を自動で取得し、自社サイトの更新作業を自動化することができます。 3.価格比較 スクレイピングを利用して、競合他社の価格情報を取得し、自社の価格設定の参考にすることができます。また、顧客向けの価格比較サイトを作成することもできます。 4.見積もり作成 Web上に公開されている製品やサービスに関する情報をスクレイピングすることで、見積もり作成に役立てることができます。例えば、建築業者が必要な材料の価格情報を取得し、見積もりの作成に利用することができます。 5.情報の可視化 スクレイピングで取得したデータを利用して、グラフや表などの視覚化ツールを用いて情報を可視化することができます。このような可視化により、膨大な量のデータを効率的に分析することが可能になります。【Webスクレイピングの利用を許可しているウェブサイト一覧】ここでは、ウェブ
0
カバー画像

完全初心者向けのWebスクレイピングの使い方と注意点

Webスクレイピングは、ウェブサイト上の情報を自動的に収集する技術です。Webスクレイピングを使うことで、大量のデータを効率的に収集することができます。 Webスクレイピングをするためには、スクレイピングツールやライブラリを使用する必要があります。Pythonには、BeautifulSoupやScrapyといった有名なスクレイピングライブラリがあります。これらのライブラリを使用することで、ウェブサイトからデータを収集することができます。 Webスクレイピングを行う際には、以下のような注意点があります。 ウェブサイトの利用規約を確認する ウェブサイトによっては、Webスクレイピングを禁止している場合があります。Webスクレイピングを行う前に、ウェブサイトの利用規約を確認し、Webスクレイピングが禁止されていないか確認しましょう。 頻度制限に注意する ウェブサイトによっては、Webスクレイピングを頻繁に行うことを制限している場合があります。頻繁にアクセスすると、サーバーに負荷をかけてしまうため、サーバーからアクセスを禁止されることもあります。そのため、一定間隔をあけるなど、頻度制限に気をつけましょう。 データの利用目的を明確にする Webスクレイピングで収集したデータを利用する際には、利用目的を明確にする必要があります。収集したデータを、商用目的や個人情報の収集に使用することは違法です。データの利用目的を明確にして、適切に扱いましょう。 データの正確性を確認する Webスクレイピングで収集したデータは、ウェブサイトの変更や誤りがある場合があります。そのため、収集したデータの正確性を
0
カバー画像

【GAS】Formの回答をDocsに代入,PDF化してMailで送信

はじめに初めまして.ココナラでプログラミングや語学など様々なサービスを展開中のodrag0nと申します.早速ですが今回はGASを使用して,「Formの入力をDocsに入力し,PDF化してMailで送信」するというプログラムを書いてみたいと思います.GASとは?Google Apps Script(GAS)は、ひとことで言えばGoogleが提供する各種サービスの自動化/連携を行うためのツールです。GASを使うと、Gmailやカレンダー、Googleスプレッドシート、Googleドライブなど、Googleが提供する様々なサービス上で処理を自動化したり、複数のサービスを連携させたりできます。ExcelやWordなどでマクロやOfficeスクリプトなどを使ったことのある方は、それらのGoogle版だとイメージしていただければいいと思います!活用例としては,Googleスプレッドシート上に設置したボタンのクリックで文字列を一括変換したり、GoogleスプレッドシートのデータをGmailに取り込んでメールを自動作成・送信したりすることができます。プログラムの流れ今回実装するプログラムの流れとしては以下のようになります.1,フォームで回答者から回答を受け取る2,回答をプログラム上で変数に代入する3,オリジナルドキュメント(雛形)のコピーを作成4,コピードキュメントに2の変数を代入5,コピードキュメントのPDFを作成6,5をメールで送信早速実装を始めてみましょう!
0 500円
カバー画像

Pythonのサンプルプログラム:アップルストアで指定した商品が補充されたら自動で予約

このサンプルプログラムは、アップルストアのWebページにリクエストを送り、商品のステータスを取得します。商品が補充されている場合は、予約するためのコードを実行し、ループを抜けます。商品がまだ補充されていない場合は1分間待機し、再度リクエストを送ります。できるだけ1ステップごとにコメントを入れて丁寧にコーディングしたつもりです。 各行の機能についての説明も含まれていますので、理解しやすくなっていると思います。 購入者様のPythonプログラミング技術向上にお役立ちできれば幸いです。 なお、外部リンクが禁止されているため「http://」は「ttp://」と表示しています。import requests from bs4 import BeautifulSoup import time # アップルストアのURLを定義する
0 500円
カバー画像

Pythonのサンプルプログラム:地方競馬のデータ収集結果をエクセルに保存

日本国内の地方競馬のデータ収集するPythonのサンプルプログラムです。収集した情報は日時、1着人気、1着オッズ、2着人気、2着オッズ、3着人気、3着オッズです。 取得したデータはエクセルに保存するようにしています。できるだけ1ステップごとにコメントを入れて丁寧にコーディングしたつもりです。 各行の機能についての説明も含まれていますので、理解しやすくなっていると思います。 購入者様のPythonプログラミング技術向上にお役立ちできれば幸いです。 なお、外部リンクが禁止されているため「http://」は「ttp://」と表示しています。いくつかのサイトがAPIを提供しており、APIを使用することが許可されています。そこで、APIを使用することにしました。注意:このコードは実際のAPIにアクセスすることはできません。APIのエンドポイントを適切なものに更新する必要があります。# 必要なライブラリのインポート import requests
0 500円
カバー画像

Pythonのサンプルコード:NFT購入の自動化。指定した値段以下になれば自動購入

Pythonのサンプルコード:NFT購入の自動化。指定した値段以下になれば自動購入です。できるだけ丁寧にコーディングしたつもりです。 購入者様のPythonプログラミング技術向上にお役立ちできれば幸いです。 なお、外部リンクが禁止されているため「http://」は「ttp://」と表示しています。 Web3.pyというEthereumのPython用ライブラリを使用することができます。Web3.pyを使用することで、Ethereumのノードと通信して、NFTを購入することができます。以下は、指定された値段以下になった場合にNFTを自動購入するサンプルコードです。このサンプルコードは、ローカルに構築されたEthereumノードと通信するため、実際の運用環境では接続先のURLやABIなどを修正する必要があります。また、NFTマーケットプレイスのコントラクトに定義されている関数名や引数なども確認して修正する必要があります。import time import web3 # Ethereumノードへの接続
0 500円
カバー画像

Pythonのサンプルプログラム提供:東京の最低気温と最高気温を自動的に取得しCSVファイルに記録する

できるだけ丁寧にコーディングしたつもりです。 東京の最低気温と最高気温を自動的に取得しCSVファイルに記録する。 取得より10日経過したレコードは削除する。 という内容のサンプルプログラムです。 このコードでは、OpenWeatherMap APIを使用していますので 実際に動作させるにはAPIキーの取得を行ってください。 購入者様のPythonプログラミング技術向上にお役立ちできれば幸いです。weather_url = "p://api.openweathermap.org/data/2.5/weather?q=Tokyo&units=metric&appid={}"このコードには「htt」を追記してください。import csv import requests from datetime import datetime, timedelta # OpenWeatherMap APIのエンドポイントとAPIキー
0 500円
カバー画像

条件分岐(if)を利用するには

Pythonのコードを書いていく上で、【if】はかなり重要であり、よく用いるものになります。例えば、①もし『サンプル.xlsm』とういファイルがなければ、新しくファイルを作成する、見つからなければコードを中断する。②もし、Excelのセルに数字が記載されていれば、それを変数に代入する、記載がなければメッセージボックスで『みつかりません』と表示させる。③もしExcelファイルが開いていればファイルを保存して終了する、開いていなければ、ファイルを開く。上記のような構文を書く際に 【if】分を活用することができます。基本は、if  条件のコード :インテンド(半角スペース4) 条件式がTrueの時に実行するコードになります。このままだとTrueの場合しか、実行できないので、追加します。if  条件のコード : インテンド(半角スペース4) 条件式がTrueの時に実行するコードelse:インテンド(半角スペース4) 条件式がFalseの時に実行するコードこのようにすることで、条件のコードがFalseになる場合に実行する式も記載可能です。さらに条件を追加する場合を書きに具体的に記載します。変数として、x = 100if  x<0 :インテンド print('マイナスの数字')elif 0<= x <50:インテンド print('50以下の数字')elif 50<= x <100:インテンド print('100未満の数字')elif 100<= x < 500:インテンド print('500未満の数字')else:インテンド print('5
0
カバー画像

メソッドについて

前回は関数について記載しましたが、今回はメソッドについてです。引数を受け取ってコンピューターに仕事をさせる点は関数と同じですが、【値.メソッド名(引数)】上記の様に記載します。具体的には、【HELLOW】という文字の中で、『H』を『J』に変換することをreplace というメソッドを利用する場合は、’HELLOW’.replace('H','J')と記載する感じです。注意点として、replaceメソッドは文字列に対してのみ有効なので、100といった数字に対して使用するとエラーとなります。正直なところ、関数なのかメソッドなのかを正確に判別できるだけの能力はまだないので、経験値を増やして、より理解を深めたい今日、この頃です・・・。
0
カバー画像

関数について

Pythonでは色々なことが可能です。その【色々】を実現するために必要なことは、関数とメソッドになります。具体的な関数には、print関数、input関数があります。これらは組み込み関数といって標準で利用できる関数になります。また、関数は自分で作成できます(関数定義)。def 関数名(引数名 ):インデント 具体的なコード上記のような様式です。インデントの部分は空白半角スペースが必要になります。Pythonではこのインデントがかなり重要になります。VBAでは空白などはプログラム側が自動で調整してくれますが、Pythonでは自己にて記入が必要です。Vscodeを利用しているとエラー表示されるので気づきやすいです。引数名については空白でも可能であり、関数の中で利用する変数を設定し、関数の中で活用することもできます。関数を定義する利点としては、プログラムの構造が客観的に分かりやすくなる、関数を呼び出しやすくなることです。また、そのコードの塊が何を行っているのかも、関数名で任意に設定することができます。メソッドについては次回に記載します。
0
234 件中 1 - 60
有料ブログの投稿方法はこちら