完全オフラインで動くローカルAIを構築します (Ollama/llama.cpp/RAG対応) イメージ1
1/1

完全オフラインで動くローカルAIを構築します

(Ollama/llama.cpp/RAG対応)

評価
-
販売実績
0
残り
5枠 / お願い中:0
お届け日数
3日(予定)

サービス内容

【サブタイトル】 クラウド不要・社内完結。日本語対応のローカルAI環境をゼロから構築します(Ollama/llama.cpp/RAG対応) 【詳細内容】 「社内データを外部に出さずにAIを使いたい」 「ローカルLLMを導入したいが設定が難しい」 そんな方向けに、オフラインで動作するローカルAI環境を構築します。 ■ 提供内容 ・ローカルLLM環境構築(Ollama / llama.cpp など) ・GPU認識・最適化設定(NVIDIA環境対応) ・日本語向けモデル導入と初期設定 ・ブラウザUI(OpenWebUI等)のセットアップ ・社内資料RAG構築(PDF・テキスト対応 ※上位プラン) ■ できること ・インターネット接続なしでAI運用 ・社内ドキュメント検索AIの構築 ・ChatGPTのような操作感をローカルPCで実現 ■ こんな方におすすめ ・企業内で安全にAIを使いたい ・クラウド送信を避けたい ・ローカルAIを日本語で快適に使いたい初心者の方 ■ 進行の流れ ① ご相談(PC環境・GPU有無の確認) ② 構築内容の整理 ③ セットアップ実施 ④ 動作確認・使い方説明 ■ 対応環境 Windows / Ubuntu(NVIDIA GPU推奨・CPU環境も相談可) ※実機GPU環境で検証しながら構築します。 ※購入前にメッセージで環境をご相談いただくとスムーズです。 ※Google Chat または Google Meet で連携します。

購入にあたってのお願い

・ご購入前に必ずPC環境(OS/GPU有無/メモリ容量)をお知らせください ・企業ネットワーク環境の場合は制限内容も事前に共有をお願いします ・外部ツールでのやり取りは禁止のため、すべてココナラ内で対応します ・ハードウェアの物理的な故障対応やOS再インストールは対象外です ・環境によっては動作速度やモデルサイズに制限が出る場合があります

有料オプション

4,000