ローカル環境でのLLM構築・運用をトータルサポートし、手順書一式を納品します。
「自社データをクラウドに出したくない」
「API料金が高い…自分のPCでAIを動かしたい」
「GPU買ったけどLLMの動かし方がわからない」
■ 対応内容(お選びください)
① GPU・ハードウェア選定(用途と予算に最適な構成を提案)
② LLM推論環境構築(Ollama / vLLM インストール・動作確認)
③ モデル選定・ベンチマーク(日本語性能・速度・VRAM比較)
④ API互換サーバー構築(OpenAI互換エンドポイント化)
⑤ 既存システム連携支援
■ 納品物
・ハードウェア選定レポート(GPU比較表付き)
・環境構築手順書(再現可能なドキュメント)
・推論サーバー設定ファイル一式
・ベンチマーク結果レポート
■ 料金
・相談+選定(①③): ¥10,000
・基本構築(①〜③): ¥15,000
・フル導入(①〜⑤): ¥30,000〜
・法人向け: 別途見積もり
■ 出品者の環境
・RTX 5090(32GB VRAM)で毎日ローカルLLMを運用中
・vLLM + Qwen2.5 / Gemma系の推論最適化実績
・Qiita/Zennに関連記事30本以上
ご購入前に必ず「見積もり相談」からお問い合わせください。現在の環境とやりたいことをお聞きし、最適なプランをご提案します。
■ 前提条件
・NVIDIA GPU搭載PC(VRAM 8GB以上推奨)が必要です
・Windows / Linux 両対応
・GPU購入前の相談もOKです
■ 対応時間
・平日夜間(19:00-23:00)・土日祝
・メッセージは24時間以内に返信します
■ 納期
・相談+選定: 3日
・基本構築: 7日
・フル導入: 14日
■ その他
・GPU/PCの購入代行は対応しておりません
・商用利用時のモデルライセンスはお客様にてご確認ください