MENU

ローカルLLMとは|仕組み・必要スペック・おすすめモデル/ツール・始め方を完全解説

本記事には広告(PR)が含まれています。

ローカルLLMって最近よく聞くけど、結局なに?」「自分のPCで本当に動くの?」「OllamaとかLM Studioとか、結局どれを使えばいい?」――ChatGPTやClaudeのようなクラウドAIが当たり前になった2026年、それとは逆方向に「自分のPCでLLMを動かす」ローカルLLMが急速に注目を集めています。

ローカルLLM とは、ひとことで言うと 「自分のPCの中で動く、自分専用のAI」です。データを外に出さず、月額料金もかからず、慣れれば ChatGPT のような対話やコーディング補助も自宅PCで完結できます。

本記事では、ローカルLLM の仕組み・メリット/デメリット・必要スペック・おすすめツール5選・推奨モデル6大ファミリー・5分で始められる手順まで、初心者にもわかりやすく完全解説します。

この記事でわかること
  • ローカルLLMの正体とクラウドLLM(ChatGPT等)との違い
  • メリット・デメリット
  • 自分のPCで動くか分かる「必要スペック早見表」
  • 主要ツール5選の違い(Ollama / LM Studio / Jan / llama.cpp / vLLM)
  • 2026年5月時点の6大モデルファミリー(Qwen3 / Llama / Gemma 4 / Mistral / DeepSeek V4 / GLM-5)
  • 5分で始められる Ollama 実践ガイド
  • GPUなしのPCでも動かせるかどうか
  • 商用利用とライセンスの注意点
本記事のエッセンス(まず3行で)
  • ローカルLLMとは「自分のPCの中で動くLLM」、データが外に出ず月額料金ゼロ
  • 始め方は超シンプル:Ollama または LM Studio をインストール → モデルを選んでダウンロード → 起動 → チャット
  • VRAM 16GB のGPU 1枚あれば、Qwen3 や Llama 3.3 などの上位モデルがほぼ ChatGPT 並みの品質で動く

Winスクール
【初心者向け】
・20~30代におすすめ
・データ分析・AIに特化
公式サイトで無料登録する
目次

ローカルLLMとは?──クラウドLLMとの違い

ここで覚えてほしい一言

「自分のPCの中で動く、自分専用のAI」

一言でいうと「自宅で動くChatGPT」

ローカルLLM(ローカル ラージランゲージ モデル)とは、自分のPCやサーバーの中で直接動かす、対話型AIモデルのことです。

普段使っている ChatGPT や Claude は「クラウドLLM」で、AIの本体はOpenAIやAnthropicのサーバー上にあります。あなたの質問はインターネット経由で送られて、回答が戻ってくる仕組みです。

これに対しローカルLLMは、AIモデル本体をあなたのPCにダウンロードして動かします。インターネットなしでも動き、入力したデータが外に出ることもありません。

クラウドLLMとローカルLLMの比較

観点クラウドLLM(ChatGPT等)ローカルLLM
動作場所OpenAI / Anthropic等のサーバーあなたのPC
ネット接続必須不要(オフラインでもOK)
データの行き先サーバーに送信PC内に留まる
料金月額20ドル〜電気代のみ
性能最高クラス(GPT-5.5等)用途次第で互角〜80%程度
動かすのに必要アカウントだけGPU/メモリ等のスペック
カスタマイズ限定的自由(モデル変更・ファインチューン可)

なぜ今、注目されているのか

2026年に入ってローカルLLMの注目度が急上昇している理由は3つあります。

  1. モデルの高性能化:Qwen3・Llama 3.3・Gemma 4・DeepSeek V4・GLM-5など、ChatGPT並みの品質のオープンウェイトモデルが続々登場
  2. ツールの簡単化:Ollama や LM Studio でボタン数クリックで使えるようになった
  3. クラウドAIのコスト・規制問題:API課金の高騰、企業の機密情報を外に出したくないニーズ

ローカルLLMのメリット・デメリット

ここで覚えてほしい一言

強さは「プライバシー・コスト・自由」、弱さは「初期投資とセットアップの手間」

メリット5つ
  1. データが外に出ない:機密情報を扱う仕事でも安心して使える
  2. 月額料金ゼロ:ChatGPT Plusの月20ドルが浮く(電気代だけ)
  3. オフラインでも動く:飛行機の中でも、ネットが不安定な環境でも稼働
  4. 使い放題:「あと何回しか使えない」というクラウドの上限がない
  5. モデルを自由にカスタマイズできる:ファインチューニングや日本語特化など
デメリット5つ
  1. 初期投資が必要:高性能モデルを動かすにはGPU搭載PCが推奨(既存PCでも入門は可能)
  2. セットアップに少し手間:といっても5〜10分程度
  3. 品質はトップクラスのクラウドAIには負ける:GPT-5.5やClaude Opus 4.6には届かない(が、Qwen3 等で 80%程度の品質 は出る)
  4. 電気代がかさむ:長時間フル稼働させるとPCの電気代は無視できない
  5. モデル選定の判断力が要る:「自分の用途に合うモデルはどれか」を選ぶ力が必要

必要なPCスペック早見表

ここで覚えてほしい一言

「Bパラメータ数の半分(GB)がVRAMの目安」

ローカルLLMで一番重要なのが GPU の VRAM(ビデオメモリ)容量です。これが小さいと、上位モデルが動きません。

モデルサイズ別の必要VRAM

モデルサイズ必要VRAM(量子化版)必要VRAM(フル精度)該当モデル例
小型(〜7B)4〜6GB14GBPhi-3 / Qwen3:7B / Llama 3.2 3B
中型(8〜14B)6〜10GB28GBQwen3:8B / Llama 3.1 8B / Gemma 4:9B
大型(30〜34B)16〜20GB60GB+Qwen3:32B / Mixtral 8x7B / Gemma 4:31B
超大型(70B以上)40GB+140GB+Llama 3.3 70B / Qwen3:72B / DeepSeek V4 Flash

Bパラメータ数の半分(GB)がVRAMの目安」と覚えておくと便利です。例:14B → 7GB目安。

推奨スペック早見表

用途GPUVRAM主メモリストレージ
入門・お試し内蔵GPU/RTX 30504〜6GB16GBSSD 256GB
個人ヘビー利用RTX 4070 SUPER以上12〜16GB32GBSSD 1TB
本格運用RTX 4090 / RTX 509024GB+64GBSSD 2TB
Apple SiliconM2 Pro / M3 / M4統合メモリ16GB+SSD 512GB+

特に Apple Silicon(Mac)はメモリが GPU と共有される構造のため、ローカルLLMとの相性が良く、MacBook Pro M3 Max(メモリ32GB以上)はNVIDIA RTX 4070並みの性能が出ます。

代表的なツール5選比較

ここで覚えてほしい一言

初心者は LM Studio、開発者は Ollama

ローカルLLMを動かすツールは何種類かあります。代表的な5つを比較します。

ツールUI強み向いている人
OllamaCLI+API軽量・高速・REST API標準開発者・スクリプト連携派
LM StudioGUIボタン1つで簡単、可視化重視非エンジニア・初心者
JanGUIOSS・プライバシー重視LM Studioの代替を探す人
llama.cppCLI軽量C++、CPU特化玄人・低スペックPC派
vLLMCLI/API本番運用向け、高速推論業務でLLMを大量に動かす人

Ollama vs LM Studio の選び分け

最も人気の2強は OllamaLM Studio。一言で表すなら:

  • Ollama:「プログラマー向けの実用品」 ── ターミナルで ollama run qwen3:8b と打つだけ、軽量で起動が速い、REST APIが標準で他アプリと連携可能
  • LM Studio:「初心者向けの体験店舗」 ── アプリのGUIでモデルを検索、ダウンロードボタン、スライダーで設定、ChatGPTっぽい画面でチャット

初めての人は LM Studioコーディング作業に組み込みたい人は Ollama が定石です。

Ollama については別記事で詳しく解説しています。

ローカルLLMの種類を整理する──6大ファミリー

ここで覚えてほしい一言

「Qwen / Llama / Gemma / Mistral / DeepSeek / GLM」が世界6大ファミリー

2026年5月時点で、ローカルLLMで動かせるオープンウェイトモデルは数百種類ありますが、押さえるべきは 6大ファミリーに集約されます。それぞれのファミリーに最新版があり、毎月のように進化しています。

6大主要モデルファミリー(2026年5月時点・最新版)

モデル開発元最新版リリース主なサイズライセンス
Qwen3Alibaba(中国)Qwen32025〜7B / 14B / 32B / 72BApache 2.0
Llama 3.3Meta(米)Llama 3.32024年末〜8B / 70BLlama Community
Gemma 4 ★最新Google(米)Gemma 4(2026/4/2リリース)2026年4月E2B / E4B / 26B A4B / 31BApache 2.0
Mistral / MixtralMistral AI(仏)Mixtral 8x22B 等2024〜7B / 8x7B / 8x22BApache 2.0
DeepSeek V4 ★最新DeepSeek(中国)V4 Pro / V4 Flash(2026/4/24リリース)2026年4月V4 Flash 284B / V4 Pro 1.6T(MoE)MIT
GLM-5 / GLM-5.1 ★最新Zhipu AI(中国)GLM-5(2026/2/11リリース)2026年2月9B / 32B / 745B(MoE)MIT

★ 印は 2026年に大型アップデートされた最新世代モデルです。

補完・特化モデル

モデル強み用途
Hermes 3エージェント特化(Nous Research)AIエージェント連携
Qwen2.5-Coder / Qwen3-Coderコーディング特化開発支援
DeepSeek-Coder V3数学・コード推論最強クラス競技プログラミング・複雑ロジック
GPT-OSSOpenAI公式OSSOpenAI互換が欲しい人
CyberAgent Calm3日本語ビジネス特化日本語ビジネス文書
Phi-3 / Phi-4超軽量(Microsoft)低スペックPC

Qwen3──日本語性能トップ・デファクトスタンダード

Qwen3(Alibaba)は2026年5月時点でローカルLLMのデファクトスタンダードです。

  • Apache 2.0 ライセンス(商用利用OK・無条件)
  • 日本語性能がオープンウェイトモデルでトップクラス
  • 7B / 14B / 32B / 72B など サイズが豊富、PCスペックに合わせて選べる
  • Ollama / LM Studio に標準対応

「最初は何を選べばいいかわからない」という人は、Qwen3:8B(VRAM 6GB前後で動く)から始めるのが王道です。

Llama 3.3──Meta製の世界標準

Llama(Meta)はオープンウェイトモデルの世界標準とも言える存在で、エコシステムが最大です。

  • 8B / 70B の2サイズ(次期 Llama 4 系の発表が近いと噂)
  • 派生モデル(Hermes 3 / CyberAgent Calm3 など)の多くが Llama 系
  • Llama Community License:月間アクティブ7億ユーザー以上の企業には別途条件あり

安心の万能モデル」として、Qwen3 と並ぶ第二の選択肢です。

Gemma 4──Googleの最新軽量モデル

Gemma 4(Google・2026年4月2日リリース)は、Gemma 3 から大幅に進化した最新世代です。

  • 4サイズ展開E2B / E4B / 26B A4B / 31B(DenseとMoEの両構造)
  • Apache 2.0 ライセンス(商用利用OK・無条件)
  • コンテキスト長 256K トークン(前世代から大幅拡張)
  • マルチモーダル対応:テキスト・画像入力に対応、小型モデルは音声も
  • 140言語以上の多言語対応、日本語性能も大幅向上
  • スマホ・エッジから RTX 4070 / Macまで、幅広いデバイスで動く

「軽くて速くて、それなりに賢い」が Gemma 3 までの売りでしたが、Gemma 4 では「マルチモーダル+256Kコンテキスト+Apache 2.0」と、商用利用にも極めて使いやすい設計になっています。

Mistral / Mixtral──効率特化型

Mistral AI(フランス)の Mistral / Mixtral は、効率重視の設計で知られます。

  • Mistral 7B:少ないパラメータで Llama 13B 並みの性能
  • Mixtral 8x7B / 8x22B:MoE(Mixture of Experts)構造で、見かけは大きいが必要VRAMは抑えられている
  • Apache 2.0(商用利用OK)
  • 多言語性能が強く、英語以外の処理に向いている

DeepSeek V4──推論力の怪物

DeepSeek V4(中国・2026年4月24日リリース)は、推論力・数学・コーディングでクラウドAIのトップ層に肉薄するモデルです。

  • 2モデル展開
    • DeepSeek-V4-Pro:1.6T パラメータ MoE(推論時 49B activated)
    • DeepSeek-V4-Flash:284B パラメータ(推論時 13B activated)
  • MIT ライセンス(商用利用OK・無条件)
  • コンテキスト長 1,000,000(100万)トークン
  • DeepSeek-V3.2 比でFLOPs 27%・KVキャッシュ 10% に圧縮(Compressed Sparse Attention 等の革新)
  • 数学・論理パズル・複雑コーディングで群を抜く性能

ローカルLLMで推論力の限界に挑む」なら DeepSeek V4 一択です。

GLM-5──MITの巨人 ★2026年2月リリース

Zhipu AI(中国)のGLM-5(2026年2月11日リリース)は、商用利用しやすさで急浮上しているモデルです。

  • 745B パラメータ MoE(推論時 約44B activated)
  • MIT ライセンス(商用利用OK・改造OK・無条件)
  • コンテキスト長 200万トークン ネイティブ対応
  • マルチモーダル対応:視覚・聴覚・テキスト
  • OpenAI / Claude API 互換:既存クライアントツールがそのまま動く
  • 国産Huawei Ascendチップで全訓練、中国AIインフラ独立の象徴

ライセンスの煩雑さに疲れた」「OpenAI互換のまま自前ホストしたい」というニーズに刺さります。後継の GLM-5.1 も既にリリース済みで、軽量化と日本語性能向上が進んでいます。

コーディング特化のおすすめ

VS Code 等の補助として「コードを書くAI」が欲しい場合は、次の3択が定番です:

ollama run qwen2.5-coder:7b      # 万能コーディング
ollama run deepseek-coder:6.7b   # 数学・複雑ロジック
ollama run codellama:7b          # Llama系の老舗

Qwen2.5-Coderがもっともバランスが良く、DeepSeek-Coderは難問特化です。

Qwen3/Llama 3.3/Gemma 4/Mistral/DeepSeek V4/GLM-5の6大ファミリーをまず押さえれば、最新動向の8割は追えます。

モデルの選び方──用途別ガイド

ここで覚えてほしい一言

「モデル選びは”用途×PCスペック×ライセンス”の3軸」

無数にあるモデルから「自分に合うもの」を選ぶ判断軸をまとめます。

用途別おすすめ

用途推奨モデル
日常チャット(日本語)Qwen3:8B / CyberAgent Calm3 / Gemma 4
コーディングQwen2.5-Coder:7B / DeepSeek-Coder
文書要約Llama 3.3 / Gemma 4
多言語処理Mistral / Mixtral
エージェント連携Hermes 3 / Qwen3:32B
推論・数学DeepSeek V4 Flash
長文処理(100万トークン)DeepSeek V4 Pro / GLM-5
低スペックPCPhi-3 / Gemma 4 E2B
商用利用(ライセンス安心)Qwen3 / Gemma 4 / Mistral / DeepSeek V4 / GLM-5

スペック別おすすめ

あなたのPC推奨モデル
ノートPC(VRAM 4GB)Phi-3 / Gemma 4 E2B
ゲーミングPC(VRAM 8〜12GB)Qwen3:8B / Llama 3.1 8B / Gemma 4:9B
高性能PC(VRAM 16GB)Qwen3:14B / Gemma 4:26B / GLM-5:9B
ワークステーション(VRAM 24GB+)Qwen3:32B / Gemma 4:31B / GLM-5:32B / Mixtral 8x7B
Apple Silicon(メモリ32GB)Qwen3:14B / Llama 3.3 / Gemma 4:26B

5分で始める「Ollama」実践ガイド

ここで覚えてほしい一言

「ollama run qwen3:8b」の1行で動く

具体的に、ローカルLLMを動かす最短手順を5ステップで紹介します(Ollama 使用)。

  1. STEP1
    Ollama公式サイトからインストーラーをダウンロード

    ollama.com にアクセスし、お使いのOS(macOS / Windows / Linux)のインストーラーをダウンロード。

  2. STEP2
    インストーラーを実行

    ダブルクリックで起動 → 指示通り「次へ」を押すだけ。Macなら ollama コマンドが、Windowsならアプリがインストールされます。

  3. STEP3
    ターミナルでモデルをダウンロード+起動
    ollama run qwen3:8b

    初回はモデル(約5GB)のダウンロードが走ります。完了すると対話モードになります。

  4. STEP4
    チャット開始

    ターミナルに直接質問を打つだけ。数秒で回答が返ってきます。ChatGPTと同じ感覚で使えます。

  5. STEP5
    別アプリと連携(任意)

    Ollama は REST APIが標準で動いているので、http://localhost:11434/api/generate 経由で他のアプリやスクリプトから呼び出せます。Claude Code 風のエージェントを自宅で動かすことも可能です。

Ollamaはollama pullで好きなモデルをDLし、ollama runで対話開始。5分で自分のPCがAI環境に変わります。

GPUなしでも動かせる?

ここで覚えてほしい一言

「Apple Silicon は GPU が無くても動く、Windows のCPU推論は遅いけど動くは動く」

「自分のPCに高性能GPUなんて積んでいない」という方も多いはず。結論:動きはします、ただし速度が違います

Apple Silicon(M1〜M4)の場合

Mac の M1 / M2 / M3 / M4 シリーズは、CPUとGPUとメモリが統合された設計のため、専用GPUなしでも実用速度でローカルLLMが動きます。

  • M1 Pro / M2 Pro:Qwen3:8B が体感ChatGPTより少し遅い程度
  • M3 Max / M4 Max:Llama 3.3 70Bでも快適に動く

ローカルLLM をはじめるなら、実は MacBook Pro が最適解という声も多いです。

Windows / Linux GPUなしの場合

Windows / Linux で GPUなし、内蔵グラフィックスのみの場合:

  • 7B モデル:1秒間に2〜5トークン程度(体感:ゆっくり)
  • 13B以上:実用速度を出すのは厳しい

ただし「動かない」のではなく「遅い」だけなので、急がない用途(夜間バッチ的な使い方)なら成立します。CPU推論を高速化する llama.cpp などの工夫もあります。

推奨機種|MacかVRAM 12GB+のGPU

ローカルLLMを快適に使いたいなら、推奨は次の2択です:

  • MacBook Pro M3/M4(メモリ32GB以上):手軽さと性能のバランスが最良
  • Windows + RTX 4070 SUPER以上:拡張性とコスパが良い

商用利用とライセンス

ここで覚えてほしい一言

「Apache 2.0 / MIT は安心、Llama / Gemma も多くは商用OK、ただし常に確認」

ローカルLLMを業務で使う場合、ライセンス確認は必須です。代表モデルのライセンスを整理します。

モデルライセンス商用利用
Qwen3Apache 2.0◎ 自由
Gemma 4Apache 2.0◎ 自由
Mistral / MixtralApache 2.0◎ 自由
DeepSeek V4MIT◎ 自由
GLM-5MIT◎ 自由
Llama 3.3Llama Community License○(月7億ユーザー以下なら)
Hermes 3Llama 派生+追加条件○ 確認推奨
GPT-OSSOpenAI License△ 確認必須
Phi-4MIT◎ 自由

Apache 2.0」「MIT」は事実上無条件で商用利用OK。それ以外はモデルカードのライセンス条項を必ず確認してください。

特に注意:Llama系は規模の大きい企業(月間アクティブ7億ユーザー超)には別途条件があり、商用利用前にチェック必須です。

クラウドLLMとのコスト試算

ここで覚えてほしい一言

「初期投資15〜30万円、ランニングは電気代のみ」

実際にどれくらいコストが違うのか、シミュレーションしてみます。

個人ヘビーユーザー(月100時間程度の使用)

区分クラウドLLM(ChatGPT Plus / Claude Pro)ローカルLLM(自宅PC)
初期費用$0約15万〜30万円(GPU PC1台)
月額固定費$20〜$200電気代 約500〜1,500円
API使用料〜$50(API個別利用なら)$0
年間コスト(1年目)約3〜30万円約16〜32万円(PC込み)
年間コスト(2年目以降)約3〜30万円約1〜2万円(電気代のみ)

損益分岐点

  • クラウドAPIで月$50以上使っている人:1〜2年でローカルLLMの方が安くなる
  • 月$200以上使っているヘビーユーザー:半年〜1年で元が取れる
  • 企業利用で機密扱いのデータがある場合:コスト以前にローカル一択

併用が現実解

ただし全部をローカルLLMで完結する必要はありません。実用的には:

  • 日常的な対話・コーディング補助:ローカルLLM(Qwen3 / Gemma 4)
  • トップクラスの品質が必要な仕事:クラウドLLM(ChatGPT / Claude)

使い分けが最適です。実際、Hermes Agent や Codex のようなフレームワークは「モデル切り替え」を前提に設計されています。

どんな人におすすめ?

ここで覚えてほしい一言

「プライバシー重視・コスト重視・カスタマイズ派」のいずれかに当てはまるなら必ずやるべき

1. プライバシー重視の人
  • 機密文書を扱う仕事をしている
  • 個人情報を含む入力をAIに渡したくない
  • セキュリティ要件が厳しい職場
2. AIヘビーユーザー
  • すでに ChatGPT Plus や Claude Pro を契約している
  • API課金が月数千円〜数万円かかっている
  • 「もっと自由に・もっと安く」使いたい
3. AI開発者・研究者
  • 自分のプロダクトにLLMを組み込みたい
  • ファインチューニングして特化型AIを作りたい
  • API利用料を気にせず実験を繰り返したい
4. 学習目的の人
  • LLMの仕組みを理解したい
  • 「AI を自分で動かす」体験をしたい
  • これから AI 業界でキャリアを築きたい

逆に「ChatGPT で十分満足、月20ドルで安いし、すぐ使えるのが大事」という人は、無理にローカルLLMに移行する必要はありません。

よくある質問(FAQ)

ローカルLLMは無料?

ツール(Ollama / LM Studio 等)と多くのモデルは無料で使えます。ただしPCスペックの初期投資と電気代はかかります。

ChatGPT より性能は劣る?

最高品質では劣りますが、用途次第で互角です。GPT-5.5 や Claude Opus 4.6 のトップ品質には届きませんが、DeepSeek V4 / GLM-5 / Qwen3:32Bなどの上位ローカルモデルは GPT-4 程度〜それ以上の品質は出ます。

商用利用はOK?

モデルのライセンス次第です。Apache 2.0 や MIT のモデル(Qwen3 / Gemma 4 / Mistral / DeepSeek V4 / GLM-5)は事実上自由。Llama や Gemma旧版は条件付きでOK。

どのくらいのPCで動く?

最低 VRAM 4GB + メモリ16GB で入門可能。本格運用は VRAM 12GB+ + メモリ32GB+ 推奨。

日本語は使える?

完全に使えます。特に Qwen3Gemma 4CyberAgent Calm3 は日本語性能が高いです。

Apple Silicon Mac でも動く?

むしろ最適環境です。M1〜M4 シリーズはCPU/GPU/メモリが統合されており、ローカルLLMとの相性は抜群。

ChatGPT API より安い?

ヘビーユーザーなら確実に安くなります。月$50以上API課金している人は1〜2年で元が取れます。

インターネット接続なしで動く?

動きます。一度モデルをダウンロードすれば、その後はオフラインで使えます。

まとめ|ローカルLLMは「AIを自分のものにする」入口

本記事のまとめ
  • ローカルLLMは自分のPCで動くAI、データが外に出ず月額料金もゼロ
  • 始め方は超シンプル:Ollama / LM Studio をインストール → モデル選択 → 起動
  • VRAM 6〜16GB のGPU 1枚あれば、Qwen3 や Llama 3.3 などの上位モデルがほぼ ChatGPT 並みの品質で動く
  • 2026年5月の最新モデルはQwen3 / Llama 3.3 / Gemma 4 / Mistral / DeepSeek V4 / GLM-5の6大ファミリー
  • Apple Silicon Mac は実は最適環境、M3/M4ならGPUなしでも快適
  • 商用利用は Apache 2.0 / MIT モデルなら安心
  • クラウドLLMと併用するのが現実解

「AIを毎日触っているけれど、もっと自由に使いたい」「機密情報を扱うのにクラウドAIは怖い」「月のAI費用を抑えたい」という人は、ぜひローカルLLMを試してみてください。1日触ると、もう手放せないことに気づくはずです。

関連記事

参考リンク(一次ソース)


Winスクール
【初心者向け】
・20~30代におすすめ
・データ分析・AIに特化
公式サイトで無料登録する
よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

管理人のアバター 管理人 データエンジニア / ETL設計

基幹システム×データエンジニア|DataEngineerLabs運営
大手食品系の基幹システム開発を経験。人事・給与・販売管理のデータ連携、ETL設計、SQLパフォーマンスチュートリアル、バッチ保守が専門。
DataSpider実務経験。"使える状態にする"難しさを発信中

コメント

コメントする

目次