ローカルLLMとは | ChatGPTとの違い・意味や将来性をまとめて解説

こんにちは、だるまと赤べこです。


今回のテーマは「ローカルLLMとは」


最後まで読んでいただければ幸いです。よろしくお願いします。


ローカルLLMとは


さて、ローカルLLMとは何でしょうか?


簡単に言えば「自宅のPC上で動かせるChatGPT」みたいなものです。


以上です。



・・・いや、お暇ならもう少し話を聞いてください。


そもそもLLMというのは"Large Language Model"、日本語で「大規模言語モデル」の略称です。


大規模言語モデルというのは、まあここでは「ChatGPTの中の人」とでも形容しておきましょうか。あんな感じで自然に言葉を紡ぐAIのことを大規模言語モデルというのです。


そしてIT用語としてのローカルというのは、世界中で情報が飛び交うインターネット社会において**「自宅の、自社の、手元の、パソコンそのものやら外部と隔たれた環境やら」**のことを指すと思います。


つまりここまでの話をまとめると、ローカルLLMとは「自宅のデバイス上で、ChatGPTみたいな喋るAIを使うもの」ということなんです。



・・・え?別にChatGPTだって自宅のPCで使えるじゃないかって?


確かに・・・


じゃあ、もう少し深い説明をしますね。


ChatGPTとLLM


こんなものは言葉のあやですが、そもそもChatGPTって別にAIじゃないんです。


厳密にいえばChatGPTとは「OpenAIの開発したAI(大規模言語モデル)を使って自然な会話が出来るチャットAI"サービス"」です。


そして、そのChatGPTを動かす中の人・・・実はこれこそが真にAIと呼べるものの正体なんです。


例えばGPT-3.5とか、GPT-4、GPT-4oとか。


つまり、


"コールセンターで田中が対応します"
"ChatGPTでGPT-4が会話します"


ちょうどこんな感じ。


で、繰り返しになりますがこの「GPT-4」とかが大規模言語モデルってわけです。



さて、そんなChatGPTですが・・・


じゃあこのChatGPTの中の大規模言語モデルは、一体どこにいるでしょうか?


1: OpenAI社が持ってる巨大サーバー
2: ChatGPTユーザーのスマホやPCの中



答えは1. OpenAI社の巨大サーバー です。


だって考えてみれば、ネット接続が切れたらChatGPTも使えませんものね。当たり前のことでした。


それ以前にChatGPTをデバイス上で動作させられるようなスマホは2024時点でこの世に存在せず(10年後でも怪しい)、また、そんなPCを所有する個人もいないでしょう。


GPT-3.5ならいけるかもしれないけど・・・いたとして、サウジアラビアに一人か二人。


まあ、そもそもGPTシリーズは非公開なのでOpenAIとMicrosoft社のサーバー以外には絶対にいないのですが。


つまりChatGPTとは、そのような超高性能PCで動作しつつ、その結果をネット接続によってユーザー一人一人のデバイスに表示しているだけのもの・・・ということなんです。



さあ、ここまで話が進めば十分でしょう。


つまりローカルLLMとは、


つまりそれは、「GPT-3.5やGPT-4のような大規模言語モデルそのものを、自宅のPC上で動作させるもの」です。


ネット接続の有無を問わず、企業に使用料を支払うこともなく、企業に恥ずかしい会話履歴を覗かれることもなく、私達のこのPC上に存在するAIがこのPC上で言葉を生成してくれる。


それがローカルLLM。


そう考えると、最近みなみなこの言葉に乗っかっている理由もなんとなく分かる気がしませんか?


だってめちゃくちゃ楽しそうじゃないですか!



ローカルLLMの困難


ただ、今の時点ではローカルLLMはなかなか困難の多い世界です。


というのも、道具がまるで足りません。


大規模言語モデル


まず先に述べたようにGPT-3.5やGPT-4は非公開モデルです。


当然です、今や裕福OpenAIの大黒柱ですからね。(実はGPT-2までは公開されてた)


そんなわけで、自宅にチャットAIを作りたいローカルLLM愛好家達は何か他の、GPTシリーズのような大規模言語モデルを各自で用意しなければならないのです。


とはいえ、ここはまだ打つ手がいくつもあります。


何故なら、ネット上にはOpenAI社のそれに匹敵するくらいの大規模言語モデルが結構無料で公開されているから。


有力なのが例えばMeta社の開発するLlama 3 70Bなどです。


これはChatGPT無料版を担当するGPT-3.5よりも圧倒的に高い、何なら有料版のGPT-4にすら匹敵する程の性能を誇りながら、無料で公開されたモデルになっています。


後はNvidia社のNemotron 4 340Bなんてモデルも魅力的です。こちらに至っては先日OpenAI社が発表した最新モデルGPT-4oにも一部で優るほどだとか。



「なんだ!そんなすごいモデル達が公開されてるなら、ChatGPTなんていらないじゃん。みんな家で専属AIを作ればいい。」


と、一見そう思ってしまいます。しかし・・・


PC性能の壁


本当の問題はここからです。


先ほど「ChatGPTを動かせるほどの性能のPCなんて個人じゃ誰も持ってない」という話をしました。


そう、大規模言語モデルを動かすには普通じゃ考えられないくらいの超高性能PCが必要なのです。



一体どれほどの?


それには大規模言語モデル側の「パラメータ数」・・・大きさの単位みたいなものが良い指標になります。


例えば先程言及したLlama 3 70Bですが、大体のモデルにはこんな感じで名前の後に「○○B」って数字がつきます。そして、この数がそのモデルのパラメータ数です。単位はBillion・・・つまり○○十億。


ということは、Llama 3 70Bなら700億ってわけですね。なんと、性能に比してあまりにも少ないパラメータ数です。効率的だ。



で、あるPCがこのモデルを動かすに足る性能を持つか否か、先に図るのは簡単です。


この"70"という数字を倍の"140"にして・・・


で、その数を上回るVRAMのGB数があるかどうか。



なるほど。


例えば今なら、現行の最高性能GPU「RTX4090(30万円ちょっと)」をものの6個も用意すれば達成できるサイズ感ですね。




・・・


まあ無理です。


無理に決まってます。



そこまでして、何の魅力が


仮に世の中におかしな大金持ちがいたのなら、このLlama 3 70Bモデルを・・・いやむしろNvidia社のNemotron 4 340Bモデルを動かすために巨大なPCを買うことがあるかもしれません。


買うというか、作るというか。


ともかく彼は単純計算で24GB×29=696GB、だからRTX4090を29個、都合870万円出して手に入れました。そしてこれらを動かせる特注のワークステーションを・・・まぁ300万円くらいで用意したという事にしましょう。それは彼の資産に比べれば取るに足らない額です。


で、それで何が出来るのかというと・・・



1. 無料で使えるチャットAIが作れる


まず思いつくのがこちら。ChatGPTを使っていては月に"20ドルも"支払わねばならなかったChatGPT Plusの料金を、なんと自宅のPCでチャットAIを作りさえすれ(エンジニアに数万円で作ってもらえ)ば、今後一生無料で済むのです!


一体そんなことに何の価値があるのでしょうか。



2. 絶対に誰にも覗かれない万全のセキュリティを得る


では「セキュリティ」というのはどうでしょう。今の日本で生成AI導入を渋る企業はみな口をそろえて、セキュリティ上の懸念を口にします。それはまぁごもっともで、確かにOpenAIの規約を見る限りではとうてい「市場競争力を維持する社内機密情報」みたいなものをChatGPTの小耳にすら挟ませる気にはなれません。


もちろんChatGPT Teamsを使う、更にはOpenAI APIを使う、もっと言うならAzureを使う、対策はいくらでもあります。でも「なんとなく怖い」ですからね。


社内の統制もとれる確証が無いのなら、代わりに「自社のローカルサーバー上で構築する」というのはとても魅力的な解決法に思えます。そうする限り100%安心です。


とはいえ件の彼は別に企業の人というわけでもなく、そんなメリットは享受できなかったかもしれません。というか「絶対にOpenAIには知られてはいけない情報」があり、それをChatGPTに明かすことをとどまった個人が果たしてこの世にどれほどいるでしょうか。


・・・あるいは彼は人に知られるにはあまりに恥ずかしい会話をしたい願望があり、自宅スパコンのAIはその良き相手となってくれたかもしれません。


それならば良かった。



3. モデルや関連技術の研究・開発ができる


とはいえ、結局はこれでしょう。現時点で、前述したような狂気的な投資をしてまでローカルLLMの利用環境を整えるのは、つまり研究開発グループ・・・言ってしまえば程度の差はあれどOpenAIやMetaと同類の存在がほとんどです。


2で触れた「絶対に隠したい機密情報がしょっちゅう扱われ、かつチャットAIの有用性を強く認識していて、かつLLMの実行(推論)環境を自社のためだけに構築出来る余裕のある企業」というのもないではないですが・・・しかしごく少数です。


現状では個人にしろ、中小企業にしろ、大企業にしろ、本気でローカルLLMの推論環境を整えているほとんどが研究や事業化のためと思われます。



だから何の魅力が


そんなこと言われたら「じゃあ僕/私はいいや」となりますよね。


ただ、最後にこの話もさせてください。



というのは、この先おそらく想像よりずっと近い時期に、ローカルLLMを一般の誰もが扱う時代が来るんじゃないかと思うのです。



現状数百万円レベルでやっと月3000円の、むしろ無料のChatGPTに並ぶ程度だったのが、"近いうち誰もがローカルLLMを扱う時代に"?


というと、確かに無理があるような気もします。が、



実をいうと、この記述"現状数百万円レベルでやっと無料のChatGPTに並ぶ"って、ちょっと昔の話です。


具体的には、まさに1年弱前の今(2023/7くらい)なら確かにそんな状態でした。


しかしそこから2024年の今日にいたるまで、上の3.のグループの人々は日々研究を続け、そして、


・LLMの性能を上げる方法
・普通のGPUで従来よりも早くLLMを推論させる方法
・大型のモデルの能力を小型モデルに引き継がせる方法
・LLMの実行に必要なPC性能を大きく下げる方法


など・・・あらゆる発見をしてきたのです。



実際のところ、今の時点でも最高レベルのゲーミングPC(100万円くらい)一台があれば、それなりにChatGPTの代わりが務まる程度のものが扱えます。


更に工夫を凝らせば、もっとずっと安価なデバイスでも同様のことが出来るようになりつつありますし、この流れは絶対に不可逆なもので、後はただ誰もがローカルLLMを扱う時代を待つだけです。


「2030年になってもGPT-3.5を扱えるスマホが存在するか怪しい」と述べましたが、逆に「スマホで動かせるGPT-4超えのモデル」なら、どう考えたって2030年より早くに登場するに決まっていると思うのです。



だったら、先に手を出すのが吉とも思いませんか?




・・・とここまで書いて、どうもローカルLLMを魅力的に描きすぎたかもしれない。


どう考えたって今ローカルLLMの推論環境を整えても金にはならないし、行く先だって不安定。


結局はロマンに乗っかる気持ちがあるだけで・・・




まとめ


そんなわけで、このブログはこれからもローカルLLMについて扱っていこうかなと思います。


皆さんもこの沼に片足だけでも漬けてみるのはいかがでしょうか?



いつのまにやら長文となってしまいましたが、最後までお読みいただけたなら本当にうれしいです。


ありがとうございました!





Comments