大規模言語モデル(LLM)入門:GPTからプロンプトエンジニアリングまで

こんにちは、山田どうそんです。

前回は生成AIの基本モデルについて解説しました。今回は、特に注目を集めている「大規模言語モデル(Large Language Model, LLM)」について掘り下げていきます。

ChatGPTの登場により、私たちの日常に突如として現れた大規模言語モデル。ビジネスからプライベートまで、様々な場面でその能力を活用する人が急増しています。しかし、この技術が何なのか、どのように進化してきたのか、そして効果的に活用するためにはどうすればよいのかを体系的に理解している人はまだ多くありません。

この記事では、GPTシリーズの進化の歴史から、LLMのトレーニング手法、プロンプトエンジニアリングの基本テクニック、そしてLLMの評価指標と限界まで、幅広くカバーしていきます。これからのAI時代を生き抜くための重要な知識となりますので、ぜひ最後までお付き合いください。

1. GPTシリーズの進化と特徴

GPT(Generative Pre-trained Transformer)シリーズは、OpenAIが開発している大規模言語モデルのシリーズです。その進化の歴史を辿ることで、LLMの急速な発展とその可能性を理解することができます。

GPT-1(2018年):基礎の確立

GPT-1は、2018年6月にOpenAIによって発表された最初のGPTモデルです。

主な特徴

  • パラメータ数:約1.17億(117M)
  • 12層のトランスフォーマーデコーダー構造
  • BookCorpusデータセットで事前学習
  • 文章完成や質問応答などの基本的なタスクに対応

GPT-1は、事前学習と転移学習の可能性を示した革新的なモデルでした。しかし、今から振り返ると能力は限定的で、会話や複雑な推論はほとんどできませんでした。それでも、少量のラベル付きデータで様々なタスクに適応できることを示し、言語モデルの新たな可能性を開いたのです。

GPT-2(2019年):スケールの効果

GPT-2は、2019年2月に発表され、当初はその生成能力の高さから「危険すぎる」として完全版の公開が遅れたことでも話題になりました。

主な特徴

  • パラメータ数:最大15億(1.5B)
  • GPT-1の10倍以上のパラメータ数
  • 40GBのウェブテキスト(WebText)で学習
  • より自然で一貫性のあるテキスト生成が可能に
  • ゼロショット学習能力の向上

GPT-2では、「スケールが重要」という原則が明確になりました。単にモデルサイズとトレーニングデータを増やしただけで、予想以上の能力向上が見られたのです。特に注目すべきは、特定のタスク用に明示的に学習していないにもかかわらず、様々なタスクに対応できる「ゼロショット学習」能力が現れたことです。

GPT-3(2020年):飛躍的な進化

GPT-3は、2020年6月に発表され、AIの世界に衝撃を与えました。そのサイズと能力は前モデルを大きく上回り、AIの可能性に対する認識を一変させました。

主な特徴

  • パラメータ数:1750億(175B)
  • GPT-2の100倍以上のパラメータ数
  • 45TBのテキストデータから選別された570GBで事前学習
  • 「フューショット学習」の能力が出現
  • コード生成、簡単な論理的推論が可能に
  • API経由でのアクセスが提供された最初のGPTモデル

GPT-3の驚くべき点は、数例の例示だけで新しいタスクを学習できる「フューショット学習」能力でした。例えば、翻訳の例を2〜3例示すだけで、その言語の翻訳を行えるようになります。また、プログラミングコードの生成、詩やエッセイの執筆など、創造的なタスクでも驚くべき能力を示しました。

ChatGPT(2022年):対話型AIの普及

2022年11月に公開されたChatGPTは、GPT-3.5をベースに対話に特化した調整を加えたモデルです。その使いやすさと能力の高さから、爆発的な普及を遂げました。

主な特徴

  • GPT-3.5をベースとしたモデル
  • RLHF(人間からのフィードバックによる強化学習)を導入
  • 対話型インターフェースによる使いやすさ
  • 5日間で100万ユーザーを獲得(史上最速の成長)
  • セーフガードの実装(有害なコンテンツの生成を制限)

ChatGPTの登場により、LLMが一般ユーザーにも広く知られるようになりました。特に重要なのは、モデルの方向性を人間の価値観に合わせる「RLHF」の導入です。これにより、単に次の単語を予測するだけではなく、ユーザーにとって有用で安全な応答を生成することが重視されるようになりました。

GPT-4(2023年):マルチモーダルとより深い理解

2023年3月に発表されたGPT-4は、テキストだけでなく画像も理解できる最初のGPTモデルとなりました。

主な特徴

  • パラメータ数は非公開(推定で数兆単位)
  • マルチモーダル能力(テキストと画像の処理)
  • より長いコンテキスト窓(最大32,000トークン、後に128,000トークンに拡張)
  • 複雑な推論とプログラミング能力の向上
  • より多言語対応が強化

GPT-4の最大の革新は、マルチモーダル能力の導入です。画像を理解し、それについて説明したり質問に答えたりすることができるようになりました。また、より長いコンテキスト窓により、長い文書や会話の文脈を保持する能力が向上しました。複雑な推論タスクやプログラミングでもより高い精度を示し、専門家レベルの試験にも合格する能力を見せています。

最新モデル:GPT-4o(2024年)

2024年に入ってからは、さらに進化したGPT-4oが登場しました。

主な特徴

  • リアルタイムの音声・画像処理能力
  • より自然な会話と応答速度の向上
  • 複数言語間での翻訳・理解能力の強化
  • コンテキスト窓のさらなる拡大

GPT-4oでは特に、音声対話の品質と応答速度が大幅に向上し、よりリアルタイムのコミュニケーションが可能になりました。また、画像理解の精度も向上し、複雑な視覚情報からより正確な分析ができるようになっています。

GPTシリーズの進化から見える傾向

GPTシリーズの進化から、いくつかの重要な傾向が見えてきます:

  1. スケールの法則:パラメータ数とトレーニングデータの増加が、単に量的ではなく質的な進歩をもたらす
  2. 創発的能力:ある規模を超えると、明示的に学習していない能力が「創発的に」現れる
  3. マルチモーダル化:テキストだけでなく、画像、音声など複数のモダリティを扱う方向への進化
  4. 人間の価値観との整合性:単なる予測精度だけでなく、人間にとって有用で安全なAIを目指す方向性
  5. コンテキスト窓の拡大:より長い文脈を理解し、一貫した応答を生成する能力の向上

これらの進化は、単にアルゴリズムやアーキテクチャの改善だけでなく、計算リソースの増大と学習データの拡大によって支えられています。LLMの能力向上には「規模」が重要な役割を果たしているのです。

2. LLMのトレーニング手法:事前学習と微調整

大規模言語モデルの学習プロセスは、大きく分けて「事前学習(Pre-training)」と「微調整(Fine-tuning)」の2段階から成り立っています。この2段階アプローチにより、汎用的な言語理解能力と特定タスクへの適応を両立しています。

事前学習(Pre-training):基礎となる言語能力の獲得

事前学習は、LLMが言語の基本的な構造と知識を獲得する最初の段階です。

事前学習の特徴

  1. 自己教師あり学習
  • 明示的なラベルなしで、テキスト自体から学習する
  • 主に「次のトークン予測」タスクを使用
  • 例:「私は昨日、友人と渋谷で__」の空欄を予測する
  1. 大規模データセット
  • インターネットから収集した膨大なテキストデータを使用
  • 書籍、記事、ウェブページ、コード、会話など多様なソース
  • GPT-3の場合、数百GBのテキストを使用
  1. 大規模計算リソース
  • 数百〜数千のGPU/TPUを使用
  • トレーニングに数週間〜数ヶ月かかる
  • 莫大な電力と冷却を必要とする
  1. マスク言語モデリング
  • BERT型モデル:文中のランダムに隠された単語を予測
  • GPT型モデル:前の単語から次の単語を予測(自己回帰型)

事前学習の目標は、言語の統計的パターンを学習し、文脈に基づいて適切な予測ができるようになることです。この過程で、モデルは文法規則、世界知識、推論能力などを暗黙的に獲得していきます。

微調整(Fine-tuning):特定タスクへの適応

微調整は、事前学習済みのモデルを特定のタスクや領域に適応させる段階です。

微調整の特徴

  1. 教師あり学習
  • 入力と期待される出力のペアを使用
  • 特定のタスクに関連するデータセットを使用
  • 例:質問と回答のペア、要約タスクの元文書と要約など
  1. 小規模データセット
  • 事前学習に比べてはるかに少ないデータ(数百〜数万例)
  • 高品質でタスクに特化したデータが重要
  1. 少ない計算リソース
  • 一般的に数時間〜数日のトレーニングで完了
  • 事前学習よりもはるかに少ないリソースで実行可能
  1. 特殊な微調整手法
  • 教師あり微調整(SFT):特定のタスクの例を使って学習
  • RLHF(人間からのフィードバックによる強化学習):人間の好みに基づいてモデルを調整

最新のLLMトレーニング手法

最近のLLMトレーニングでは、さらに複雑な手法も使われています:

RLHF(Reinforcement Learning from Human Feedback)

RLHFは、人間の好みや価値観に基づいてモデルを調整する方法です:

  1. 初期モデルの微調整:基本的なSFTでまず調整
  2. 報酬モデルの訓練:人間の好みに基づいて応答をランク付け
  3. 強化学習:報酬モデルからのフィードバックを使って最適化

この方法により、モデルは単に次の単語を予測するだけでなく、人間が「良い」と判断する応答を生成するよう学習します。ChatGPTやGPT-4は、このRLHFプロセスを経て開発されています。

指示微調整(Instruction Tuning)

指示に従う能力を強化するための特殊な微調整手法です:

  1. 指示と応答のペアでモデルを訓練
  2. フォーマットは「指示:〜、回答:〜」の形式
  3. 様々なタスクや領域の指示を含めることでジェネラリスト能力を強化

この微調整により、モデルはユーザーの指示をより正確に理解し、適切に応答できるようになります。

自己教師型微調整(Self-Supervised Fine-Tuning)

こちらは最近注目されている手法で、モデル自身が生成したデータを使って微調整を行います:

  1. モデルに問題を生成させる
  2. 同じモデルに解答を生成させる
  3. 高品質な問答ペアを選別して微調整に使用

この方法により、人間が作成したデータセットに依存せずに、モデルの能力を向上させることができます。

学習手法の選択と効果

モデルのトレーニング方法は、最終的な性能と特性に大きく影響します:

  • 事前学習のみ:汎用的な言語理解能力は高いが、特定タスクでの精度は限定的
  • 教師あり微調整:特定タスクでの性能は向上するが、過学習のリスクあり
  • RLHF:人間の好みに合った応答が可能だが、偏りを強化する可能性もある
  • 指示微調整:様々な指示に対応できるが、専門的深さを犠牲にする場合も

実際のLLM開発では、これらの手法を組み合わせて使用することが一般的です。例えば、大規模事前学習の後に、教師あり微調整を行い、最終的にRLHFで人間の好みに合わせるといった具合です。

3. プロンプトエンジニアリングの基本と効果的な手法

プロンプトエンジニアリングとは、LLMから最適な結果を得るためにプロンプト(指示文や入力文)を工夫する技術です。適切なプロンプトを使うことで、同じモデルでもまったく異なる質と精度の出力を得られます。

プロンプトエンジニアリングの基本原則

効果的なプロンプトを作成するための基本原則をいくつか紹介します:

1. 明確な指示と役割の設定

LLMに明確な指示と役割を与えることで、より的確な応答を引き出せます:

あなたは優秀なマーケティング専門家です。次の製品の強みを活かした広告コピーを3つ考えてください。
製品:防水機能付きの軽量ランニングシューズ

このようなプロンプトでは、モデルに「マーケティング専門家」という役割と「広告コピーを3つ考える」という明確なタスク、そして関連情報を与えています。

2. 具体的な出力形式の指定

期待する出力形式を明示することで、より構造化された回答を得られます:

以下の質問に答えてください:
質問:人工知能の主な応用分野は何ですか?

出力形式:
1. [応用分野名]: [簡単な説明]
2. [応用分野名]: [簡単な説明]
...

このプロンプトでは、番号付きリストという具体的な形式を指定しています。形式を指定することで、情報が整理され、必要な情報を見つけやすくなります。

3. 例示(Few-Shot Prompting)

例を示すことで、LLMの理解を助け、期待する出力に近づけることができます:

以下は顧客レビューの感情分析の例です:

レビュー:「このカメラは軽くて使いやすい、写真の質も良い!」
感情:ポジティブ

レビュー:「配送は早かったが、商品が壊れていて失望した」
感情:ネガティブ

以下のレビューの感情を分析してください:
レビュー:「値段は高めだが、その価値はある。ただ、バッテリーの持ちが気になる」
感情:

このプロンプトでは、実際の例を示すことで、モデルに期待する出力パターンを学習させています。

高度なプロンプトテクニック

より高度なプロンプトテクニックも存在します:

1. チェーン・オブ・ソート(Chain-of-Thought)

複雑な推論が必要なタスクでは、思考プロセスを段階的に示すよう促します:

以下の数学の問題を解いてください。段階的に考えてください。

問題:80人のクラスでは、生徒の25%が男子で、残りが女子です。男子の30%と女子の20%がメガネをかけています。クラス全体でメガネをかけている生徒は何人ですか?

このプロンプトでは「段階的に考えてください」と指示することで、モデルに推論の過程を示すよう促しています。これにより、複雑な問題でもより正確な答えを得やすくなります。

2. 自己批評(Self-Critique)

モデルに自分の回答を評価させることで、より質の高い出力を得られます:

質問:地球温暖化を止めるための最も効果的な方法は何ですか?

次のステップで回答してください:
1. 最初に回答を作成する
2. 自分の回答を客観的に評価し、バイアスや不足点を指摘する
3. 評価に基づいて改善した最終回答を提供する

このプロンプトでは、モデルに自己批評のプロセスを踏ませることで、より包括的で均衡のとれた応答を引き出しています。

3. レイヤード・プロンプティング(Layered Prompting)

複雑なタスクを小さなステップに分解するテクニックです:

私はレストランのレビューデータを分析しています。以下の3つのステップで支援してください:

ステップ1: 次のレビューから主要なポジティブポイントとネガティブポイントを抽出してください。
"料理は素晴らしかったが、サービスが遅く、価格も高すぎると感じた。特に魚料理は絶品だった。"

ステップ2: 各ポイントを「料理」「サービス」「価格」「雰囲気」のカテゴリに分類してください。

ステップ3: このレビューの総合評価(5段階)を推定し、その理由を説明してください。

このアプローチでは、複雑なタスクを管理しやすい小さなステップに分解し、各ステップの出力を次のステップの入力として使用しています。

プロンプトの最適化プロセス

効果的なプロンプトは一度で完成することはほとんどなく、反復的な改良プロセスを経て作られます:

  1. 初期プロンプトの作成:基本的な指示と情報を含めたプロンプトを作成
  2. 結果の評価:出力の質、関連性、正確性を評価
  3. プロンプトの修正:問題点に対応するようプロンプトを修正
  4. 再テスト:修正したプロンプトでモデルを再度実行
  5. 繰り返し:満足のいく結果が得られるまで手順2~4を繰り返す

このプロセスを通じて、特定の用途に最適なプロンプトを見つけることができます。

プロンプトの注意点と限界

プロンプトエンジニアリングには以下のような注意点や限界もあります:

  • モデル依存性:効果的なプロンプトはモデルごとに異なる場合がある
  • 過度の指示:あまりに詳細な指示は創造性を阻害する可能性がある
  • 一貫性の問題:同じプロンプトでも実行ごとに異なる結果が得られることがある
  • バイアスの増幅:不適切なプロンプトはモデルのバイアスを強調する恐れがある

プロンプトエンジニアリングは魔法のようでありながらも、科学的なアプローチが必要な分野です。効果的なプロンプトを作成するには、LLMの仕組みと限界を理解し、実験と改良を繰り返すことが不可欠です。

4. LLMの評価指標と限界

LLMの能力は日々向上していますが、その評価方法と根本的な限界を理解することも重要です。ここでは、LLMの評価指標と現在の限界について掘り下げていきます。

LLMの主要評価指標

LLMを評価するための主な指標は、タスクの種類によって異なります:

1. 言語理解・生成の基本指標

  • パープレキシティ(Perplexity)
  • モデルが次の単語を予測する際の「驚き」を測定
  • 値が小さいほど、モデルの予測精度が高い
  • 異なるモデル間の比較には有用だが、実際の性能を直接反映しない場合もある
  • BLEU/ROUGE/METEOR
  • 生成されたテキストと参照テキストの類似性を測定
  • 主に翻訳や要約タスクで使用
  • 表面的な類似性のみを捉え、意味的理解を評価できない場合がある

2. ベンチマークテスト

  • MMLU(Massive Multitask Language Understanding)
  • 多様な学問分野の問題を含む総合テスト
  • 複数選択形式で知識と推論能力を評価
  • HumanEval/MBPP
  • プログラミング能力を評価するベンチマーク
  • コード生成と実行結果の正確さを測定
  • GSM8K/MATH
  • 数学的推論能力を評価
  • 段階的な解決過程の正確さも評価対象

3. 人間による評価

  • 人間との比較テスト
  • LLMと人間の回答を比較して評価
  • 「どちらの回答が優れているか」を人間の評価者が判断
  • RLHF評価
  • 人間の好みに基づいてモデルの出力を評価
  • 主観的な品質や有用性を測定

4. 高度な能力評価

  • Hallucination Rate
  • モデルが生成する事実と異なる情報(幻覚)の割合
  • 情報の正確性と信頼性の指標
  • Bias and Fairness Metrics
  • モデルが示す偏見や不公平性の度合いを評価
  • 性別、人種、文化などに関する偏りを測定

LLMの根本的限界

最先端のLLMでも、いくつかの根本的な限界があります:

1. 事実性と「幻覚」の問題

LLMは、トレーニングデータに含まれる情報を統計的に学習したものであり、真の「理解」や「知識」を持っているわけではありません。そのため:

  • トレーニングデータに含まれていない最新情報は知らない
  • 情報の正確性を自己検証する能力が限られている
  • 自信満々に誤った情報を提供する「幻覚」を生じる

これらの問題に対処するため、RAG(Retrieval-Augmented Generation)など、外部知識を組み込む手法が開発されていますが、完全な解決には至っていません。

2. 推論と理解の限界

LLMは表面的なパターン認識が得意ですが、深い理解や複雑な推論には限界があります:

  • 複雑な数学的推論や長い推論チェーンでミスをしやすい
  • 物理法則や因果関係の深い理解が不十分
  • 「常識」を一貫して適用することが難しい

例えば、「犬は猫より大きい」「猫はネズミより大きい」という情報から「犬はネズミより大きい」と推論するような単純な推移律でもエラーを起こすことがあります。

3. コンテキスト窓の制限

LLMは一度に処理できるテキストの長さ(コンテキスト窓)に制限があります:

  • GPT-3: 最大4,000トークン程度
  • GPT-4: 最初は8,000トークン、後に32,000トークン、最新版では128,000トークンまで拡張

この制限により、非常に長い文書の全体を把握したり、長時間の会話の初期の文脈を維持したりすることが難しくなります。

4. 自己認識と意図の欠如

LLMは自らの限界、能力、内部状態について真の理解を持っていません:

  • 自分が何を知らないかを正確に認識できない
  • 自らの推論プロセスを真に「理解」していない
  • 独自の「意図」や「目標」を持たない

これらの限界は、LLMが表面的には人間のように振る舞えても、真の意識や自己認識を持たないことを示しています。

5. 倫理的・社会的課題

LLMの使用には、以下のような倫理的・社会的な課題も伴います:

  • バイアスと公平性
  • トレーニングデータに含まれる社会的バイアスを再現・増幅する可能性
  • 特定の集団に不利な結果をもたらす恐れ
  • プライバシーとセキュリティ
  • 個人情報の漏洩リスク
  • 悪意ある使用(フィッシング、偽情報の拡散など)
  • 依存と自律性の低下
  • 人間の思考や創造性への過度の依存
  • 批判的思考スキルの低下リスク
  • 労働市場への影響
  • 特定の職種の自動化と雇用への影響
  • スキル要件の変化と再教育の必要性

現在のLLMに対する具体的な課題

現在のLLMが特に苦手とする具体的なタスクや状況をいくつか見ていきます:

1. 最新情報への対応

LLMはトレーニングデータの時点までの情報しか持ち合わせていません:

  • トレーニングデータのカットオフ日以降の出来事は認識できない
  • 世界情勢や技術トレンドなど、常に変化する情報の更新が困難
  • インターネット接続機能を持つモデルでも、情報の鮮度と正確性の保証は難しい

例えば、GPT-4は2023年4月までのデータでトレーニングされており、それ以降の出来事については知識を持っていません(インターネット接続機能がない場合)。

2. 複雑な数学的問題

LLMは初等数学や標準的な問題は解けますが、高度な数学では苦戦します:

  • 複数のステップを要する数学的証明で論理的一貫性を維持できないことがある
  • 抽象的な数学概念の深い理解に欠ける
  • 計算ミスが発生しやすい

例えば、微積分や線形代数の基本問題は解けても、研究レベルの数学的問題を解くことはほぼ不可能です。

3. 多言語理解の不均衡

英語以外の言語では能力に大きな差があります:

  • 英語での性能が最も高く、他の主要言語でも比較的高性能
  • マイナー言語や低リソース言語では性能が著しく低下
  • 言語間の翻訳や文化的文脈の理解が不十分な場合がある

例えば、英語-フランス語-日本語など主要言語間の翻訳は比較的高品質ですが、マイナー言語との翻訳は質が低下します。

4. 視覚的・空間的理解

テキスト主体のLLMは、視覚的・空間的な理解が限定的です:

  • 複雑な図表や視覚情報の詳細な理解が難しい
  • 空間的関係の推論が不正確になりやすい
  • マルチモーダルモデルでもまだ発展途上の分野

例えば、複雑な建築図面や電気回路図の詳細な理解と分析は困難です。

LLMの未解決課題と将来の方向性

LLMの今後の発展において、以下のような未解決課題と研究の方向性があります:

1. 信頼性と事実性の向上

  • RAG(Retrieval-Augmented Generation)
  • 外部知識ベースから関連情報を取得して回答に組み込む
  • 最新の情報源にアクセスして事実に基づいた回答を生成
  • 自己修正メカニズム
  • モデルが自分の回答を検証し、誤りを自動的に修正する能力
  • 複数の思考経路を試して結果を比較検証する手法

2. 長期的文脈とメモリの改善

  • メモリ増強アーキテクチャ
  • コンテキスト窓を超えた長期記憶メカニズムの開発
  • 会話履歴や過去のインタラクションを効率的に保存・参照する手法
  • 階層的コンテキスト処理
  • 重要情報の抽出と要約を通じた効率的なコンテキスト管理
  • 必要に応じて詳細情報にアクセスする能力

3. マルチモーダルとマルチエージェント統合

  • マルチモーダル理解の深化
  • テキスト、画像、音声、動画を統合的に理解・生成する能力の向上
  • 異なるモダリティ間での情報の変換と統合
  • 協調的マルチエージェントシステム
  • 複数のLLMが協力して問題解決にあたるフレームワーク
  • 異なる役割や専門性を持つエージェントの連携

4. 解釈可能性と倫理的枠組み

  • 説明可能なAI
  • モデルの判断根拠を人間が理解できる形で説明する能力
  • ブラックボックスから透明性のあるシステムへの移行
  • 価値観の明示的な組み込み
  • 人間の多様な価値観を明示的にモデルに組み込む手法
  • 価値観の衝突に対する対処法の開発

まとめ:LLM理解の重要性と今後の展望

大規模言語モデル(LLM)は、AI技術の中でも特に急速な進化を遂げている分野です。この記事では、GPTシリーズの進化、LLMのトレーニング手法、プロンプトエンジニアリング、そしてLLMの評価と限界について解説してきました。

LLMを効果的に活用するためには、その仕組みと限界を理解することが不可欠です。LLMは強力なツールですが、万能ではありません。適切な用途と期待値を設定し、その限界を補完する方法を知ることで、より効果的な活用が可能になります。

今後のLLM開発では、信頼性の向上、マルチモーダル能力の拡張、解釈可能性の改善、そしてより効率的なアーキテクチャの開発などが期待されています。また、倫理的・社会的な課題への対応も重要な研究テーマとなるでしょう。

AIの急速な進化に伴い、私たちユーザーもAIリテラシーを高め、批判的思考を維持することが重要です。LLMを「魔法の箱」ではなく、特定の制約と可能性を持ったツールとして理解し、適切に活用していく姿勢が求められています。

Dチームメルマガ登録|eBOOK「逆引きAIツールブック」プレゼント中


AIやマーケティングに関する情報を不定期配信中
eBOOK「逆引きAIツールブック」プレゼント中です
↓ ↓ ↓

Dチームメルマガはこちら>>>

 

ABOUT US
山田 どうそん
受講生3万人以上のオンライン講師|6年以上サブスクメンバーシップのコミュニティを運営|オンライン講師型の安定したコミュニティシステムの作り方を教えている|一人でも多くの人にオンライン講師になって物心両面の豊かさを手に入れられるようにスキル構築のサポートをしたい