ブロックチェーンとAIの統合が切り開く次の10年 ― 分散型AIの設計思想、データ帰属、出自証明、そして“人間らしさ”の担保

KBW2025:ブロックチェーンとAIの統合が切り開く次の10年 ― 分散型AIの設計思想、データ帰属、出自証明、そして“人間らしさ”の担保

アバター投稿者:

〇登壇者プロフィール

Moderator
Jarred Winn
Winn.venturesマネージングパートナー。Binance元SVPとして、100以上のプロジェクトを支援するアクセラレーター兼VCファンドを運営。業界の主要ブランドの成長に寄与してきたベンチャー投資家。

Panelists
Shashank Sripada
Gaia共同創業者兼COO。投資家・連続起業家として物流、宇宙、ブロックチェーン分野のテーマ型投資を手がけ、Marcena Capitalでは70億ドル規模の資産運用を統括。AIやエネルギー分野も含め、世界で10億ドル超のディールをリードした実績を持つ。ロンドン・スクール・オブ・エコノミクス卒。

Ram Kumar
OpenLedgerコアコントリビューター。AI/MLとブロックチェーンの専門家として、年商4,000万ドル規模の企業を共同運営し、Walmart子会社との戦略的合弁を実現。産業横断的な実用化を加速させるエコシステム構築とアライアンス形成に注力。

Chi Zhang
Kite AI共同創業者兼CEO。Databricksでデータエンジニアリング製品を主導し、dotData創業期のAIリーダーとして活躍。カリフォルニア大学バークレー校で統計学(ML/AI)博士号と経済学修士を取得。StanfordのStartXで起業家メンターも務める。

 

パネル:暗号資産×AIの次に来るものは?(What’s Next in Crypto x AI?)

パネル:暗号資産×AIの次に来るものは?(What's Next in Crypto x AI?)

1. パネルの狙い:AIとブロックチェーンを“実装”で結び直す

モデレーターのJarred Winn氏は冒頭で「AIは現在、世界で最も大きな変化をもたらしている技術であり、ブロックチェーンもまた革命的である」と位置づけ、両者の統合が何を可能にするのか、どのようなビジョンと具体的実装が見えているのかを議論したいと述べました。

狙いは抽象論にとどまらず、分散型AI(decentralized AI)を“現実に回す”ためのデータ、信頼、経済設計に踏み込むことにあります。

本パネルにはShashank Sripada氏、Ram Kumar氏、Chi Zhang氏が登壇しました。
登壇者に共通する関心は、AI時代におけるデータ主権と経済参加の再設計、そしてブロックチェーンを用いた信頼の自動化でした。

2. 自己紹介と各社の立場:分散型AIの基盤を作る

Gaia(Shashank Sripada氏)は「人が自分の知識を自分でコントロールできる」世界観を掲げます。開発者向けフレームワークとオンチェーンの分散ネットワークを提供し、知識の検証・収益化・権利管理を可能にすることで、誰もがAIエージェントを開発し、ビジネス化できる環境を目指しています。中心思想は、AIの未来を一部の巨大プラットフォームが独占するのではなく、データと知識の主導権を個人や組織に取り戻すことにあります。

OpenLedger(Ram Kumar氏)は、データのオープンな寄与と帰属(アトリビューション)に焦点を当てます。データ提供者の所有権証明、モデルへの取り込み経路の可視化、寄与度に応じた報酬分配を、ブロックチェーン上で一気通貫に管理する設計です。エンタープライズ連携の実績を背景に、「データはAIの燃料だが、最適な燃料供給には透明性と対価の自動支払いが不可欠だ」という立場を明確に示しました。

Kite AI(Chi Zhang氏)は「インターネットに無数のエージェントが常駐し、人間のように振る舞い、相互にサービスをやり取りする」未来像を描きます。その実現に不可欠なのは、エージェントのアイデンティティ、決済、ガバナンスを支える共通インフラです。Kite AIはこれを分散的に実装し、エージェント同士、あるいは人間とエージェントが信頼できる形で協働・取引できる基盤を構築しようとしています。創業者自身のバックグラウンドはビッグデータと機械学習であり、自動機械学習(AutoML)の経験を通じて、データ探索からモデル適用までの実務的な摩擦に精通していることが語られました。

3. なぜブロックチェーンが必要か:信頼の自動化と主権の回復

議論の中心にあったのは、AI社会における信頼の担保です。モデレーターは「ブロックチェーンの本質は信頼のメカニズムである」と述べ、人間の予測不可能性(ランダム性)と“本物であること(オーセンティシティ)”の関係を提示しました。パネリストは次の点で一致しました。

中央集権の限界:巨大モデルは性能面で卓越していても、データの独占や不透明な学習過程によって、公平性・説明責任・プライバシーの面で限界を露呈します。特に政府・大企業・個人はデータ共有に慎重であり、「提供したデータがどう使われ、何に貢献したのか」を可視化できなければ、安心して参加できません。

分散型AIの要件:参加者が自分のデータと知識をコントロールし、誰に、どの条件で、いくらで使わせるかを選べること。さらに成果に応じて対価を自動的に受け取れる仕組みが不可欠です。

ブロックチェーンの役割:所有権・利用経路・寄与度・支払いを改ざん困難な形で記録し、相互不信が前提の環境でも自動的に決済・分配を完了する“信頼の自動化レイヤー”を提供します。これにより、中央の仲介者に過度に依存せずとも、グローバルに協働・取引が可能になります。

4. プライバシーと計算資源のバランス:何をオンチェーンに載せ、何を載せないか

「プライバシーと計算効率をどう両立するか」という問いに対し、Shashank Sripada氏の立場は明快です。「計算(特に学習や重い推論)をオンチェーンでやる必要はない」というもので、オンチェーンは主に次の領域に用いられるべきだと述べました。

・推論の検証(インファレンスの証跡化)

・データ・知識の権利管理(アクセス制御・許諾)

・アトリビューションと支払い

すなわち、オンチェーンは信頼や取引の制御に特化し、学習や重推論はローカル環境やクラウド(オンプレミスやAWSなど)で選択的に実行すればよいとしています。

この「役割分担」が重要です。中央集権型モデルは、モデルやハードウェア、利用形態までも“お任せ”できる利便性がありますが、産業用途やオンプレミス適用においては統制やカスタマイズが欠かせません。

ブロックチェーンはコントロールプレーンとして自由度を与え、ヘビーワークは各自が最適な環境で処理する——これが分散型AIの実装指針として共有されました。

5. オープンなデータ経済:帰属(アトリビューション)と対価の自動分配

Ram Kumar氏は、「データはAIの最大のボトルネックであり、“誰のデータが、どのモデルに、どれだけ貢献したのか”を正しく測り、自動で支払う仕組みがなければ、持続的なデータ供給は成立しない」と強調します。

オンチェーンの記録によって、データの所有権やモデルへの取り込み経路(どのデータセットがどのパイプラインで使用されたか)を証跡として残すことができます。

さらに、寄与度の測定(アトリビューション)によって、モデルの性能向上や出力への影響を可視化し、ロイヤルティや使用料を公平に按分します。

加えて、クリプト決済を利用すれば、国境や仲介の壁を越えて、小額かつ高頻度の支払いが可能になります。

この枠組みによって、米国の開発者が韓国のデータ提供者と安全に取引するなど、地理や法域をまたいだ協働が後押しされます。

すなわち、「人を信用するのではなく、プロトコルを信用すればよい」というトラストレスの思想が、具体的な分配ロジックとして実装されるのです。

6. “出自証明(Proof of Origin)”の必要性:オーセンティシティをどう取り戻すか

モデレーターは、AI生成物の氾濫によって真贋や出所が曖昧になり、人間のオーセンティシティ(本物であること)が揺らいでいる問題を提起しました。5ページのレポートが一瞬で生成できる時代において、誰が作ったのか、どのデータを根拠にしているのかを検証可能にする必要があります。

出自証明(Proof of Origin)とは、コンテンツや推論の“由来”を辿れる状態を指します。学習や推論に用いられたデータ、モデルのバージョン、パラメータ、外部オラクル情報などを改ざん困難な形で記録することで、「なぜ、この出力に至ったのか」という説明可能性(Explainability)を高めることができます。

現在の大規模モデルはブラックボックス性が強く、推論理由の外化が困難な場面が多々あります。特に医療やホスピタリティといった実務領域では、推論の説明責任が制度・リスク管理の要件と直結します。

ここでアトリビューション技術が重要になります。「どのデータが、この結論にどの程度寄与したか」を定量的に提示できれば、責任分界や再現性の確認が容易になり、プロダクト適用の信頼性が向上します。ブロックチェーンは、出自・利用・分配を監査可能な台帳として機能するのです。

7. エージェント経済のインフラ:アイデンティティ、決済、ガバナンス

Chi Zhang氏は、エージェントが“人間の代理”として常時稼働する未来を見据え、基盤的な三要素を提示しました。

1.アイデンティティ:誰が(どのエージェントが)誰に対して何をするのかを認証・認可できる枠組み。人とエージェント、エージェント同士の関係を継続的にトラッキングします。

2.決済:エージェントが自律的に料金を支払い、報酬を受け取るための細かく高速なマイクロペイメントの仕組み。ガス代や手数料を含む取引コストの最小化が鍵となります。

3.ガバナンス:プロトコルやサービスのルール変更や係争解決を透明に意思決定する機構。オンチェーン投票、委任、評判スコアなどによる合意形成を支えます。

この三位一体が揃って初めて、エージェントは“経済主体”として振る舞い、人手を介さずに価値交換を完了できます。
Kite AIは、この「目に見えないOS」を分散的に構築しようとしています。

8. 実装原則:小さく始め、オンチェーンは“信頼”に集中

登壇者の議論を通じて一貫して示されたのは、「オンチェーンに載せるべきは“信頼と取引”であり、“重い計算”ではない」という実装原則です。これにより、以下の点が成立します。

1.プライバシーの保護:モデル学習や重い推論はオフチェーンで行い、アクセス権・データの由来・報酬分配といった監査に必要な要素だけをオンチェーンに残す。

2.スケーラビリティ:ローカルやクラウドの自由度を確保し、地理・法域・産業に応じて最適な実行環境を選択できる。

3.相互運用:共通の台帳(レジャー)に「誰が・何を・どう使ったか」というメタデータを記録することで、組織間での監査や対価支払いを自動化・汎用化できる。

結果として、中央の巨大モデルと分散型の多数のエージェントが役割分担し、“選べるAI利用”が実現します。単一の正解に収束しない多様性こそが、イノベーションの速度を生み出すのです。

9. エンタープライズ適用の視点:データは出ていかない、でも価値交換はする

企業や官公庁の現場では、データの持ち出しに強い抵抗があります。パネリストたちは、「データは境界を出さないが、価値は交換する」という設計が鍵だと強調しました。

・フェデレーテッド/分散学習や安全な推論プロキシにより、元データを移動させることなく、モデルの改善や推論提供を可能にする。

・オンチェーンでは「何がどう使われ、どんな効果があったか」というメタデータだけを共有し、分配は自動化する。

・コンプライアンス対応(個人情報、機微情報、輸出管理)に抵触しない最小限の公開で、監査可能性と再現性を確保する。

こうした“境界を跨がない協働”は、国境を越えた産業連携やサプライチェーンにおける知識共有にも適用可能です。

10. 今後の展望:説明可能なAIと“人間らしさ”の両立

最後に、モデレーターは再び“人間らしさ”に言及しました。AIは高速かつ無尽蔵に生成を続けます。そのなかで人間のオーセンティシティを守るためには、出自証明・説明可能性・適正な帰属と分配を備えた経済設計が不可欠です。

教育・研究・医療・公共といった、根拠や説明が制度的に求められる領域では、ブラックボックスへの依存から脱却することが避けられません。

出自証明(Proof of Origin)とアトリビューションの普及は、著作・引用・再利用の慣行をAI時代に合わせてアップデートし、創作者やデータ提供者の動機付けを強化します。

そのための信頼レイヤーとして、ブロックチェーンが“見えない標準”となっていく可能性があります。

まとめ:ブロックチェーンは“AIのための経済OS”になる

本パネルが示したのは、単なる「ブロックチェーン×AI」というスローガンではなく、具体的な実装手順でした。

・オンチェーンは信頼・帰属・支払いに集中し、重い計算は各所で最適に実行する。

・データ主権を尊重し、由来・寄与・対価を自動化する。

・エージェント経済の基盤(ID・決済・ガバナンス)を整備し、人間とエージェントの協働を安全に実現する。

・出自証明と説明可能性を備え、“人間らしさ(オーセンティシティ)”をAI時代に守る。

こうした積み重ねによって、ブロックチェーンは「AIのための経済OS」として機能し、中央集権依存でも無秩序な野放図でもない第三の道を切り拓きます。データを持つ人・組織・コミュニティが正当に報われ、人間の創造と判断がAIの速度とスケールと共存する。そのとき、分散型AIは理念から現実の産業基盤へと転じ、次の10年を形づくるはずです。

この記事についてお問い合わせ