Blog

ProjectBlog: Connectome Marketplace(コネクトーム マーケットプレイス)が実現する信頼できるAIの未来像

Blog: Connectome Marketplace(コネクトーム マーケットプレイス)が実現する信頼できるAIの未来像


巷でAIというワードを頻繁に聞くようになってからだいぶ経つが、これはどう言う背景があるのだろうか?なぜ私たちはAIと聞くと明るい未来を連想し、それらに期待を抱くのか?未来は明るいと信じて疑わなかったWeb1.0からWeb2.0の移行、全てを「無料」サービスと謳って誰にでも提供しプライバシーについて蔑ろにしてきたWeb2.0の破綻から今、新たなweb3.0へ移行していくにつれて私たちが進んで行くべき道はどこにあるのかを考察してみたいと思う。

日常に深く入り込む事に成功したAI

「日常はあなた専用のAIがシンプルにしてくれます。そう、このスマートスピーカーならね。」こういったキャッチコピーをよく見かける様になったのは偶然ではないと私は断言できる。なぜならこれこそがより人間の欲求、バイオリズム、無意識、はたまたプライベートな会話から推測可能なその人のバックグラウンドまでをテック企業が把握し、マーケティングに生かす事のできる最善のツールだから。Human Machine Interface (HMI) の歴史を辿ってみても、これまでは以下のように、

  • 人間の指示を受け
  • 処理し
  • 結果を人に知らせる

というシンプルなシーケンスによって人間と機会のコミュニケーションを実現する(特に1と3はHMIのコア部分)事が目的であったのが、近年はそれらの全てをオートメーションする事が可能になった。しかも注目すべき要素は、HMIは徐々にプライバシーを監視する用途に合わせて進化しているかの様にも見える事ではないだろうか?

デバイスに設置されたセンサー、リアルタイムな高速処理が可能なGPUの発達により、結果としてより小さくて、家庭に置いても景観を損なわない程モダンで、時に可愛らしいお茶目な受け答えをしてくれる、あたかも人畜無害なAIアシスタントスピーカーが新しい家族として迎え入れられ、シェアを爆発的に伸ばしたのは皆さんご存知の通りだ。

それによって引き起こされた問題

先にも述べた様に、AI、特に日常のプライバシーに入り込んだスマートデバイスからも多くの問題が浮き彫りになっている。AmazonではAlexaが急に笑い出す奇妙な事件が発生し、ある動画では「Alexa、今CIAは私の会話を聞いてるの?」とAlexaに尋ねると何も発言せずに急にシャットダウンしてしまう事例が紹介された。Googleでも同様にGoogle Homeが無造作に家族のプライベートな会話を録音しユーザーのGoogleアドレスに入っている誰かに送りつけるというバグがユーザーの指摘により明確になった。これまではAIの判断がいわゆるバグによってプライバシーの侵害という事件を起こしたが、ついにはUber自動運転自動車が歩行者と衝突し死亡事故になってしまったという最悪のシナリオが現実となってしまった。

しかし、AIとは言え人為的に創造され、もちろん人間はミスを起こしてしまうので、今ここで新たに見つめ直すべき問題は「どうやったらこの問題を最小限、もしくは未然に防ぐ事ができるか?」であり、それを実現するアプローチを見直す事なのだと確信している。

主な原因

ではアプローチを変える為に、これらの根本的な問題は何か?

簡潔に言うと、これこそがいわゆるAIのブラックボックス問題であり、近年特に多くの専門家が指摘している様に、データのサイロ化、ディープラーニングが直面している問題等があり、それらは指摘しているのでそれらを参考にすると良いだろう。(参考:http://bit.ly/2DOpXgT )今回はわかりやすくする為に現状のAIの課題を大きく2つのフェーズに分けて見たいと思う。

課題1. データの中央集権化

AIの解釈部分とは、主に機械学習のフェーズで、入力データに対して計算し、学習モデルの制度を上げていくプロセスに当たる。しかし、モデルのデータの制度を向上させるには自分が思い描いている以上の膨大なビッグデータが必要になり、多くのIT巨人達はそのデータの確保に血眼になっている。その為にサービスは無料で提供し、ユーザーに好きなように使用させて個人の行動データを確保する。そのデータは個人を特定するには十分なデータの為、マーケティングツールとして最適化する為に機械学習をおこなう。まさに「Data is new oli」の状態がここにあり、他社にデータを無料で公開することはほとんどない。

そしてメガプレーヤーへの”データという富の集中”だけでなく、AIのブラックボックス化による課題もある。

課題2. AIの”検証”

1つ目はアルゴリズム検証の不完全性である。例えば『予測精度99.9%の購買予想アルゴリズムができました』というPRを行う企業があったとする。これが『真』であるかを証明するには、第3者による”検証”が可能な状況を担保する必要がある。”再現”には、いくらかの情報が必要になるが、企業側はその情報すらも公開しないことは多々ある。その結果、レモン市場のように『実際に使ってみないと、本当かわからない』という状況が生み出され、時には事故に繋がる恐れもある。

AIの技術的課題とセーフティネット

AIにも間違いを起こすことはある。例えば、Googleの画像認識プログラムの認識精度の不具合がある。大量のデータから”最適解”を導き出すAIは”外れ値”に弱い。そのため、インプットから出されるアウトプットが時には人の気分を害したり、差別などの社会問題を助長してしまう危険がある。

そして、それが”恣意的”なのか、”事故”なのかを判断する事は外部の人間が判断する事は難しい。一般的に世界の名だたるテック系上場企業が差別や不正などをするインセンティブは明らかに低いが、個人データの漏洩問題などから、彼らに対する疑いが浮かび上がっていることも事実である。企業が扱う情報の非公開化と公開化のトレードオフに関して、明確な答えはない。一方でデータやアルゴリズムを秘匿化した上でオープンにそれらを検証できるような安全を担保するセーフティーネットは重要だ。

課題3. AIの進化

2つ目は人間の理解を既に超えてしまったAIによるブラックボックス化である。「AIに聞いたら、精度の高い結果がでてきた。しかしナゼそうなったのか理由はわからない」という状態である。例えば、GoogleのDeep Mindが開発したAlphaGoは囲碁の専門家による数百万の指し手を学習し、当時天才と言われていたイ・セドルを打ち破った。しかし、驚くべきは翌年にGoogleが発表したAlphaZeroである。AlphaZeroは人間による入力なしに、AI同士の学習から囲碁を急速に習得できる。そしてAlphaGoとの対局で100戦100勝の成績を挙げた。既にAIは局所的に私たちの理解の域を超えている。イーロンマスクのようなテクノロジー界の著名人達が時にAIを否定する理由も理解できる。

このような状況から「健全なAIの成長」には”検証”とセーフティネットのための”公開化”は重要な役割を担う。確かに企業に莫大な富をもたらしているAIのアルゴリズムをまるまる公開するのは現実解ではない。しかし、AIの安全性・信頼性のために、世界のデータのあり方が今後変わることは間違いない。

コネクトームチームが目指す”非中央集権型AIの未来”

それでは我々で何か解決できる事は無いだろうか?それもweb2.0で起こった過ちを犯さないように。Connectomeではこの問題に対し、いくつかのユースケース検証と非中央集権的に管理されるAIのアプリケーションを目指している。

1. コネクトームユースケース:GeneFlow

GeneFlowとはその名前の通り、遺伝子の流れのようにAIの成長の履歴を記録するツールになり、Connectomeで提供する様々なタイプのAIにGeneFlowの導入を目指している。問題として指摘していたAIの学習フェーズ、推論フェーズのデータは全てIPFSに保存し、そのハッシュ値をOn-Chainに記録する事で「いつ、誰が、何を、どのように」AIを作成したのかを明確にする目的である。

また、AIの実行履歴についてもブロックチェーン上に記録し、仮にAIの推論が正しく行われなかった場合でも、どの部分で判断を誤ったのかをオープンに検証できるようになっている。現段階ではPrivateのOff-Chainを使用して運用のテスト段階ではあるが、GeneFlowにもまだチャレンジする項目は多々あり、学習フェーズを分散して行えるか?秘匿計算を行ってデータのプライバシーを守る事が出来るのか?等を検証しており、それらについては今後の投稿にて詳しく解説する。

2. コネクトームユースケース:Connectomeマーケットプレイス

Connectomeでは最終的に上記のGeneFlowを含めた、非中央集権的な次世代インターフェースVirtual Human Agent(VHA)のマーケットプラットフォームの提供を目指している。アプリケーションの構成要素としてはデータの所有、インセンティブ設計、及びプラットフォーム内のアルゴリズムの透明化が主となる。

データの所有

デジタルデータの所有権やIPについてはインターネットが主流になってから以降、多く議論されている内容である。従来の中央集権プラットフォーム下では、所有権を証明する事はプラットフォーム側に委ねなければならず、時にはプラットフォーマーによるゲームチェンジによって莫大な損害を受ける企業もある。非中央集権化されたプラットフォームによって、公平かつ不変の記録としてデータやデジタルアセットを証明する事が可能になる。プラットフォーム提供側ですら不正をする事が不可能になる為、所有権の証明にブロックチェーンを適用させる事がより自然でユーザーに対して、プラットフォームに参加するインセンティブが働きやすくなる。

インセンティブ設計

そこでこのConnectomeマーケットプレイスではプラットフォーム参加者が公平に参加、利用できるように各ステークホルダーに対してインセンティブ設計を慎重に施している。ステークホルダーは主に大きく分けて3パターン存在する(厳密にはConnectomeプラットフォーム全体に対する投資家等も存在するがここでは省略):

  • VHAクリエーター(開発者、デザイナー)
  • VHA投資家
  • VHAユーザー

これらの3つのステークホルダー間で需要、供給、流動性の観点から関係性が正常に保たれるように設計をしている。そのほかの側面として、個別のVHAについてはCurationマーケットの原理を利用し、NFTsをボンディングカーブトークンに紐付け、re-fungibleトークン化する事で、後続のマーケット参加者の増加によりボーンディングカーブの価格が上昇し、VHA投資家が先行利益を得やすく、かつ早い段階でVHAクリエーターが同時に開発資金を確保できるようになるという利点がある。クリエーターの供給モチベーションと投資家、そしてエンドユーザーの利害が一致するようにここでは設計されマーケットの正常化を保たれるようになっている。その他に、マーケットの参加者によって正しく個別のVHAが評価されるように、Token Curated Registory(TCR)の原理を利用してステークホルダーはトークンをステークする事でマーケットの健全性を保つインセンティブが働くように機能をさせることになる。この点においては先日ベルリンのOcean Protocolチームとインターナルハッカソンを行い、マーケット内のどのVHAがより良いカスタマーサービスを提供するのか?という実装を行った。

マーケットのメカニズムの詳細(個別のパラメータやその他オプション)は特に現在もアップデート中で、その内容についてはConnectomeチーム内で行なっているToken Engineeringセッションからデザインのプロセスやより詳細のインセンティブメカニズムについて後日解説したいと思う。

透明化

先の例で紹介したようにConnectomeマーケットプレイスは透明化をする事でプラットフォームの健全化、非中央集権化を目指している。この事で非常に有効なのは、このオープンプラットフォームによって、ユーザー同士でAIの信頼性について議論をしたり、TCR等の方法を使ってレコメンドをしたり、逆に危険なAIの繁殖を防ぐ事ができる事である。私はオープンソースの思想が持つ力を信じているし、それがそのコミュニティに所属する人の行動を良い方向へ導いてくれる、まさにイーサリアムを初めとしたクリプト業界のように、「良いウィルス」の拡大をブートストラップする武器になる。信頼のできるAIが今後の世界を導いてくれる、最初の場所になるのがConnectome Marketplaceになるように、我々チームは日々開発や仮説検証、連携やコミュニティの拡大を進めている。

Source: Artificial Intelligence on Medium

Leave a Reply

Your email address will not be published. Required fields are marked *

Back To Top
a

Display your work in a bold & confident manner. Sometimes it’s easy for your creativity to stand out from the crowd.

Social