変化の種

Shoichi Uchinamiのブログ

間接的に影響を及ぼすこと、あるいは自分と異なる人へのサービス提供の是非について

少し前からちょっと考えていることをまとめた

人をサポートする人工知能

マーベルの映画『アイアンマン』に出てくるジャービスのような存在が好きだ。

『アイアンマン』を観ていない人に簡単に説明すると、ジャービスというのは作品中に登場する人工知能(AI)のようなものだ。
主人公であるトニー・スタークは天才的な科学者・技術者であり、悪に立ち向かうために、自身の身体を覆う鋼鉄のスーツを作り出す。
トニーの天才性によって作られたそのスーツは、誰にも真似できない様々なハイテク要素があるのだが、そのトニーの発明の一つとして、トニー自身をサポートしてくれる「ジャービス」と呼ばれる人工知能がある。
何か調べ物をしたければジャービスに語りかければすぐに答えを返してくれるし、スーツの様子を常にモニタリングしていて調子が悪い時には通知をくれ、時には小粋なジョークを飛ばす。

このような、人間の主人公をサポートしてくれる機械は、僕が知っている古い作品ではハインラインの『月は無慈悲な夜の女王』に出てくるし、新旧問わず様々な漫画にも登場している。
SF的世界観でのこうした存在を見るたび、「このAIが全人類一人一人に配布されれば、多くの不幸が回避され、物凄くハッピーになるだろうに」と思うのだが、恐らくその世界の技術力では、こうした高性能な人工知能を動かすために莫大なハードウェアなりなんなりが必要で、一般の人々までは行き届いていないのだろう。

人を「サポートする」の定義とは/どこまでが許容されるか

僕自身の今後の仕事の一つの可能性として、自分でこのような「完璧なるサーバント」を作り、人々に提供することを妄想したとき、ひとつ引っかかることがあった。
それは、どこまでユーザーにおもねるべきか、どこまでそのユーザーの考えを変えていいのか、ということだ。

例えば、アイアンマンを始め、この手の人工知能が登場する創作物の中では、人工知能が主人公からの命令に対して「それはやめておいたほうが……」と嗜めるシーンがよくある。そして、主人公がそれを押し切った結果、後悔することも多い。
短期的な幸・不幸だけを考えれば、このようなケースでは、AIは命令に従わずに自身の判断を押し通した方がユーザーのためになったはずだから、そうすべきだった、と言えなくもない。

また、物語の主人公であれば邪悪な行いはしないかもしれないが(とはいえトニー・スタークは「エイジ・オブ・ウルトロン」でとてつものないものを作り出してしまったが)、仮に人類を根絶やしにしようとする人間がいたとして、そのための行いのサポートをするのは、誰が考えてもNGというだろう。

この辺りまでであれば、ロボット工学三原則に従ってさえいれば、大きな葛藤に悩まされることはないかもしれない。
「ロボット工学大原則」とは、アシモフというSF作家が自作の小説の中で示した、思考するロボットに課すべき3つの原則で、

  1. 人間に自ら危害を加えず、危害を見過ごさない
  2. 1に反しない限り、人間の命令に従う
  3. 1および2に反しない限り、自己を守る

というものだ。

何を「危害」とするのか、「幸せのサポート」は可能か

だが、僕が夢想するサポートAIは、ユーザーを幸せにすることを目的にその体験を提供するものであって、それを単なる道具として使ってください、というものではない。
しかし、その人が幸せだと思っている状態になることが、その人が幸せになるということとイコールだと簡単には言えない。側から見た時に、それ以外でも幸せを感じる道はたくさんあり、場合によってはその別の道の方がよりハッピーになるかもしれない。

例えば、最近公開されたマーベルの映画『エターナルズ』は、いくつかの国では上映が禁止されている。映画の内容がその国の政治的な方針に従っていないから、というのが理由で、その理由の是非は置いておくとしても、少なくともこの世界に「マーベルの作品は上映されるべきではない」と考えている人がいることは間違いない。

僕個人にとってはこれはかなり大きな問題で、もしこうした人がマジョリティの国に住んでいて、マーベルの映画を味わうことができなかったら、と考えるとかなり残念な気持ちになる。
そのため、僕個人としては、「マーベル映画撲滅を目指す人」の撲滅活動それ自体はサポートしたくないし、自分が作るサポートAIにそのような働きをさせたくない。

この時、このマーベル映画撲滅パーソンを、AIを介して「説得」して、一緒にその作品を楽しめるように「誘導」することは許されるだろうか?
マーベルの映画の面白さを信仰している僕としては、作品を楽しめるようになれば今よりより一層ハッピーになれることは間違いない、と信じているし、ほとんどトートロジーだが、観て楽しいならそれはイコールハッピーなはずだ。

いったんAIを脇に置いて、仮にその人本人と僕が友人関係であった場合、僕が直接その人と語り合って影響を与えることは許されるはずだ。
共和党を支持し、テイラー・スウィフトが好きな友人に、テイラーの政治的な表明意見を見せた結果、その友人が民主党支持に変わる、ということがあったとしても、それが人間と人間のコミュニケーションの結果生まれたものであれば、許される気がする。

だが、僕が作ったサポートAIが、その友人をサポートしながら、僕自身の意図を隠して、僕にとって都合の良い情報を提示し、語りかけ、その結果今までとは違う信念へと変わり、しかし少なくとも、それ以前よりも幸せだと感じている、ということがあり得たとしたら。

「影響を与える」ではなく「相互作用」

先の例は、どちらかというと中間的なものなので、NGという人もいるかもしれないが、
「全世界を憎んで人類を根絶やししようとしているユーザーの心を癒し、その考えを捨てさせ、幸せにする」
というケースならほとんどの人はOKを出すだろうし、逆にほとんどの人からそんな影響の与え方はダメだろう、と言われるケースもあり得るだろう。

だが、これは、仮にその境界が時代と共に変化するとしても、どこかにOKとNGの境目のようなものが存在する、ということを意味するわけでもない気がする。

人間同士のコミュニケーションなら許されるはず、と書いたことと関係するが、これはどちらかというと「影響の与え方」の問題で、何が意図を持って行われているのか、ということがユーザーに対して真摯に説明され、受け入れの可否を選択可能なのであれば、
そして何よりも、「そのユーザー」→「僕」という方向での影響もありえるような、相互作用関係にあるのであれば、仮に大抵の人が「それは不幸だろう」と言うような状態をユーザーに課すことも許されるような気がする。

おわりに

作るものが包丁のような単なる道具であれば、仮にその包丁を使って殺人が行われたとしても、包丁職人は何も責を問われることはない。
だが、傲慢かもしれないが、道具ではなく価値を届けることで人々に直接的に影響を与えたいと考えているため、その「影響の与え方の道徳的責任」が気になっている。それがテクノロジーを使った次の時代の価値の生み出し方だと考えているからだ。

普通に考えれば物事はそんなに単純ではなく、常に移り変わる複雑な世界なのだから、この原則ですっきり明快!なんていうものはないのだが、それでも「この瞬間、この方向であれば、100%全力全開でアクセルを踏んでいい」という確信があれば、すごく楽しそうな気がする。
もちろん、それは熟考して見つけ出すようなものではなく、単に「やると決めてやる」だけのシンプルなものである、ということも分かってはいるので、あくまでそれまでの半分暇つぶし的な思索だ。