変化の種

Shoichi Uchinamiのブログ

AIとサービスに倫理を実装する:「倫理エンジニア」という新しい職種

タイトルに入れた「倫理エンジニア」は完全に造語で、英語の”ethics engineer”を含め誰も使っていそうにないので、今の世の中にそのような職種があるわけではないのだが、最近思いついたことを整理したいのと、あわよくばそんな職で雇ってくれるところがないかな、と思って書いた。

情報技術の発達が産んだ、一見すると新しい倫理

はるか古代より、ビジネスと倫理には切り離せない関係があった。
貴方の両親が生まれる前どころか、紀元前からあったであろう金貸し業は、現代の今においても利率をはじめとしたビジネスのあり方が議論の対象になっている。
一方、もし貴方に子供がいれば、その子が生まれた後の時代に発見され、議論されるようになった倫理的な問題もある。
情報技術が発達し、AIと呼ばれるような、多くのデータとそれを機械的に識別して価値を生む機能が使われた結果、意図せず生まれる差別や道徳的に問題のある挙動に関する倫理だ。

「黒人が映った写真に対してAIがゴリラとタグ付けした」「人事評価AIが女性に対して低い点数をつけがちだった」などの事例を耳にしたことがある人もいるだろうし、
「車の自動運転では、事故が避けられない時、乗っている人間と歩行者のどちらを優先すべきか」「AIに生成させる絵画は、既存画家の”絵柄”をどこまで真似て良いのか」といった今も善し悪しが決まらず議論され続けている問題もある。

こうしたことを議論する「AI倫理」という単語は昨今広く使われるようになっており、最近は書籍や記事が多く公開されている。
生命倫理の問題から提唱されるようになったELSI(Ethics, Legal and Social Issues)と呼ばれるものの一分野であり、昨今は”倫理”としてのCEO(Chief Ethics Officer=最高倫理責任者)や倫理委員会を置く企業も増えてきている。
その倫理についての話自体、非常に面白いのだが、今回の記事ではそうした倫理がどうあるべきかという話ではなく、その倫理を実装するための人が必要となる、という話である。

本当に企業に倫理が必要になるのか

「ELSIなんてアカデミックな研究の中だけの話だし、倫理のCEOや委員会なんかも過去に問題が起きた時に対策の一環として作られたパフォーマンス用ポジションでしょ。そんなのを真面目にやる企業なんてないよ。」
という指摘があるかもしれないので、3つの観点からその必要性を上げてみよう。

3つの観点と言っても、完全に独立した要素ではなく、倫理に共通した要因から生まれる動機のため、実際はそれぞれ関係しているのだが、分かりやすくするためにあえて身近な概念と対比して並べてみる。
その概念とは「セキュリティ」「環境問題」「デザイン」だ。

セキュリティとの対比:企業の被害を防ぐ

必要性が一番わかりやすいのは「セキュリティ」と似た考え方だろう。
昨今の情報サービスでは膨大なデータが扱われ、ネットを介して決済が行われることで直接的なお金の動きも発生する。
社会を騒がすセキュリティインシデントは枚挙にいとまがなく、情報漏洩によるイメージダウンや損害賠償、もっと直接的な不正送金や資産の盗難があれば、企業が受けるダメージは計り知れない。
そうした被害を防ぐためにどの企業もセキュリティに力をいれ、昨今はセキュリティエンジニアと呼ばれる人々が引く手数多だ。

倫理面においても、セキュリティと似た危険性が指摘できる。
例えばアメリカで雇用差別禁止法をベースに訴えられて負けた場合、懲罰的賠償金制度の影響もあってそのダメージは計り知れない。
冒頭で挙げたような人事評価AIを使った結果、年齢や性別、人種といった属性による合意なき選別が行われてしまっていた時に「知りませんでした。その意図はありませんでした。」で免責できるだろうか?
少なくとも、AIの代わりに1日1万人の応募書類を判断できる超人を雇ったとして、その超人の偏見が原因で特定の人種が排除された場合、その従業員個人に責任を押し付けて逃げる、ということは絶対に不可能なはずだ。

金融機関でのセキュリティホールのように倫理の穴が原因で直接的にお金が奪われることはないかもしれないが、ゴリラタグ事件で失われた潜在的なユーザーや顧客(広告主)はゼロではなく、金銭的なダメージがあったはずだ。

環境問題との対比:社会の規制に従う

詳しい人に向けてはEUGDPR(個人情報を保護するための規則)の話をした方が早いかもしれないが、一般的にはそこまで知られていない話だと思うので環境問題との共通点で話をしよう。
国などの公の機関から要請される規則として必要とされる、というパターンだ。

かつて日本でも公害が問題になったように、企業が自身の利益だけを追求して経済活動を続けていると、結果的に社会全体でその大きなツケを払わされる、ということがある。
昨今の気候変動をはじめとした環境問題への高い関心は、このような社会的な悪影響を減らすための活動であり、世界的な取り組みをもとにさまざまな規制が行われている。
例えば有名なものは自動車の排ガス規制であり、一定の基準を満たしたものでなければ売ることができない。
これは、そのような規制がなければ、社会全体が自動車の排気ガスによって回復不能なダメージを負うからであり、資本主義の自由市場の中であってもあるべき規制として受け入れられ、遵守されている。

「環境と違って倫理なんて単に気持ちの問題じゃないの?」と思うかもしれないが、倫理面においても環境問題同様、人々を完全に自由に振る舞わせていると、結果的に社会が毀損されるようなことはありうる。
なぜ環境と同じように倫理が社会から要請されるかと言えば、それが人間の権利、すなわち自由と平等、そして民主主義を守るために必要なものだと思われているからだ。
先に挙げた雇用差別禁止法などは、まさにそうした権利と民主主義を守るためにあるものだ。
差別的なバイアスを元にした選別を許してしまえば、特定の属性を持った人々の権利が侵害されるし、人々が目にする情報を隠れてコントロールする技術で選挙結果が左右されるようなことがあれば、民主主義の根幹に関わる。

デザインとの対比:ファンを作る

今までの2つはマイナスを回避するための必要性だったが、企業にとってプラスのための考え方もある。

Apple社は、多くの人々に受け入れられる優れたプロダクトを世に送り出してきたが、そのヒットの要因としてデザインの力があったことに同意する人は多いだろう。
他社と差別化された、洗練されたデザインのプロダクトを作ることによって、特別なファンを増やしてきた。
これはApple社に限った話ではなく、デザインは昔から大きな力を持っていて、現代では多くの企業でCDO(最高デザイン責任者)が設置され重要視されている。

それと同様に、倫理がそのサービスを他社と差別化し、多くの顧客を惹きつける要素となる、と言ったらどう思うだろうか?

SDGsなんて今時どの企業も同じことを言っているし、倫理で差別化なんかできるの?」という疑問はあるだろう。
しかし、環境問題のゴールが多くの人々の間で一致している点と異なり、倫理の分野では単一の絶対善を前提に進められることは少ない。
冒頭で挙げた自動運転のあるべき姿などは、一般の人々にアンケートをとると大きく意見が分かれることが知られている。
そのため、大枠は社会的な合意のもと形作られるものではありつつも、例えばその方針に同意する人だけが利用する、といった形で、同様の機能を提供するサービスにも関わらず、各社で振る舞いが異なることも十分ありうる。

例えば、貴方が弁護士を雇う必要に迫られたとき、どのような基準でその弁護士を選ぶだろうか?
弁護”機能”だけを重視するのであれば、最も裁判に強い弁護士を選びたくなる。
だが、それが本当に貴方の幸せにつながることだろうか?
どんな手を使ってでもこの裁判に勝つことこそが、人生の最終目的です、という人は相当稀だろう。
もし裁判に負けたとしても、あるいは和解等を介して単純に勝つことそのものよりも、幸せになる、ということがあっても全く不思議ではないはずだ。
そう考えると、僕であれば「この人と一緒に考え、自分を代理してもらえたら、結果はどうあれ納得する」という人を選びたくなる。

候補の弁護士がかつて凶悪な殺人事件の犯人の弁護をしたことがあったとしよう。
人によっては「殺人犯の弁護した人間なんて信じられないから嫌だ」という人もいれば、全く逆に「なんぴとたりとも弁護を受ける権利がある、という弁護士のあるべき姿を体現している人だから信頼できる」と思う人もいるだろう。

そうした”人格”をもとに弁護士を選ぶ、ということは多くある。

さて、もし自分を弁護してくれる機能を提供するAIがあったとしたらどうだろうか?
複数の企業から提供されている弁護AIのうち、どれを選ぶだろうか?

利用者が求めているものが単なる”機能”であった場合、人々に必要なのはその製品のスペックだろう。
「こういうときはこういうアウトプットになります」という仕様が詳細にあれば、それを元に比較することができる。
だが、単に機能が欲しいのではなく、ある種の人格を持った存在としてそのサービスを受けたい、と考えた場合、その製品がどういった倫理観を持ってどう振る舞うのか、ということに関心が向いたとしてもおかしくない。

この世界のすべての人から支持されるわけではないかもしれないが、それでもその人格を好きだと言ってくれるユーザー達に囲まれる。
そうしたサービスを実現するために、倫理が必要とされる。

なぜ倫理”エンジニア”が必要なのか

上で述べたロジックはかなり雑かもしれないが、仮に本当に、企業が提供する製品やサービスに倫理が求められていくとして、それがどうしてエンジニアと関係するのだろうか。
最高倫理責任者や委員会、ELSIの研究者達の考えを従業員に浸透させることだけでは足りないのだろうか?

確かに、サービスのコンセプトレベルで倫理的瑕疵のあるものであれば、それに気付いてブレーキを踏むのことにエンジニアは必要ない。
あるいは、何も考えずにリリースすると炎上する恐れがあるサービスについて、社会やユーザーと適切にコミュニケーションを取り、心配を取り除くような施策を考えて実施するのであれば、誰がやっても良いだろう。
単純に「顧客の情報を盗み見しない」という倫理であれば、従業員の教育こそが必要だ。

だが、今問題となっているものは従業員の振る舞いではなく、サービスの振る舞いだ。
仮にその企業で働く全従業員が高い倫理観を持ち、人種差別に高い問題意識を持っていたとしても、その企業が作ったAIが特定の写真にゴリラタグをつけない、ということは全く保証されない。それをするためには、従業員ではなくその”AI自体に倫理を教育”しなければいけない。
どれだけ優れたカリスマデザイナーが所属するファッションブランドであっても、デザイン通りに縫って形にできる職人がいなければ服が生まれないし、
地球環境を最大限考慮した電気自動車を作りたいと思ったとしても、その車を作ってくれる技術者がいなければどうしようもないのと同様、
作るものに倫理を実装するためには、その”思想”ではなく、その”能力”を持った人間が必要となる。

例えば、最近話題になっているAIチャットボット(あたかも会話しているかのような自然なテキストを生成してくれるもの)の ChatGPT は、極力差別的な言説を返答しないような挙動をしているが、それは技術者達の手によって、AIがそのように振る舞うように注意深く設計され開発されたためであり、たまたまああなっているわけではない。

ChatGPT にどうやって差別を回避しているか聞いてみた結果。事実を述べるための機能ではないので、実際この通りにやっているかは不明だ

そう考えると、Webサービス業界での狭義のセキュリティエンジニアがインフラエンジニアと近しいのと同様、狭義の倫理エンジニアリング業務はAIエンジニアが担うことになるのは間違いない。
なぜなら、AIのインプットやアウトプットをコントロールできるのは、まさにそのAIを開発するAIエンジニアであるし、AIに必要な機能としての倫理要件が”正しく”与えられれば、AIエンジニア達はそれを実装するだろう。

だが近年「セキュリティエンジニア」という独立した呼称が広く使われるようになっているように、この倫理エンジニアリングも独立した技能として認められていく可能性は高い。

その理由の一つは、これが単にAIに閉じた話だけではないからだ。
広義のセキュリティエンジニアが、インフラのみならず、アプリケーションレイヤーや、さらに広い複数のサービスにまたがったレイヤーのセキュリティ担保を期待されるのと同じように、
倫理エンジニアリングでも、AIだけでなく、データを利用するあらゆる機能、そしてそうした機能を組み合わせてユーザーに提供されるサービス体験に、正しく倫理が担保されることを期待されるため、AIの枠を超えた知識とスキルが必要とされる。

もう一つの理由は、仮にAIに限った話だとしても、課題が非常に難しいからだ。
例えば、ゴリラタグ事件から学習して避けるべきことはどんなことだろう?
Googleは炎上があって直ちに「ゴリラ」というタグを停止し、同様に「チンパンジー」や「サル」も同じ扱いにしたらしい。
だが、それ以外は?ヒトラーに似ている人間にヒトラータグが付くことは?
考えていくとそもそもタグをつけるという機能それ自体をやめたくなる。

顔識別に関する炎上の事例では、技術者視点でさらに同情を集めそうな例がある。
「入国審査で目が細いアジア人の顔を『目を瞑っている(から目を開けて撮り直せ)』と判断してしまった」
という事件だ。
これが問題になるの?と驚く人もいるかもしれない。
技術者としては「単に学習が足りなかっただけで、なんなら目が細い白人でも同じ結果になるし、アジア人を差別する”意図”はない」と言うだろう。
が、世の中の多くの差別案件の謝罪で使われがちなこの「差別の意図はない」は、通常全く何の効力も発揮しない。
顔を識別する側がAIではなく人間であったならばと考えると、実際に今この世界で、アジア人が差別される場所があり、カリカチュアライズされたものを使って揶揄される事例があるのであれば、その回避が求められるだろう。
あるいは車の自動運転における画像認識の分野では散々取り上げられていることだが、「ハロウィンの日にコスプレをしていた人間を識別できずに轢いてしまいました」というケースと、「特定の宗教を信仰している人々だけが纏う服装のため識別できずに轢いてしまいました」というケースでは、どちらも認識能力が”足りていなかった”というだけの原因にも関わらず、社会から向けられる視線はかなり異なるだろう。

つまり、考慮すべき内容とは、事前に決められている有限の要件ではなく、未知のものが無限にあり、それを常に考え続けなければいけないのだ。
この困難さもセキュリティの分野と近しい。
インシデントのデータベースを元に様々な知見が得られてきているが、常に新しい脆弱性セキュリティホールが見つかり、その度に知見がアップデートされている。セキュリティエンジニアは常にその最新の情報をキャッチアップし続けなければいけない。

AIであるが故の難問はさらにまだある。
AIの判断理由を説明できなければいけない」という要請だ。
例えば、採用選考AIによる性差別を回避するため、AIに参照させる履歴書・職務経歴書から性別欄を削除したとしよう。
AIは入社後の活躍に一番影響しそうな隠れた因子を見つけ出して最終スコアを出したが、よくよく調べてみると結局その応募者が男性なのか女性なのかを性別以外の情報から判断していただけだった、ということも起こりかねない。
そのため、「一番活躍しそうな人を選びました」というのは雇用差別禁止法的には何の説明にもなっておらず、どういう要素から活躍を判断したのか、という説明が必要となるのだ。
まだ知られていない避けるべき振る舞いが無限にあるにもかかわらず、その要因が直接的には見えずに隠れて影響していることまで避けなければいけない、というほとんど原理的に不可能なことが必要なのだが、この”AIの判断理由の説明”を誰の目にも明らかな形で出すことができれば、その不可能な要件に近づくことができる。

倫理エンジニアに必要なこと、必要じゃないこと

飛躍の飛躍になってしまうが、仮にこれまでの話が正しいとして、どんな人間が倫理エンジニアになるだろうか?

3つのパターンと必要なスキル

必要とされる知識やスキルから裏返して考え、3つのパターンを挙げてみた。

AIエンジニアが持つ強み

一つ前の節でも述べた通り、インフラエンジニアとセキュリティエンジニアの関係と同じように、AIエンジニアが最も関係が深く、その代表となることは間違いないだろう。
昨今「AI倫理」という言葉が盛んに使われるようになったように、AIを利用した際に発生する倫理的問題こそが一番の大きなトピックであり、そのAIに一番詳しいのはAIエンジニアで、AIが問題あるアウトプットをしないように開発することができるのもAIエンジニアだけだ。
ただ、AIの開発にあたって「こういうAIが欲しい」という要件が事前に定義される際、倫理の要件まで完全に網羅して定義されることはほとんどありえないだろう。
そのため、AIエンジニアはこれまでの倫理的AIインシデントの事例を常にフォローし、自分が開発する機能との類似を考え、どのようなことを考慮しなければいけないのかを自ら定義する必要があるが、それができればAIのコントロールで高いバリューを発揮するだろう。

研究者が持つ強み

次に考えられるのは、科学を専攻し、研究をおこなってきた人間だ。
研究者はエンジニアとはまた別種の生き物ではあるが、先に述べたAI倫理での非常に重要な要件「説明できること」における”説明”は、科学的なアプローチに近い。
科学者は自然現象や様々なデータから、その振る舞いを最もうまく説明できる仮説を立て、その仮説の穴を潰して論文にすることを仕事とする者が多く、統計等にも詳しい。
交絡因子などの隠れた要因の存在は、自身の研究を発表する限り常に他の研究者から指摘され続けることであり、AIエンジニア同様倫理要件の整理ができれば、「説明」の分野では高いバリューを発揮するだろう。

データ(内容に詳しい)エンジニアが持つ強み

もう一つはAIの学習等に利用されるデータの収集を行ってきた等により、そのデータについて詳しいエンジニアだ。
データを使った機械的な識別や数値化における倫理的問題の中には、元になったデータが抱えていた潜在的な問題が原因となっているケースも多い。
シンプルに、現存する人種差別の影響を受けたデータをそのまま学習して人種差別的な数値を出してしまうこともあるし、あるいはただ特定の領域データだけが欠損していることによってその領域に関連した人間だけが不利益を被ることもある。
そのデータがどのように収集されたのかが完璧に記述されていれば、データを利用する人間に様々なことを気づかせてくれるが、実際には学術的研究の分野ですら、分析や学習に利用される元データに完璧な説明があることは稀である。
データを収集した人間の頭の中には多くの暗黙的な知見があり、その人間が、考慮すべき倫理的要件をインシデント事例等から構築する力を得ていれば、その要件とデータの内容を結びつけて、注意すべき点をピックアップすることができるだろう。

高い倫理観は必要ない

これまで倫理エンジニアに必要な知識やスキルを述べたが、逆に必要だと勘違いされそうだが全くそんなことはないものをあげよう。
それは”倫理観”だ。
グッチのバッグを縫う職人にファッションセンスがなくともいいし、Web業界で「エンジニアデザイン(笑)」と揶揄されるようなデザインセンスがない人間が画面をコーディングするフロントエンドエンジニアをやっていい。
デザイナーが正しく設計を伝えることができれば、何の問題もなく製品は作られるからだ。

同様に、もし倫理要件が正しいプロセスで正しく定義されるのであれば、倫理エンジニアは倫理観を持っている必要はない。
むしろ、何かを作る際に「デザイナーは赤って言ってるけど、僕は青の方が好きだからここは青にしときました」などという技術者がいたら困るように、個人の倫理観で勝手に実装をすることは許されることではない。
サービスに実装すべき倫理とは、過去の倫理的インシデントを元に指針が作られる場合もあるが、様々な観点から論じられて定義されるものである。
倫理エンジニアは己の知見を元にその議論の進行役になることはあっても、自身の思想を押し付けることはしないので、高い倫理観をもっていようがなかろうが、最終的なアウトプットに影響はないのである。

最後に

この記事はどこかの企業にヒアリングしたり調査して書いたものではないので、ほとんど妄想だが、もうすでにこのようなことを期待されて働いている技術者もいるかもしれない。もしそうであれば、是非その人の話を聞いてみたい。

そして最後に、こんなにも長く、与太話のような記事を読んでくれて、その中でなおかつ「面白そうだから自社でそういうポジションを考えたいかも」と思った奇跡のような人がいたら、是非ご連絡ください。

連絡先SNS

Facebook

Shoichi Uchinami (@ShoichiUchinami) / Twitter