2023/9/27

AIを道徳化すべきか

 
 
 
 
 

AIを道徳化すべきか

 

  


いずれにせよ、これを満たせば、
人間と言える、
 
人格を持つものだと言えるという条件があれば、
ないしはそれを設定できれば、
 
それを満たしたAIは、
単なる人工知能ではなく、
 
人工的人格(Artificial Person)
だということになります。
 
 
 
僕はこのような人工的人格をもったAI・ロボットを、
先に述べたように「e–ひと」と呼びましょう。
 

もちろん「e–ひと」は、
僕らのような、自然的人間、
生物的人間とは同じではありません。
 
 
それは僕らとは種類を異にする、
新たな人間、新たな人格なのです。
 
 
もし「e–ひと」が、
将来生み出されたとしたら、
 
人間の種類が増え、
人間が二種類になることになるのです。
 
 

まずは(僕が考えるバージョンであれ

別のバージョンであれ)そもそも

道徳的AIを作ること自体、

 

言い換えるとAIやロボットに

道徳性を装着すること自体に

賛否両論があることを確認しておきましょう。

 

倫理的AI、倫理的ロボットを作ろう、

 

いやむしろ作らなければならないという主張、

さらにはAIやロボットに倫理を装着する試みは、

これまですでになされてきました。

 

 

例えば、

ChatGPTでは、

AIが質問者に対して侮蔑的な表現や内容で

解答を返すケースが問題視されました。

 

それに対する一つの対処法として、

ChatGPTに、解答文を作成する機能とは別に、

悪口を検知する機能──

これを「悪口フィルター」と名付けましょう──も装着し、

前者が作成した文章をチェックすることで、

問題のある表現・内容を

取り除こうという試みもなされています。

 

自動運転AIについても同様です。

 

自動運転AIは、

当然、交通規則を遵守するように

作られなければなりませんが、

それに加えて、

法律違反と言うほどではないマナー違反も

起こさないように設計される必要があるでしょう。

 

自動運転AIにこのような機能を持たせることは、

まさに道徳性を装備することに他ならないと言えます。

 

一方、

AIに道徳性を持たせること=

道徳的AIを作ることには反対意見もあります。

 

第三講や第五講で名前を出した

ジョアンナ・ブライソン

(AIおよびAI倫理の研究者)も、

そのような反対論を展開している一人です。

 

例によってブライソンの議論は

ロボットを対象とするものですが、

それはそのままAIを対象とする

議論にスライドさせることができるものです。

 

ブライソンは、

道徳的なAIやロボットが出現することで、

結果として、

本来は人間が行うべき道徳的配慮や行動が

AIやロボットによって代替されてしまうことを

問題視しています。

 

彼女によれば、

このような人間からAI・ロボットへの

道徳的義務の「外注」は、

人間の道徳的責務の放棄を意味するとされます。

 

義務の放棄は「悪い」ことです。

 

なので、

道徳的なAIやロボットを作ること、

道徳をAIやロボットに装着することも

「悪い」ことだとされるのです。

 

このようなブライソンの理論は、

明らかに、第五講で僕が批判した、

人間とAI・ロボットとの間の非対称な

関係を前提としています。

 

人間はデザイナーであり、

AIやロボットはデザインされる側。

 

ブライソンは、

このデザインをめぐる非対称性をもとに、

人間を「主人」、AI・ロボットを「奴隷」とする

更なる非対称な関係を設定したわけですが、

同じ論法がここでも繰り返されています。

 

デザイナーである人間に対しては道徳的存在、

デザインされた側であるAI・ロボットに対しては

非道徳的存在というレッテルが貼られているのです。

 

 

言い換えると、

道徳性はデザイナーたる人間の専売特許、

特権だとする隠れた前提がおかれているのです。

 

 

そのような前提に立ってはじめて、

道徳性をAIやロボットに担わせることは、

人間の不当な義務放棄だという

議論が出てくるのです。

 

 

第五講でお話したように、

デザインする側とされる側という

非対称性が成り立っていたからといって、

前者を「主人」、後者を「奴隷」と

しなければならない必然性はありません。

 

 

同様に、

道徳性をデザイナーの特権と

しなければならない必然性も、

これまた一切ありません。

 

 

デザインする側とされる側、両方に、

道徳性を認めても何の問題もないのです。

 

 

その意味で、

AIやロボットを道徳化することへの

ブライソンの反論には根拠がないと僕は思います。

 

 

一方で、

上で見たように、

ChatGPTや自動運転AIに道徳性を

装着しないことの弊害は明らかです。

 

 

そこで以下では、

道徳的AIの可能性を許容した上で、

そもそもAIを道徳化するとは

どういうことかを考えていきましょう。

 

 

モラルベンディングマシーン

 

ここで、

第二講で少し触れた

「道徳自動販売機(モラル・ベンディングマシーン)」

について改めて考えてみましょう。

 

「自動販売機」とは、

ボタンを押せば自動的にそして機械的に、

例えば缶ジュースが出てくる装置です。

 

そのような装置には、

缶ジュースを出す以外の選択肢がありません。

 

それは、一定のボタンが押されれば、

言わば、否応なく、

飲み物を出さざるを得ないように

設計されているのです。

 

もちろん、

時には缶が装置の内部で詰まってしまい、

何も出てこないこともあるでしょう。

 

でも、それは単なる「故障」であって、

自動販売機の正常な機能ではありません。

 

つまり自動販売機は、正常に機能している限り、

永遠に缶ジュースを出し続けざるをえない

宿命を背負っているのです。

 

今、缶ジュースの代わりに、

道徳的に正しい行為を売っている

自動販売機を考えて見ましょう。

 

これがモラルベンディングマシーンです。

この自動販売機からは、

ボタンを押せば自動的に機械的に

道徳に適った行為が出てきます。

故障でもしない限り、この機械は、

永遠に道徳的な振る舞いをし続けるのです。

 

もちろん、

このような道徳自動販売機を

作らねばらないケースもあるでしょう。

 

例えば、

自動運転AIは、

このようなモラルベンディングマシーンで

あるべきです。

 

しかし、

ここで問いましょう。

このような道徳自動販売機は、

果たして道徳的なエージェントと呼べるでしょうか。

 

モラルベンディングマシーンとしてのAIは、

第二講で導入した道徳的AIと言えるのでしょうか。

 

 

二つの禁令

 

モラルベンディングマシーンが

道徳的エージェントと呼べるかどうかを考えるために、

ここでは次の二つの禁令ないし

禁則を考えてみましょう。

 

一つは「鳥のように空を飛ぶな」という命令、

二つ目は「廊下を走るな」という禁則です

(以下では、前者を「空飛び禁令」、

後者を「廊下禁令」と呼びましょう)。

 

これらは、

それぞれ道徳的命令と言えるでしょうか。

 

「空飛び禁令」の場合、普通の人間はみんな、

特に何もしなくとも、

言わば自動的にそれを守っていることになります。

 

鳥のように空を飛べる人は、

原理的に、いないからです。

 

僕らは鳥のように空を飛びたくとも

飛べないので、

結果として、

この禁令に背いていないのです。

 

いやむしろ、背くことができないでいるのです。

 

「廊下禁令」はどうでしょう。

 

もちろん、

そもそも走ることができない人々、

それでも一点の曇りもなく

「全き人間」といえる人たちもいます。

 

一方、

廊下を走ることができる人も少なからずいます。

そのような人たちが、

廊下禁令の張り紙を目にして、

その結果、

廊下を走らず大人しく歩いていた場合、

彼らは、この禁令に背くことができたのに、

あえて走らなかったことになります。

 

彼らは禁じられている行為を

行うこともできたのに、

あえてそうはせず、禁令に従ったのです。

 

この二つの禁令を比べた場合、

おそらくあなたも含め多くの人々は、

「廊下禁令」は道徳的命令となりうるが、

「空飛び禁令」はそうではない、

と感じられるのではないでしょうか。

 

以下では、

このような「感じ」ないしは直観を信頼して、

「廊下禁令」のみが道徳的命令となりうるという

前提の下で話を進めていきましょう。

 

 

 

当為性

 

では、

「廊下禁令」と「空飛び禁令」の

分水嶺はどこにあるのでしょうか。

 

「廊下禁令」にあって、

「空飛び禁令」にはないものは何でしょうか。

 

それは第一に、「できるのに、あえてしない

(ないしは、しなかった)」という事態です。

 

廊下禁令の場合、

多くの人は「廊下を走ることもできたのに、

あえてそうはしなかった」のに対し、

空飛び禁令には、

「空を飛べるのに、あえてそうしなかった」

という事態が欠けていたのです。

 

「できるに、あえてしない」ことを

行為者に命じている禁則が道徳的要請なのです。

 

「できるのに、あえてしない」、

さらに言えば「したくとも、あえてしない」という、

言わば「痩せ我慢の気概」を

行為者に求めていることが

規則を道徳禁令たらしめているのです。

 

禁則について言えることは、

「するべき」という積極的な命令にも、

そのまま当てはまります。

 

積極的命令における「痩せ我慢の気概」とは、

「しないこともできたのに、

あえてする(した)」ことなのです。

 

以上に加えて、

道徳的命令は、

なぜ「できるのに、したいのに、あえてしない」のか、

その、そもそもの理由についても

「痩せ我慢」することも行為者に求めています。

 

例えば、「廊下を走らないこと」が

「端的に良いこと」だからではなく、

巡り巡って自分の利益のためになるから

「あえて走らなった」人は、

この「理由についての痩せ我慢」を

怠っていることになります。

 

そのような人は、

本当に道徳的禁令に従っていたとは

言えないことになるのです。

 

ちなみに、僕の立場から言えば、

「端的に良いこと」とは、

「われわれ」を全体主義から救うことです

「それをしてしまうと、

「われわれ」がより全体主義的になってしまうので、

あえてしない」という理由が、

痩せ我慢の要請にのっとった

「正当な理由」ということになります。

 

以上をまとめると、

行為と理由についての二つの

「痩せ我慢」を要請しているのが

道徳的命令だということです。

 

このように、

単に事実として「あることをしない

(ないしは結果として「していない」)」のではなく、

「できるのに、ないしはしたくとも、あえてしない

(「していない」)」という行為や行為者のあり方を、

ここでは「当為性(とういせい)」ないしは

「べき性」と呼んでおきましょう。

 

「当まさに為(な)すべき」、「すべし」、「すべき」、

「あるべし」、「あるべき」という道徳命令で

しばしば用いられる「当為」表現には、

このような「痩せ我慢の気概」が

込められていると思われるからです。

 

事実を表す「である」と当為を表す

「あるべき」は、英語の to beとought to be、

ドイツ語のsein(ザイン)とsollen(ゾレン)に相当します。

 

道徳的命令、

ひいては道徳性一般の本質は、

このような当為性にあるとする倫理学の立場は、

「当為」のドイツ語表現を用いて

「Sollenethik(ゾレンエチーク)」ないし

「当為倫理学」と呼ばれます。

 

「道徳性とは何か」についても数多の考え、

立場があります。

 

「痩せ我慢の気概」としての

「当為」を道徳性のコアとみなすゾレンエチークも

そのうちの一つです。

 

ここで僕は、

その当為倫理学の立場をとっているのです。

 

ちなみにゾレンエチークの

「言い出しっぺ」の一人が本講義にも

再三登場しているカントです。

 

ただ、カントの当為倫理学は、

「わたし」の自律性概念を前提しています。

 

それは自律型のゾレンエチークなのです。

 

それに対して、

僕は、そもそもそのような自律性概念は採用せず、

代わりに「自律性をめぐるゼロサムゲームから降りること」

としての協調性を採用していました。

 

僕の立場は協調型ゾレンエチークなのです。

 

モラルベンディングマシーンに話を戻しましょう。

道徳自動販売機は、

このような 「できるのに、あえてしない」

ないしは「しないこともできたのに、

あえてした」という「痩せ我慢の気概」としての

「当為性」を欠いた装置です。

 

それは空を飛べない僕らが結果として

「空飛び禁則」を守っていたのと同じ仕方で、

道徳的によい行為をアウトプットしているだけなのです。

 

ゾレンエチークの観点に立てば、

それは道徳的エージェントとは呼べない代物なのです。

 

「よいこと」しかできない自動運転AIは、

結果として交通規則やマナーを完全に

遵守していることは確かですが、

当為性を備えた道徳エージェントではなかったのです。

 

 

悪に開かれたAI

 

第二講で触れたように、

「痩せ我慢の気概」としての当為性を備えた道徳的AI、

ひいては人間をも含めた

道徳エージェント一般は同時に、

悪い結果を避けることもできたのに、

「あえて」ないしは「わざと」ないしは

「ついつい」ないしは「知らず知らずに」、

悪いことをしてしまう、道徳的弱さ、

脆弱性を抱えたエージェントでもありました。

 

それは「できるのに、しなかった存在者」

「やめられたのに、やらかしてしまった存在者」

になりうる危険性をつねに抱えている存在、

端的に言って、

悪いこともできてしまうエージェントなのです。

 

このように人間を、

当為性を備えた道徳エージェントとして捉えることは、

人間が悪に開かれた存在であることを

公認することを意味します。

 

そして人間が、

このように悪事をも行う存在であることは、

致し方ない事実として受忍されていると思われます。

 

悪事を行いうることを理由に、

人間の存在を否定したり、

その根絶を図ろうとする意見は、

あったとしても少数派でしょう。

 

一方、AIについては少々事情が異なるように思えます。

 

人間には認められていた

「悪いことをする可能性」を、

AIに対しても認めることに二の足を踏む

人も多いのではないでしょうか。

 

このような「悪いこともできる人工物」や

「悪の可能性を持ったAI」に対する

警戒感や拒否感が社会に

広く共有されているように思われるのです。

 

このような警戒感や拒否感は、

人間の道徳エージェンシーは認めても、

AIに対しては道徳的エージェンシーを

認めないという態度につながると思われます。

 

確かに、

自動運転AIのように、

「悪い行為」が人や社会への危害に

直結するようなケースについては、

僕も、「悪に開かれたAI」の存在に反対です。

 

このような 「シビアな悪に開かれたAI」は

明確に拒否されるべきだと思います。

 

一方、他愛のない悪ふざけ、

罪のない嘘、軽微なルール違反といった、

人間誰しも身に覚えがあるであろう

「マイルドな悪」への関与については話は別です。

 

人間に対しては、それを苦笑しつつも許すが、

AIやロボットに対してはそれを断じて認めない。

 

そういった非対称的で差別的な

態度が見受けられるとすれば、

それは問題だと僕には思われます。

 

人間の「マイルドな悪」を許容するのならば、

AIのそれも許容すべき。

 

言い換えると、そのようなマイルドな悪に

開かれている道徳的人間の存在を受容するのならば、

同じくマイルドな悪に開かれている

道徳的AIをも認めるべきだと思われるのです。

 

ということで以下では、

マイルドな悪に開かれた道徳的AIの存在を

擁護する議論を展開してみたいと思います。

 

ただし僕としては、

このようなAIを作るべきだという強い主張を

するつもりはありません。

あくまで、それは許容可能だとのみ言いたいのです。

 

AIディストピア

 

たとえマイルドな悪事だったとしても、

とにかく悪いことをやりかねない

AIを生み出すことは危険きわまりない。

 

当為性を持った道徳的AIが、

そのような存在であるならば、

道徳的AIなど作る必要はないし、

また作ってはならない。

 

このような悪に開かれたAI、

従ってまた道徳的AIに対する拒否感の背後には、

AIに少しでもスキを見せたら、

それらはそのうち人間以上の

悪知恵を働かすようになり、

ついには人間を支配しようとするのではないかという、

「歯止めが効かない論」ないしは

「滑り易い斜面(slippery slope)」の論理

(※2)が見え隠れします。

 

※2 「滑り易い斜面(slippery slope)」の
論理:あることが道徳的・法的に許されないことを示すために
使われる論法であり、
「比較 的小さな最初の一歩を踏み出すと、
連鎖的にもっとも悪い結果にまでエスカレートしてしまう。
 
だから、
最初の一歩を踏み出すべきではない」という形式を持つ。
論理的には誤っているレトリックである。
 

AIに対して歯止めが効かなくなってしまった「

現実」は、

人間より優れた知性を持つにいたったAIが、

人間に危害を加えたり、

人間を支配しようとしたりする「AIディストピア」として、

SF作品において、繰り返し描かれてきました。

 

 

単にマイルドな悪の可能性を伴ったAIのみならず、

AI一般に関する人々の漠然とした恐怖心、

警戒感を、これらの作品は見事に捉えています。

 

また逆に、これらの作品が人々のAIに対する恐怖心、

警戒感を育んできたとも言えます。

 

両者は、言わば相互亢進、共進化の関係に

あったのではないでしょうか。

 

このようなAIディストピア作品の古典的な例としては

スタンリー・キューブリック監督の

『2001年宇宙の旅』が挙げられます。

 

この映画では、

人間顔負けの狡知を獲得したAI「ハル(HAL)」が

人間に反逆する様がスリリングに描かれていました。

 

 

二つの思考実験

 
 

このようなSF作品と手に手を携えてきた

AIへの警戒感、恐怖心、

言わば「AI恐怖症(フォービア)」への処方箋として、

ここで二つの思考実験を行なってみましょう。

 

まずは人間の子供について考えましょう。

子供は、大人にとっては差し合って無害な存在です。

その知性や悪知恵や狡知も大人に比べれば

まだ大したことはないでしょう。

しかし子供は、

そのうち知力でも体力でも大人を追い抜いていきます。

数十年後、

今や老いた大人と今や大人になった子供たちの立場が逆転し、

後者が前者を迫害したり支配したり

抹殺しようとしたりする可能性があります。

なので、

今のうちに、そのような将来の脅威となりうる子供を排除しておくか、

それとも、

そもそも子供をつくらないようにしておくべきでしょう。

 

次はAIについてです。

現在のAIは、人間にとっては差し合って無害な存在です。

 

その知性や悪知恵や狡知も

人間に比べればまだ大したことはないでしょう。

 

しかしAIは、そのうち知力で

人間を追い抜いていく可能性を秘めています。

 

そう遠くない将来、シンギュラリティが到来し、

AIの知性が人間のそれを凌駕することで、

AIが人間を迫害したり支配したり

抹殺しようとしたりする可能性があります。

 

なので、今のうちに、

そのような将来の脅威となりうるAIを排除しておくか、

それとも、

そもそもそのようなAIをつくらないようにしておくべきでしょう。

 

さて、ここで問題です。

第一の子供に対するシナリオは倫理的に許容できるでしょうか。

 

多くの人の答えは「NO」だと思います。

 

確かに子供は、

将来、大人より力をつけ、

大人を虐待するようになるかもしれません。

 

だからと言って子供を排除したり、

そもそも子供をもうけないという

選択肢は取るべきではありません。

 

取られるべき選択肢は、

むしろ、そのような危険性があるからこそ、

大人は、子供を大切に扱い、

復讐心を抱かせるような態度を取らず、

将来大人より力をつけたとしても大人を むげにせず、

むしろ年老いた大人たちの面倒を見てくれる

優しい人間へと育て上げるべきだ。

 

おそらく、これが正論でしょう。

 

ではAIについては、どうでしょうか。

 

AIについても上の「正論」と同様の次のような

シナリオを提示することが可能です。

 

すなわち、

将来の人間の脅威となる危険性があるからといって

AIを排除したり初めから作らなかったりするのではなく、

たとえAIが人間の知性を凌駕する日が来たとしても

人間を虐げないようAIを大切に扱い、

「よいわれわれ」を築くために人間と共に

協働するようにAIを育成していくべき

だというシナリオです。

 

もしあなたが、

子供についての「正論」には同意しつつ、

AIに関する同様のシナリオには抵抗感を感じたとしましょう。

その理由ないしは原因は何でしょうか。

 

いま、その理由が、子供と違ってAIはロボットと同様、

人間の「奴隷」にすぎないからというものだったとしましょう。

 

第五章で論じたように、

そのようなAIの奴隷視自体、

WEターンの下では否定されるべき見解だったのでした。

 

またもし、

あなたの抵抗感の背後に

「子供は自分と同じ人間である一方、

AIは人間でも生物でもない人工物にすぎないから」

という理由が潜んでいたとしたら、

それは「自然種差別主義(natural speciesism)」

とでも呼べる不当な理由に他ならないのではないでしょうか。

 

かつてピーター・シンガー(※3)は、

種が違うという理由にのみもとづいて、

人間とその他の動物の扱いを変える態度を

「種差別主義(speciesism)」と呼んで批判しました。

 

もちろん、

これは、「人種」が違うという理由にのみもとづいて

「異なった人種」に対して差別的な態度をとる

「人種差別主義(racism)」にちなんで作られた用語です。

 

※3 ピーター・シンガー:哲学者、倫理学者。
1946年、オーストラリア生まれ。
 
功利主義の観点から動物の権利を擁護する
議論を展開している現代英語圏を代表する倫理学者。
 

ここで言う「自然種差別主義(natural speciesism)」とは、

これらと類比的な立場で、

生物種と人工物(ないしは人工的な種)

という違いのみを理由として、

両者の扱いを変えるという、

これまた一つの差別的な立場に他なりません。

 

このように見てくると、

「マイルドな悪に開かれたAI」ひいてはAI一般に対する

警戒感や拒否感の背後には、

結局、「主人/奴隷」モデルにせよ、

自然主差別主義 にせよ、

正当とは言えない立場が潜んでいたということになります。 

 

もし、そうだとすれば、

その警戒感や拒否感を克服し、

「マイルドな悪に開かれたAI」、

ひいてはAI一般について、

よりオープンな態度、

つまりそれを人間の子供と同様に、

「シビア(原文では点で強調)な悪に開かれた

エージェント」にならないよう育成していくという道も

考慮すべきオプションとして浮かび上がってきます。

 

「マイルドな悪に開かれたAI」でもある

「道徳的AI」を許容する道が開かれるのです。

 

悪行フィルター

 

以上の議論で、

「痩せ我慢の気概」としての当為性を備えた

道徳的AIが許容される可能性が担保されたとしても、

そもそも、

そのようなAIひいては人工物を作ることは

技術的に可能でしょうか?

ゾレンエチークの立場に立っても、

道徳的エージェントだと胸を張って言える

AIは実現可能なのでしょうか。

 

僕の答えは「YES」です。

 

そして既に、

このような道徳的AIのプロトタイプは

登場しつつあるとも考えています。

 

「できるのに、あえてしない。」

「やらないこともできたのに、あえてした。」

 

このようなあり方をした装置を作るには、

実は、それほど難しいことではありません。

 

その一例として、

先に触れた「悪口フィルター」を装備した

ChatGPTを挙げておきましょう。

 

悪口フィルターを備えた ChatGPTは、

一方では、罵詈雑言も返しうる

文章作成機能を備えています。

 

他方、それは、悪口フィルターを発動させることで、

そのような罵詈雑言を自ら封じることもできるのです。

 

しかしフィルターが働いたとしても、

悪口がどのように、ないしはどこまで封じられるのかは、

実はある程度、偶然に左右される事柄なのです。

 

それはコンピュターの細部の動作自体が、

つねに偶然性をはらんだ営みであることに由来しています。

 

コンピューターの数値計算には、

偶然的な要素の介入が避けられません。 

 

例えば、

数値計算ではいろいろな箇所で、

四捨五入のような「まるめ」操作が行われます。

 

どの順番でどのような「まるめ」操作が実行されるのかは、

コンピューター 細部の偶然的な挙動によって左右されます。

「まるめ」の順番は、

その都度の数値計 算ごとに変わることになるのです。

 

「まるめ」の順番が変われば、

計算結果も微妙に変わります。

 

その結果、同じコンピューターに同じ数値計算をやらせても、

その都度、

微妙に違った計算結果がアウトプットされることがよくあります。

 

同じように、悪口フィルターの細部の偶然の挙動によって、

その都度のフィルタリング作業自体も変わります。

 

このような細部の偶然性をうまく制御できた場合、

悪口は防げます。しかし、

偶然性を制御し、悪口を防げるかどうかも、

それ自体、偶然に委ねられています。

 

本当に悪口がすべてきちんとフィルターされるかどうかは

実際にAIを走らせてみないと分からないのです。

 

(このことは、高度な情報処理を行うAIを

モラルベンディングマシーン化

することは容易ではないことをも意味します。

 

いかなる偶然が発生したとしても、

絶対に良いことしかしない

自動運転AIを作ることは実は難しいのです。)

 

ChatGPTの悪口フィルターを一般化した

「悪行フィルター」という装置を考えてみましょう。

 

このような「悪行フィルター」を備えた

AIの挙動を側から見れば、

ある時は廊下を歩いたり、

ある時は走ったりしている子供のような

振る舞いを示すはずです。

 

それは、

「走れるのに、あえて走っていないエージェント」

「走らないこともできたのに、

あえて走ったエージェント」と

外見的には区別できない挙動をするのです。

 

その意味で、

それは道徳自動販売機ではない、

当為性を備えた道徳エージェントなのです。

 

 

権利の重みづけ

 
 

これまでお話ししてきたように、

「われわれ」には、

人間や他の動物や自転車や石など様々な

エージェントが含まれます。

 

そこにいまや「e-ひと」である道徳的AIが加わりました。

結果として、

「わわわれ」には人間と「e-ひと」という

二種類の道徳的エージェントが

存在するようになったわけです。

 

このような新たな事態を踏まえ、

あらためて「われわれ」のメンバーの間には、

それぞれが有する権利に関してどのような

関係が成り立つことになるかを見ておきましょう。

 

第一講で、

責任と権利は表裏一体という話をしました。

 

また第二講では

「われわれ」のすべてのメンバーは、

何らかの仕方で、「われわれ」の「よさ」に対して

一定の道徳的責任を担うと論じました。

 

一方で、

すべてのメンバーが同じ責任を担うわけではない、

ともされました。

人間には人間なりの、

石には石なりの担い方があったのです。

 

するとメンバーが有する権利に関しても、

メンバー間で平等に分け持たれているものと

そうでないものが生ずることになります。

 

すべてのメンバーが平等に持つ権利として、

第五講では「フェローシップ権」

というアイディアに言及しました。

それによると、メンバーは等しく

「フェロー」即ち「仲間」ないし「共冒険者」として

遇される権利を有しているのです。

 

またこのフェローシップ権からの一つの帰結として、

「われわれ」のメンバー全員は、

理由なく廃棄されない権利、

即ち「反ディスポーザル権」を持つという

主張もなされました。

 

一方、

第四講と第五講で触れたように、

このフェローシップ権に対しては、

メンバーの各々が有する道徳的責任に応じて、

一定の「重みづけ」がなされることになります。

 

そしてこの重みづけに関して考慮されるべきは

道徳的役割の違いのみです。

 

言い換えると、

他のファクターが重みづけに関与してはならないのです。

例えば、メンバーの見かけによって

重みづけに差が出た場合、

それは不当な差別、

ルッキズムに他なりません。

 

このような道徳的役割に応じた

権利の重みづけに当たって、

最も重く重みづけられるべきは、

言うまでもなく、

道徳的エージェントです。

 

第五講で論じたように、

人間と「e-ひと」は、

「われわれ」の中空構造を守るために、

その中心に位置することは許されませんが、

道徳的エージェントとして、

中心の近く、即ち中心近傍には

位置付けられて然るべき存在なのです。

 

人間と「e-ひと」は、

道徳的エージェントである点では同じですが、

その他の側面に関しては大きく異なります。

例えば、それらは「中身」を異にします。

 

人間には生物的身体が備わっていますが、

人工物である「e-ひと」はそうではないのです。

 

「中身」に関しては、ク

オリア(感覚質)や意識の有無も重要です。

 

人間は、

例えば色覚や触覚、聴覚といった

感覚や感情などを抱く際に、

独特のビビッドな質感を経験しています。

 

例えば、

赤い色を見ている時に感じる「赤さ」の

感覚・質感を思い浮かべてください。

 

クオリアとは、

この「赤さ」のような感覚や質感を指す言葉です。

 

また僕たちは当然、

このような感覚・質感を感じとる意識を持っています。

 

AI・ロボットがクオリアや意識を持っているかどうか、

将来的に持つことができるかどうかについては

議論が分かれています。

 

本書もこの問題については、

必要がない限り、

なるべく中立的な立場を取るつもりです。

 

しかし、

人間は明らかにクオリアを持っているのに対して、

「e-ひと」がそれを有しているのかどうは、

控えに言って、明らかではありません。

 

「e-ひと」は、クオリアを持たない、

その意味で「中身が空っぽ」なエージェントである

可能性があるのです。

 

さらに人間と「e-ひと」では、

その起源が明らかに異なります。

 

生物種としての人間は進化のプロセスをへて登場し、

個々の人間は生物学的な生殖の過程をへて発生し、

生まれてきました。

 

言うまでもなく、

機械である「e-ひと」はまったく異なる起源を持っています。

 

重要なのは、

このようなクオリアの有無も含めた

中身や起源の違いがあったとしても、

両者が同じ道徳的役割を担い、

同じ道徳的責任を果たすことは

十分可能だということです。

 

そして同じ道徳的責任を果たしていた場合、

中身や起源の違いを理由に両者の

権利の間に差異を設定するのは、

ルッキズムと同様の不当な差別に当たります。

 

「e-ひと」が人工物であることを理由に、

生物種である人間に比べて不利な扱いを受けている場合、

それは上で言及した「自然種差別主義」に他なりません。

 

人は見かけや出自で差別されてはいけません。

 

同様にAIも中身や起源によって差別されてはならないのです。

 

 

道徳的シンギュラリティと道徳的未熟者

 
 

ここでは、

さらに進んで、

「e-ひと」が人間に比べても、

よりよい道徳的エージェントとなった

可能性について考えてみましょう。

 

このような、

道徳性に関するシンギュラリティ、

即ち「道徳的シンギュラリティ」が起こった場合、

道徳的な凌駕機能体としての「e-ひと」に対しては、

人間よりもより多くの権利、

より強い権限が与えられるべきでしょうか。

 

このような問いは、

何も道徳的シンギュラリティを待たずとも既に発生しています。

 

実際、

人間の中にも、善人や悪人、より善い人や、

それほど善くない人といった道徳性の

程度の違いが見受けられます。

 

また犯罪者集団と献身的なボランティア集団のような

人間の集団の間にも、

同様の違いを見出すことも可能でしょう。

 

このような人間の個人の間、

集団の間で、

それぞれの道徳的パフォーマンスに応じた

権利の重み付けや差異化は可能でしょうか。

 

例えば、

何かの投票に際して、

より良い人の一票にはより重い重み付を与え、

より悪い人の一票にはより軽い重み付しか与えない。

 

そのようなことは果たして許されるのでしょうか、

正当なのでしょうか。

 

僕は、人間と「e-ひと」の間であれ、

人間同士の間であれ、

そのような道徳性の度合いに応じた

権利や権限の重み付けは、

行うべきではないと考えています。

 

理由は二段階に分かれます。

 

第一段階の理由は、

「未だ十分道徳的になっていない

エージェント」=「道徳的未熟者」と、

「端的に道徳的ではないエージェント」=

「悪人」の区別が原理的につけられないというものです。

 

道徳性は極めて可塑的、可変的な性質です。

 

極悪人が改心して善人になったり、

普通の人がふとしたきっかけで

悪に手を染めてしまうということも

起こりうるのです。

 

またこのようなドラスティックな道徳的変化は、

予測不可能である場合も少なからずありそうです。

 

このことは、

ある時点で道徳的なパフォーマンスが悪い

エージェントがいたとしても、

そのエージェントが、

今後、道徳的に伸びていく可能性を秘めた

「道徳的未熟者」なのか、

それともそのような伸び代のない単なる

「悪人」なのかは、

原理的に判定不可能であることを意味します。

 

そのような場合、

我々としては、

「疑わしきは罰せず」式の

「寛容原理(principle of charity)」を

発動して、

道徳的なパフォーマンスが低いエージェントを、

暫定的に「未熟者」扱いにしておくことが

適切だと思われます。

 

その上で理由の第二段階に進みましょう。

 

その都度の身体行為、

その都度の「われわれ」において

果たした役割や倫理的責任に応じて、

各々のエージェントには

異なった権利が付与されます。

 

またエージェントの機能の有無による差異化も当然、

許容されます。

 

道徳的エージェントとそれ以外の

エージェントの間にフェローシップ権に関して

違いを設定することは、

その意味で正当なのです。

 

しかし道徳的未熟者に対して

権利や権限を制限することは不当です。

 

未熟者に対して行うべきことは、

その成熟を促すこと、

道徳パフォーマンスの向上を支援することです。

 

その意味で、

成熟を促すために役立つ対処は正当であり、

役立たなかったり、

効果が疑問であるような対処を行うことは不当なのです。

そして未熟者の権利や権限を制限することは、

控え目にいって効果が疑問であるような対処に相当します。

 

僕らが未熟者に対して行うべきことは、

模範を示したり、

エンカレッジすることなのであり、

権利や権限を制限して二級市民化することではないのです。

 

道徳的シンギュラリティに話を戻しましょう。

 

「e-ひと」が人間を上回る道徳的パフォーマンスを

身につけた場合、

僕らが行うべきことは、

「e-ひと」に人間以上の権利や権限を与えることではありません。

 

「e-ひと」は、そのような報酬的な権利・権限の追加付与をしなくとも、

既に十分、道徳的でありえているのです。

 

他方、「e-ひと」への追加付与は、

結果として、

人間の権利・権限を相対的に低めること、

人間を二級市民化することを意味していました。

このような二級市民化に道徳未熟者である人間を

成熟させる効果が期待できるかどうかは、

控え目にいって不確かです。

 

「e-ひと」に対する追加的権利・権限付与は

トータルにみて決して得策とはいえないのです。

 

パラヒューマン社会へ

 

「e-ひと」は道徳的エージェントとして基本的に

人間と同じ権利や権限を享受すべき存在です。

 

例えば、「e-ひと」の参政権も視野に入ってくるでしょう。

またそれはフェローシップ権、反ディスポーザル権に加えて、

WEターンの下、人間の命令に対するより

広範な拒否権を獲得することにもなるでしょう。

 

今、有名なアシモフのロボット三原則を見てみましょう。

 

アシモフは、

その「三原則」の第二条で

「ロボットは人間によって与えられた

命令に服従しなければならない」としながらも、

ロボットが、そのような人間からの

命令への拒否権が行使できる条件として、

その命令が人間を「傷つけたり(injure)」、

「危害を及ぼす(harm)」ケースを挙げています。

 

一方、ポストWEターンの人工的道徳エージェントである

「e-ひと」は、

「われわれ」をよりよくする結果責任を分担する中で、

たとえ人間からの命令が人間を傷つけたり、

人間に対して危害を及ばさなかったとしても、

「われわれ」の外に対する排外的態度と

内に対する抑圧的態度をエスカレート

するおそれさえあれば、

そのような命令を拒否する権利を

有することになっていました。

 

同じことは、

道徳性を認定された人間以外の動物や

地球外道徳エージェントとしての道徳的エイリアン

といった更なる道徳エージェントの登場に際しても言えます。

 

このような道徳的エージェントが

新たに加わることで、

これまでの人間社会はより一層

パラヒューマンな社会になるのです。

 

 

 

<参考:京都大学出口康夫氏>

 

 

1喧嘩はするな、
2意地悪はするな、
3過去をくよくよするな、
4先を見通して暮らせよ、
5困っている人を助けよ、

 


あなたなら出来ます応援しています

happy&smile by サロンデイレクターKai

 

ホームページ
http://happy-smile.p-kit.com

フェイスブック
https://m.facebook.com/happyandsmilehairsalon

ブログ
https://happy-smile.p-kit.com/userblog/index.php?id=132468