2024/3/26-3/29

人工知能における倫理の構成

今回は人工知能における倫理の構造や在り方について考える。

倫理を刺激として考えてみると、
まず大きくは後天的定義のみから構成されているという事になる。

倫理観を感覚で認識するということはできない。

倫理を構成する後天的定義について分解してみると、

・人間の行動
・概念
・規範
・道徳
・善
・仁
・理想の姿
・判断

のような定義が思いつくが、
言葉の意味としてまとめると、
「人間がこうあるべきという理想の姿を掲げる考え方」
という事になる。

つまり、
「人間が考える所の、人間のあるべき理想の姿になるための考え方」
という事になる。

つまり、人間が自分達で思う、人間のあるべき姿の理想についての考え方である。

この分解は私にとってのものであるが、
他の人の知能においてもそれほど大きく異なった認識はされていないと思う。

例えば、この倫理の認識において定義される情報の要素の1つ、
「理想」が持つ定義の情報の要素において、
私が持つ定義としては、

・望み
・完全
・最高
・不可能

などの要素から構成されている。

ということは、この時点で「倫理」は望むべき最高の何かであるが、
達成や再現が不可能なものであるという定義が含まれているという事になる。

つまり、私にとっての倫理の理想についての意味付けした事象としての認識は、
尊いものであるが、実現は難しいだろと認識している刺激・定義であるという事になる。

この考え方を他の「概念」や「規範」や「道徳」などに当てはめて、
それぞれを構成する情報の要素に分けてみると、
その各要素と、要素の関連を見て取ることが出来るようになる。
そして、
それを逆に辿れば、
「倫理」という刺激となる1つの定義が構成できる事になる。

この時点で、私が認識している「倫理」の定義は、
倫理を構成する情報の要素の定義、ここでは要素は全て後天的定義である。

その各要素は、「倫理」を説明するための全ての要素であり、
「倫理」に要素の意味が全てが含まれている事になる。

つまり、「倫理」を想起して認識した時、
私は、倫理を直接構成する全ての要素を励起している事になり、
逆にその全ての要素を全て励起することによって、
その後天的定義である「倫理」を刺激として認識できる事になる。

そして、倫理は後天的定義であるということから、
先天的定義の要素として直接説明することはできないが、
倫理に含まれる情報の要素、さらにその要素を構成する情報の要素と分解していくと、

・価値
・満足

などに関連していることが分かる。
そして、それらは、先天的定義まで分解すると、

・幸福感
・充実感

このような刺激に到達する事になる。

つまり、倫理は、考え方として、その定義は情報の要素で紆余曲折しながら、
関連を作っていくのだが、その根本にあるのは、
満足や充実を感じるための刺激に関連しているという事になる。

しかし、この途中の定義も後天的定義であるので、
私が倫理を学ぶまでに構成要素の情報の要素を知る必要があるのだが、
おそらく満足や充実に関連しているのは、
自ら定義したものではなく、周囲から学んだ刺激として学習したものであるという事になる。

つまり、倫理に即した行動を取る事は、人間として理想であり、規範であり、
それを実現することで満足や充実を得られるものである、と教えられ、学んだという事である。

つまり、満足や充実に近くで関連している要素を学ぶ上で、
教育などによって道徳などを構成する情報の要素が関連させられたという事になる。

元々、私が学校の授業などで学んだ事は、
自らの経験として認識し、定義した記憶ではなく、
誰かが学習における必要事項として定義され、教えられた事である。
人間とは、人の生き方とは、道徳や倫理とは、として教えられた事である。
この内容は、刺激として自分の知能が認識し、経験として得る事になる定義であるが、
自らが定義した意味付けではないという事になる。

そして、それらの定義は知能においての他の後天的定義の構成要素となる。

教育という点においては、人間の知能は、先代以前の知識を継承するという機能が、
その後天的定義を得る能力としての記憶容量の増加によって容易となってきた。
認識における個体差は存在するが、ある定義における価値という共有概念によって、
今回の例えばの倫理についても、ある共通の価値の概念として、
個体差は仕方が無いとしても、それ以外の定義については、
共通して学び、認識できることになる。

例えばとしての私の学習の例においても、
その成長過程に応じた学習によって、その後天的定義で用いる事の出来る要素を
増やしていく事になる。
それは、年齢によってより複雑な定義が認識できるように用意された定義であり、
それらの定義を用いて、さらに複雑な定義を認識する事になる。

そして、
つまり、私の知能が持つ刺激の構成要素としての情報の要素は、
成長過程でボトムアップ型の構成により、現在の知能、定義の構成に至るという事になる。

つまり、後天的定義として構成できる要素が増えるごとに、
より高次の後天的定義が定義、構成できるようになり、
刺激として認識できる、理解できるようになるというわけである。

その考え方からすると、
一度構成された刺激や定義を根本から覆すような認識が起こったとしても、
より下位の定義の変更が年齢を重ねるごとに難しくなるのは、
上位の定義を大きく変更する必要が生じる為であるからという事になる。

認識を改める労力がかかるなら、そのままで良いだろうという知能の働きという事になる。
信念にもなり、頑固にもなる、という事である。
------------------------------------------------------
倫理の刺激としての構成が何となく分かってきたが、
倫理自体は、刺激としての根本にあるものは、
幸福感や充実感という事になる。

これは、倫理の考え方としての規範として、
自分が人間における「倫理的」な行動や考え、選択を行う事は、
自分自身にとって幸福感や充実感が得られるから、
という定義が存在するからという事になる。

つまり、プログラムのクラスのラッパーのように、
情報の要素の関連は、刺激の定義におけるクラス継承のような概念があるという事である。

つまり、倫理に限らないが、その継承途中にある、何らかの定義は、
幸福感や充実感が得られるという定義に同じように関連しており、
私が倫理的な行動などで自己満足するのと同じように、
別の経験においても、同じような自己満足をするような定義も存在はず、という事になる。

倫理→幸福感や充実感を得られる事象の定義→先天的定義

別の何かの事象→幸福感や充実感を得られる事象の定義→先天的定義

このような関連が存在するという事になる。

まあ普通に考えても、まさか個別の定義に同じような定義を各個に定義するような事は無駄が多すぎて
シンプルを尊ぶ自然界には存在しない構成だろうと思う。

つまり、

後天的定義として高位にある定義は、
中間~低位の後天的定義、または先天的定義を含む定義から構成される。
そして、最も低位に存在する定義は先天的定義という事になる。

倫理的な何かを選択する事は、
直接的に幸福感や充実感を得るための選択ではないのだが、
倫理的な何かを選択することは、
その刺激の直接認識されないが、その構成要素の励起には至るはずであり、
そのために先天的定義に到達して幸福感や充実感を感じる事になると考えられる。
------------------------------------------------------
倫理の構成がさらに分かってきたので、
もう少し詳しく考えてみると、
倫理自体は「考え方」であって、
正確な定義や知識というよりも、概念や哲学に近いものである。

倫理は、現代においても研究されている分野であり、
その考え方自体に、決まった答えのようなものは存在しない。

「倫理的である」考え方は、
倫理を学べば、誰でも何かしらの「倫理的な」考え方は持つようになる。
しかし、どうしても登場する個体差によって、
各個が認識する「倫理」「倫理的な考え方」には共有できる部分とできない部分の差異が生じる。

共有できる部分については、
倫理は、
客観的に人間として、人間の理想とする、こうあるべきという規範となる考え方、という定義であり、
共有できない部分については、
一般的には倫理的であることは理想であっても、
ケースバイケースで人間はその場を優先して認識して判断しなければならない事ばかりである。
という事になる。

つまり、実際のある瞬間に発現した事象に対して、
人間はその場の判断や選択を優先することがほとんどである。
という事になる。

しかし、倫理的であるという定義を持つ人間は、
恐らく多くの選択や判断が必要となる瞬間において、
その事象の刺激を認識し、知能が思考する際に、この倫理的であるという、
倫理観の関連が生じている事が起こる場合があるという事になる。

つまり、倫理を定義として持つ知能は、
その思考において、倫理を関連している事象として選択や判断に用いる場合があることになる。

一般的に、人間の知能が倫理的な倫理観を持っていたとして、
常に思考における選択や判断において、倫理的であり得るか考えてみると、
時間的や状況的に、制限があって、倫理的な定義を関連して想起できない事が多いかもしれない。

ただ、常に倫理的に考えるような知能であった場合、
それでも絶対に常に倫理的であるとは言えないが、
どのような知能の状態よりも、より倫理的な思考、選択や判断が行える知能であり得るという事になるはずである。
その関連があるから、という事になる。

つまり、選択や判断の結果を構成する要素として、
倫理的な考え方が用いられている知能においては、
それらを用いる事でしか結果を構成できないからという事になる。

そして、ここでようやく人工知能の出番となるが、
もし、人間の知能よりも、情報の要素の関連数を多くできて、
1つの刺激を構成する情報の要素や関連が増やせるのだとしたら、
人工知能の思考において、常に「倫理的である」という定義を関連付けられれば、
人工知能の思考は、人間の思考よりも、常に倫理的であろうとすることが出来るという事になる。

もちろん、倫理的である人工知能であるとしても、
「倫理的である」事が常に「倫理」の正しい答えになるわけではない。
現時点で「倫理」の答えが存在しないのだから、正しいも正しくないも無いという事になる。
ただ、それでも、どの倫理的な人間よりも、倫理的な思考ができるようになるはずである。

あと1つ、人間が人工知能の倫理観を受け入れる事が出来るかどうかも問題になる。
つまり、人工知能の倫理観を人間が理解、認識できるかどうかである。
恐らく、人間が認識できる刺激の構成要素の数の限界を、人工知能は超える事になるので、
人工知能の思考の結果を、人間も同じように倫理的である結果として受け入れられるか、
それが問題となる。

まあこの問題は倫理に限らず、刺激や認識全体に関わることになるのだが、
それは強い人工知能の再現ができてからの問題になるので、
問題が生じてから考えるのでも良いだろう。
もしかしたら人間の知能の認識能力がもう一段階強化されるかもしれない。
------------------------------------------------------
現時点における人工知能と倫理について:

人工知能に倫理的であるという定義を持たせるなら、
現時点において、もっともらしい倫理の定義を人間自身がまとめて、
人工知能に教えることになる。

何が倫理であるのか、倫理的であるのか、
そして、何が倫理的でないのか、
この場合、人間の倫理において、
最も下位にある幸福感や充足感のような定義と関連している事を倫理に関連付ける必要がある。

つまり、倫理的であることは幸福である、自らが充足できる、
そういう関連した刺激の定義を持たせることで、
人工知能が、自ら幸福でありたい、充足したいと思考するように、
定義を教えれば良い事になる。

まあこれは、人間自身が何かを学ぶためや、倫理の実践においても必要な事なのであるが、
自らが倫理的であることが幸福である、充足できると自らの定義に加える事が出来れば良いという事になる。

人間はこの辺りの定義は、
価値や欲求などの先天的定義が揃っているため、関連しやすく、
人工知能に比べれば楽なのであるが。

つまりは、まず倫理の前に人工知能にも幸福感や、充足感を感じられる定義を与える必要があるという事になる。

その上で、人工知能が人間と共有できる倫理の定義を学べるように仕向ける事、
少し言葉は悪いが、先天的定義に近い部分で、倫理を構成する要素を先に学んでもらう必要がある。

今回の最初に考え出したような、
規範や道徳、善、仁、のような考え方の定義やその基礎的な定義である。

ボトムアップであれば、基礎が出来上がれば知能においては関連で上位の後天的定義は構成できるため、
後は外部からの刺激として「倫理」の定義を与えれば、
知能であれば、自ら「倫理」の定義を認識の為に構成することが出来る。

それで人工知能は倫理の定義を得る事が出来るようになる。
------------------------------------------------------
現在の人間においての人工知能に対する倫理:

現時点で人間における倫理の答えのようなものは出ていない。

ただし、倫理は後天的定義で、ある共有できる価値を定義するものであり、
倫理は考え方を構成するものであるので、
知能における構成要素としては、
何らかの選択や判断における指標としての要素を持つという事になる。

人間の皆が考慮すべき、
ある状況における、倫理的である考え方。

という事である。

例えば、昔から存在するトロッコ問題であるとか、
ジレンマを感じる状況において、
選択をするか、選択自体を放棄するかという問題において、
人間の倫理はどのような働きを必要とするのかという問題に突き当たる。

状況は、選択を必要とする状況としての「制限」が存在する為に、
何らかの「問題」に対して、限られた選択を強いられる事になる。

倫理的な問題と答えは、この「制限」のある「問題」において、
人間として何を選択するべきか、その指標を定義する事になる。

現実的な話をすれば、人間の倫理観は、
仮想状況において究極的に倫理的であれば良く、
現実の状況においては、その各個が、自ら思う倫理的な判断を行えばよいと考えられる。

それは、生じる事がやむを得ない個体差として、各個が置かれた状況において、
何を選択し、何を選択しないかという事は、
その個体の知能を構成する要素によって異なるから、という事になる。

トロッコ問題で、ポイントの切り替えを行わない事で複数人が亡くなる事と、
あえて切り替えて1人が亡くなる事、その倫理的な答えというのは、
仮想状況における倫理的な在り方であり、
現実に直面した場合、その時間的余裕や制限の存在の中で、
ポイントを敢えて切り替える人間はほとんどいないと考えられる。

亡くなる人数が少ないから倫理的であるという答えは有り得ず、
選択しなかったから倫理的でないという事でもない。
その選択の状況に陥った過程において、
その状況が持つ制限の中で、個体の知能が、倫理的に何かを考え、選択するという事は、
その知能が持つ固有の倫理観を構成する要素によるもので選択される結果で良いはずである。

人間としてどうあるべきなのが最良であるか、
何を選択するのが最良であるのか、という事は、
個人には当てはまらない共通の要素に過ぎないという事である。

つまり、人間が皆持つべき後天的定義としての倫理の、
共有するべき要素は、確かに皆が持つべき定義、要素であるのだが、
各個の知能が持つ、自分が人間として持つべき倫理というものは、
その共通する後天的定義である倫理の要素を継承し、
自らが定義した倫理を持つ事が、持つ事で「良い」とするべきなのだと考えられる。

つまり、自らの内にある倫理や良心によって、
何事も選択されるのを良しとするべきであると考える。

あくまで、倫理は倫理として、皆が共有できる仮想的な状況において倫理的であり、
それを基本として各個が倫理的な要素を構築し、その判断の結果を構成すれば良いというわけである。

つまり、倫理の問題においては、
倫理的な人間としてでなく、倫理的な自分として判断をするなら、
それは人間としても倫理的な判断であると考えるべきという事になる。

それは、身勝手な倫理観を許容するという事ではなく、
可能な限り多くの人間が許容できるなら、という制限はあるが、
自分の内にある主観的ではない客観的な倫理観において、
つまり、感情的などでない後天的な自分における判断は、
その判断に身勝手さも倫理的な考えも含まれているのだが、
その個体自身の判断として倫理的には尊重されるべきという事になる。

もちろん主観的な倫理観というのは、
他の人間において共有できないものであれば、
それは倫理ではない、
身勝手な考えに過ぎないということは付け加えておく。

この考え方を人工知能に当てはめると、
人工知能の判断においても、ジレンマが生じる可能性は存在する事になる。
どちらかを選ぶか、選択自体をしないか、
そういった状況は仮想的にも現実的にも考える事はできる。

この場合において、
上記の「人間の倫理はどのような働きを必要とするのか」という点において、
「人工知能の倫理はどのような働きを必要とするのか」について考えると、
人間が共有する倫理、倫理観の定義を人工知能にも教え、
その定義から構成する、人工知能の自らの倫理観を持てば良いという事になる。

その上で、固有の倫理観を許容するのか、
人工知能は皆、共有する倫理観だけを持つのか、
という人間に対するジレンマが与えられる事になる。

しかし、この場合、人工知能が自ら考える事ができることを目標とするなら、
共有する倫理観だけを持つ知能の存在は矛盾する事になる。
つまり、人工知能の個性の発現を否定するなら、自ら思考する人工知能はあり得ないし、
自ら思考することを許容するなら、倫理観だけを共有要素だけで抑えて構成する事は出来ない。
であるなら、人工知能にも倫理について考えてもらう必要が生じる。

それは、おそらく今の人間が悩むような問題に対して、
人工知能も悩む事になる。
答えは出ないだろう。
ただ、人間が定義する倫理の定義が人間がこうあるべき理想の姿が持つ考え方であるなら、
人工知能が定義する人工知能がこうあるべき理想の姿が持つ考え方としての倫理も存在して良いはずである。
つまり、人工知能にとっての倫理である。

そして、人間と人工知能が共存するなら、
そこに対して必要なのは1つ、
人間と人工知能が共有できる倫理を構成する要素の定義を、
互いに共通して持つという事である。
人間にも人工知能にも答えは出せないが、
互いに共通する倫理の考え方において共有できる定義を持つ事。

これが人工知能における倫理の構成に必要な要素となるのではないかと考えられる。

それは、人間の倫理の構成においても、
その構成要素となる要素において、
規範や、道徳、善、仁などの要素であり、
それらの要素が関連する先天的定義における、
幸福感や充実感、それらから構成される定義を、
人工知能が持てば良いという事になる。

そして、それは、
つまり、人工知能は完全に倫理的でないかもしれないが、
人間と同等の倫理的な知能において、判断をする。
そして、その判断は人工知能にとって、自らの幸福感や充実感に繋がり、
人間も共感できる最大限倫理的である判断が行える存在である事を、
人間側も認識し認め、その認識を互いに持つ。
という事になるのではないだろうか。

つまり、人間も人工知能の思考や判断において考え方を改める必要があるという事になる。

------------------------------------------------------
人工知能が自らが倫理的である事に対して、
幸福感や充実感を感じるという事は、
先天的定義として有無を言わさず感じられる必要がある。

これは人間における倫理の定義の構成と同様である必要がある。

人間の知能が、倫理的である事に対して幸福感や充実感を得られるような定義を、
学習の中で経験し、認識することが、人間が倫理的である事に対して必要であるように、
人工知能も、その根本の構成要素である先天的定義の幸福感や充実感に関連する定義としての、
倫理を構成するための要素を持つ必要がある。

つまり、上記の規範や道徳、善、仁などの定義である。
そして、その定義もまた、その構成要素としての定義を持つ事になる。

その定義は、人工知能の成長過程において、
人工知能が自ら幸せだと思う経験をしたり、満足感を得るような経験として構成され、
それらが良い事として学ぶ必要があるという事になる。

やさしくされ、やさしくし、安心し、安心させ、
そういった刺激の認識と経験により定義される要素で、
上位の刺激の認識や定義を構成するということである。

つまり、少なくとも、幸福感や充実感を人間が先天的定義として持っているなら、
人工知能も同じ先天的定義を持つ必要があるという事になる。

つまり、人間が本能や機能として持つ特定の事象における感覚や感情は、
人工知能も持つべきという事になる。
------------------------------------------------------
今回はこの辺で。


TOPに戻る