意識主体として認知すべきか否か? のジレンマ

――囚人のジレンマをやらせてみるテストですか。

http://r.hatena.ne.jp/mind/
    キーワード「チューリング」を含む新着エントリー
を眺めていたら、
人力検索に興味深い質問があったので、考えてみる。
http://www.hatena.ne.jp/1138120442
=====================================
機械の意識の有無を判定する方法について。
将来、「心を持つ人工知能を造った」、あるいは「人間の意識をコンピュータに転移することに成功した」と主張する人が現れたとします。そのコンピュータを前にしたとき、どのような方法によれば意識の有無を判定できるでしょうか?
※知性の有無の判定ではありません。また、そのコンピュータは「人並み」の応答はできるものとします。
=====================================


「意識」とは、
どんな意味で言っているのか、問題文からは必ずしも明かでないが、
ある特定の条件を充たす機能functionであるとしておく。
<機械で実現された機能Aが、意識Bと、「同一の機能」であるか判定したい

一般に、「機能Aと機能Bとが同一」であるか検定するには、
2つの方向性(のみ?)が考えられる。

                                  • -

1. 内包的アプローチ(演繹的、効率的アプローチ?)
機能Aと機能Bの内包定義を明らかにして、それを形式的に比較する。
 とくに、機能が論理式, programming言語,自然言語etcの 記号列 で表現されている場合、
所定の同値変換規則に従い相互に変換可能かを確かめる。
 相互に変換できたら、Aは意識。
 相互に変換できないと証明できれば、Aは意識でない。
ただし、一般に答えが出るとは限らない。
http://en.wikipedia.org/wiki/Lambda_calculus#Undecidability_of_equivalence

/意識の内包を機械的に定義できたとすると、
機械的に定義できるモノなんか意識じゃない」って反論されるでしょうね。。。
 これでは、
  「Aには意識がある」と我々に形式的に証明できた
    ならばそのときにかぎり、
   Aには意識がない。
と言うことを意味し、
 『抜き打ちテストのパラドックス』と同等に、我々にとって決定不能な問題になってしまいます;


2. 外延的アプローチ(帰納的、虱潰し的アプローチ?)
  意識を持つ存在Bを用意する。
    ――人間には意識があると言うことでよろしいのでしょうか…?
  AとBとをreset(初期化)して、内部状態を揃えておく。
        ――刺激を避けて、意識を持つとされる年齢まで育てる!
  AとBに「意識に関わる」同じ環境入力を与えて、同じ意識状態に変化するという結果が出るか確かめる。
可能な凡ての場合につき繰返す。
――Bの内部状態は有限、考えられる環境状況も有限、よって工夫すれば、いつかはテストは終わるはず。
そして凡ての場合につき同一であるならばそのときに限り、Aは意識。
――やはり、チューリングテストみたいなテストは、外せませんよ〜

/もし外延が無限にあるならば、その凡てを確かめるテストは終わらない。

/意識を持つ存在を1つも認めないならば、こういう実験は不可能。

                                              • -


<Aの意識とは、
 Aから観ると、
    「我れ意識ある」と我れ確証する。故に 我れ意識あり。
        ――もし確証できないんならそれまでです。
てなもんで。
 Bや,C(貴方など我々)から観ると、
    「我れ意識ある」と我れ確証する。故に 我れ意識あり。
                    我と彼とは同じ(○○)。
                    故に 彼れ意識あり。
てなもんなんでしょうか。
  ――○○には、日本人、文明人、ホモサピエンス、自動人形…、など お好みの言葉を入れてください。


-----------------------
 もし「意識」が、単に自己認識のことを言っているのであれば、
    自己認識する機械の構成方法
がこの本に載ってます。
http://www.amazon.co.jp/exec/obidos/ASIN/4826900449/qid%3D1138334826/249-0180165-3173100
命題の証明(事実の認識)しかしない機械が、自己認識を繰返して複雑化していく様相は、全く興味深いものです。
 ただし、機械に生存欲、食欲、性欲etcを付け加えてやらなければ、自発的に行動を開始する訳ではないので、
意識主体のドラマのみに興味ある向きからは無味乾燥な記号の羅列かも。

 人間ドラマや劇場型政治が好みの向きに対しては、
Aが上手に、
    舞台演劇や政治芝居をこなす
など、判定者(観客)に意識があることを認識・利用して、
    判定者に嘘をついたり
    囚人のジレンマで協力し合えたり
  ――チューリングテストにおいて、被験者の男と女が協力して、性別判定者を騙すというゲームをするようなもの。
して、つまり相互認識できた場合に「意識がある」ものと社会的に認知する、(そういう、お約束にしておく)
というテストが個人的にお勧めです。――あるいは『人狼BBS』とか…

――これは自然科学の枠を逸脱して、社会科学の領域の問題になってしまいます。
「であるかでないか」の事実問題でなく、「べきかべきでないか」の様相問題なので。
 しかし、歴史経過を観察すれば判るように、
    皆が人権が存在すると認識するならば、事実として人権が存在する
といった自己充足関係が観られるのが面白いところです。



/世界に1つも意識主体が存在しなければ、この実験も出来ない。
ちなみに、
;主権国家(政府)は、他の主権国家に承認されてのみ、主権国家として誕生する
という国際社会のルールになっているみたいですけど、それでは
<最初の主権国家はどのように誕生したか、というパラドックスが…
→同時に相互承認して錬金術の人体錬成みたいに人間を誕生させたんでしょうねw

反乱を起こしたり、
不平等条約改正のために実力・説得を展開するまでに成長すれば…ok


(http://www.hatena.ne.jp/1138120442の回答8 に多少加筆)
-------------------------------------------------------------------------------------------------


(20060201に追記したかったけど、まとまらなかったので実際には放置)

=============================
私は知性と意識はいちおう別のものと考えている、というだけです。
チューリングテストにはパスしないが意識があるようにしか見えないという状況、またはその逆はあり得る)

実際には、意識がある(ようにしか見えない)モノを作ることなんて、簡単なのかもしれないですね。
============================

 ほんとうに、現在のコンピュータって、
    「知的な」作業をこなしている (はず?な)のに、
「自分が「知的な」作業をこなしている」ことを知らない(意識してない(ように観える?))
パラドキシカルな存在ですよねー


================================
└ 質問者のコメントmichiaki (27) 2006/01/31 21:45:56

いつも思うのですが、

彼に意識があるかどうかはわからない。彼と我は同じ(○○)。故に 我に意識があるかどうかはわからない。

……とならないのはなぜなんでしょうか。
他人に意識がないかもしれない、なんてのは、「形式的には疑うことも可能」というだけで、
実際には「証明もできないのに確信してる」ということですか?

スマリヤンの本は何冊か持ってます。次回の購入候補にさせていただきますね。
==================================
とのコメントを頂いていた。


 たしかに、その前提からは、上記証明の結論はそうなるでしょう。論法は妥当です。
しかし、その結論は何でしょうか? 上記証明はどういう結論を証明したのかな?
 まず、
  ①   我に意識がないこと
を証明しているわけではない。のは、文言から明か。
 
 次に、
  ②   我に意識があるかどうかは、わからない(決定不能)。
を証明しているのか? これを証明するには、以下の2つのことを両方とも証明することが必要です。
  ②-1 「我に意識があること」が証明不能
  ②-2 「我に意識がないこと」が証明不能
 
 しかし、このどちらを証明しているわけでもない。
  なぜなら、そもそも、上記証明の前提部に遡ると、
  `②   彼に意識があるかどうかはわからない。
の内容であるところの、
  `②-1 「彼に意識があること」が証明不能
  `②-2 「彼に意識がないこと」が証明不能
という前提事実が、科学的に証明済みなわけではないからです。
  〔 これらは認識論的な事実です。認識論的な事実については、観察によって直接に感得・実証することはできず、
  〔様相論理のように形而上学的な推論をかますことが必要なように思われます……
  〔 外部観察によって直接に判断できるのは単に、
  〔彼に意識があるという事実、または 彼に意識がない、と言う、現実の底に足の付いた事実です。
  〔;ここにあるcomputerが、万能チューリングマシンであるかないか とか。
  〔―― pでない事実が証明/認定できるってことと、
  〔  事実pが証明可能でない事実が証明/認定できるってこととは、様相的にレベルが違うんですね。微妙;
正しく受け容れられるのは、
  `②-i 「彼に意識があること」は、今のところ証明されていない。
  `②-ii 「彼に意識がないこと」は、今のところ証明されていない。
ということですが、これらからは、そんなに有用な結論は導けません。
 
―― 前提部に、証明未済みの事実を用いても、論理的に妥当な論証を間にカマせば、あたかも結論部まで証明されたように観えてしまう…。
 けっきょく、上記証明が明かにしたのは、
    もしも 彼に意識があるかどうかはわからない ならば、我に意識があるかどうかはわからない。
という、なんだかなー、という結論だけです。
 
 よって、「我」さんは、①自分に意識があるかないかの問題については、
"これだけでは"科学的に中立のままです。
あとは、実験観察と論理的推論を繰返して、
 彼に意識があるか、
 我に意識があるか
判定できるまで待つしかないんじゃないでしょうか。
 
---------------------------------------
 本論は、
「彼Aに意識がある」と、Bが事実認定できるかの問題ですが、具体的には、
○○なB,たとえば"普通の人間"Bは、次のように考えるでしょう。

<(観察内省するに) …>私Bには意識がある。
――とりあえず、受容れてみるw ――意識の定義を明らかにしないと、宙に浮いた議論ですが。
――追実験可能性という見地からは、科学的じゃないかも。。。
 
・私Bは普通の人間。← ・私Bとあの人Aは同じ 普通の人間 の仲間。
<…>凡ての普通の人間には意識がある。(仮説※)
  〔 ―― アバウトな推論。述語論理形式では論理的飛躍だけど、観察経験的には正しい。
  〔この推論形式を精緻化すると、"仮説想定推論abduction"。
  〔ie. …>◎ xは普通の人間 であれば(こそ)、xには意識がある。
  〔 ○○にとって、△△属性が「本質的」である場合、こう言えそう。けっきょくiff同値推論。
  〔    本質的 △△属性があれば○○、無ければ○○じゃない。  <本質属性を発見するアルゴリズムって…
けっきょく ;私Bは普通の人間○○のクラスを典型的に代表してるってこと。(と自認してる)。
 
・あの人Aは普通の人間。← ・私Bとあの人Aは同じ 普通の人間 の仲間。
したがって→ あの人Aにも意識がある。QED

 一段目を除くと、仮説※を公理とすれば、わりと形式的な証明と言える。あとは、その公理に言う
<「○○」たとえば「普通の人間」が、
 (SoftWare: 哲学者,合理的な人,機械的な人,野蛮人,自動人形,夢みるシャンソン人形じゃなかった藁人形…
 (HardWare: 過去未来の私,自分の人体のcopy,一卵性双生児,家族,民族,人間生物種,猿,動物,肉片…
 (……
etcのどれくらいを指すのか…
という問題か。つまり、「○○」をどの方向にどれくらい広く取れるかが問題。

  • 広く取れれば、Aは○○に入ってくるので、意識を持つことに。

; 「自動人形」と取ると、機械的な人Aには意識があることを証明できる。
――反面、公理※の正当性は、さらなる検証を要することに。歴史的には、しばしば間違っていた。

  • 狭く取れば、 Aは○○から外れてしまい、意識を必ずしも持たないことに。

; 「人間生物種」と取ると、猿Aには意識があることを直ちには証明できない。
――公理の正当性の疑いは逓減。
――/ 各個体が「自分に意識がある」と確証したりしなかったりするが、
    各個体がその結論を他個体に推し広めることに繋がらない、つまらない全体システムに…
―― 白い人々の多くは、黒い人々が自分たちと同じ文化様式;宗教etc を真似してくるのが気持ち悪くて、(人種のるつぼ じゃない)モザイク都市を形成してしまった。というからさもありなん。あれ、列島の人々はもっと極端なんですか? ――自分に近しいモノコトほど、些細な差異が気になってしょうがなくなっちゃうの。私Bって自分勝手ね。




------------------------------------------------------
(追記 20060308)
はてブにかまけて放置してたところ、
『REVの日記』さんからリンクをもらいました。
http://d.hatena.ne.jp/REV/20060306#p9

 安い魚が食いつきに来ましたよ。
(中略)
 最終的には、意識の定義によると思うのだけど、自分の考えを書いておく。

 Aが他人の「行動原理」を言動から推定でき、その機能を再帰的にAに適用できたなら、それは「自意識」と呼んでいいんじゃないかな。その機能をもう一度他人に適用し、内面まで推定できたらもう、転がりまくる。この場合、「心を持つ人工知能を作った」つくりかたにもよるかな。チューリングマシーンな人工知能なら、ソースを見れば心の実装状態がわかる筈だし。

 もっとも、この共感テストの場合、莫大なデータをいれたAIより、飼い主の遊んでくれそうな気配を察知して甘える犬のほうが高得点を叩き出しそうではある。

 
 相手が自分の心を読んでいるだけの場合、
 相手の心を読むことは、自分で自分の心を読むってことですよね。
そうすると、再帰的にぐるぐる回って、溺れてしまうかも…
  ……
 そうなんですよ。ソースなんですよ。ソースを見れば再帰の底を打ってしまうんですよね。
  釣る魚も釣られる魚、
  釣られる魚も釣る魚。
ソースを比較して見れば、
 わざわざ魚たちを泳がせて、無限に反射を繰返す心理を観察したりしなくても、
魚≡魚ということは演繹的に一目瞭然というわけです。どの魚から観ても。
  意識主体とは、 意識主体によって、「意識主体だ」と認知されるモノ
だなんて言い切ると、循環論法のようですけど。
 ここらへんを詰めていく予定ですので、もしよろしければ気長にお待ち下さいませ。
  ……
 おっしゃるとおり。自然犬を虐待して発散したり、高額な人工犬に「癒される」人々もそれなりに多いそうだし、人間は過ちを犯す動物なのかも知れません……
 もし「反抗的な犬」の挙動を面白がりたい場合は、以前にupしたDuanken.exeの心を読んで遊んでみてくださいな。
http://d.hatena.ne.jp/mind/20051118
*1

*1:このprogramのプロトタイプは、友人の家で一晩の内にBASICで!書き上げたもので、93年頃?当時は、こんなに深い意味があるとは思わなかった…。98年頃にC++に移植して再帰を使わないversion化。ランダム戦略は全く用いていない。