アプリ版:「スタンプのみでお礼する」機能のリリースについて

ニーチェやプラトンの本は全く理解できませんが自分なりに考えてみました。
まず、「心」とは何か?という疑問についてなのですが、僕はそもそも何を「心」という「言葉」で表しているのか考えてみました。それは、物質的なものではないと思います。推測の域を出ませんが、おそらく何か物の動きの法則性を「言葉」ではなく「感覚」でとらえたものだと考えています。つまり、私たち「個体」が「環境」や「別の個体」に反応し、その反応パターンみたいな物が「心」という言葉で表されていると思うのです。「心」があるのではなく「個体」と「何か」の反応があると感じます。
もしかすると、私たちが「考えたり」「泣いたり」「怒ったり」するのは、「対象」があるからこそで、それは人が「環境」に適応するための反応の一つにすぎないのかもしれません。
これまた勝手な推測ですが、今度は「心」をもったロボットは作れるのか?ということです。
僕は、未知な「環境」に適応しようとする動きが「心」だと考えているので、例えば、水に弱いアイボがあったとして、それを水槽に入れて自ら脱出を試みるかどうかだと思います。しかし、これは「水から脱出するプログラム」をいれたらどうなんだ?ということではないと思います。なぜなら、「プログラム」を入れた時点でそれは、ある動作の「ただの型」になっているからです。機械が上下運動を続けるのと同じです。そうではなく予測不可能な事態を対処できるかだと思います。
以上から「心」をもったロボットを作るには「予測不可能さ」の理解が必要ではないのかな?と思うのですが、僕の「心」の捉え方とロボットのことについて勝手に話してしまいましたが、皆さんはどう思われますか?

A 回答 (5件)

こんにちは。



>つまり、私たち「個体」が「環境」や「別の個体」に反応し、その反応パターンみたいな物が「心」という言葉で表されていると思うのです。「心」があるのではなく「個体」と「何か」の反応があると感じます。

そうですね、
「心」といいますのは「神経系の情報伝達」であり、それは「心の動き」として発生するものです。この「心の動き」といいますのは以下のようなプロセスによって行なわれます。

「知覚入力―中枢処理―結果出力」

我々の感覚器官は身体内外の環境の変化を情報として捉え、中枢系に入力します。中枢系はこの知覚入力を基に処理判断を行うわけですが、この過程が「心の動き」です。そして、この結果が運動系や自律系に出力されることにより、我々の身体には「行動」や「反射」といった生体反応が表出されます。
中枢系がまず行なうのは「外部環境と内部情報の比較」です。
例えば、環境から与えられた情報を学習記憶などの「内部情報」と比較することにより、「それは食料である」という判定が下されたとします。ということになりますと、今度はそれが内臓感覚などによる「内部環境」と比較されます。この結果「自分は空腹である」という判定が下されますならば直ちに「摂食行動」が選択されることになります。
従いまして、上記のプロセスの内「中枢処理」といいますのは「内部情報を規準に身体内外の環境の変化を比較する」ということです。この「内部情報の規準」といいますのは、絶対に変更することのできない「生物学的欲求」であり、片や生後に学習された「個人の好み」や、あるいは「社会的な道徳観」であります。ですから、これが「心の動き」であり、それは与えられた環境や状況に応じてまるで「秋の空」のようにころころと変化するわけです。

>もしかすると、私たちが「考えたり」「泣いたり」「怒ったり」するのは、「対象」があるからこそで、それは人が「環境」に適応するための反応の一つにすぎないのかもしれません。

その通りですね。
只今申し上げました通り、「心の動き」といいますのは必ずや対象となる環境からの情報入力によって発生するものです。そして、我々の身体にはこの反応の結果が出力されるわけです。従いまして「心の動き」とは、「我々動物が与えられた環境の変化に対応した適切な結果を選択するためにある」ということになります。

>これまた勝手な推測ですが、今度は「心」をもったロボットは作れるのか?ということです。

「心」とは「心の動き」であります。そして、それは環境の変化に対して発生するものです。では、「心の動きを持つロボット」を作るためには、まず環境からの情報を獲得するための必ずや「センサー」が必要になります。ですから、如何に優秀なプログラムを搭載していようとも、何らかのセンサーを持たないものは、これは「知能ロボット」とは分類されません。
最近では人間がキーボードで質問を入力すればあたかも感性を持つような応答をするという高度なプログラムもあります。ですが、与えられた質問に答えるだけではなく、環境からの情報というものを自発的に獲得することができなければそれは単なる「人工知能」であり、「自律型のロボット」とは呼べないわけです。
このように、ロボットが心の動きを持つためには、まずカメラやマイクなどを使って環境からの情報を獲得しなければなりません。そして、これを基に自分に与えられた状況に対応した結果が選択できるならば、それは「心の動きを持った立派な自律型のロボット」ということになります。では、このロボットが我々のように様々に変化する環境に対応して適切な判断を下すためには、その方法を教えてやるか、あるいは自分で学習をさせる必要があります。

>機械が上下運動を続けるのと同じです。そうではなく予測不可能な事態を対処できるかだと思います。
>以上から「心」をもったロボットを作るには「予測不可能さ」の理解が必要ではないのかな?と思うのですが、

そうですね、
水から脱出するためにはそのためのプログラムを作ってやらなければならないわけですが、これは「教えてやる」ということです。これに対しまして、アイボが水に浸かって死にそうな目に会ったために次からは直ちに脱出する、あるいは水に近付かないようになるというのが「学習」です。
ですが、アイボとって水というのは致命的ですから、学習が成されてからでは手遅れですよね。ならば、予め「水が危険である」という判定規準をプログラムしておけば直ちに回避行動が実行されますし、水には近付かないという行動の選択も可能となります。
では、果たしてこれだけでロボットを独り立ちさせることができるでしょうか。水が危険ならば火も危険ですし、高い所も危険です。自動車は危険だがオートバイは危険ではないのか。
事前に予測できるものは全てプログラムしておく、やってできないことではありませんが、はっきり言って無駄ですし、環境の変化には予測のできないものが山ほどあります。ところが、我々人間はこのようなものが危険であるというのは当たり前の常識として平然と日常生活を送っています。では、我々の「心の動き」といいますのは、いったいどのようにしてこの「予測不能の事態」というものに対処しているのでしょうか。

我々の高等動物の脳では状況に応じた行動選択を行なうためのプログラムが以下のような三系統のシステムに分かれています。

「本能行動(生命中枢):絶対に変更することのできないプログラム」
「情動行動(大脳辺縁系):生後学習によって獲得されるプログラム」
「理性行動(大脳皮質):学習結果を基に未来を予測するプログラム」

「危険回避」や、あるいは「摂食行動」「生殖行動」といいますのは本能行動として予め獲得されており、これらは何世代にも渡る進化の過程で環境からの作用による淘汰・絶滅を免れて選別されたプログラムです。ですが、遺伝子といいますのは度重なる環境の変化を潜り抜けて生き残った絶対的なプログラムではありますが、これは飽くまで「結果」でありますから、生後環境にどのような変化が発生するかというのは予測することができません。これに対しまして、自分に与えられた環境の変化に柔軟に適応するため、生後体験を基に後天的に獲得されるプログラムが「学習行動」であります。

我々の本能行動回路には「水が危険」というプログラムは書き込まれていません。では、どうして水から脱出することができるのでしょうか。
我々の脳内に書き込まれているのは水に対する回避行動ではなく、「苦痛や恐怖に対する回避行動」であります。水に溺れますと、我々の「心の動き」はそれを「苦痛」と判定します。このため、直ちに必死の回避行動が選択されるわけですね。そして、ひと度これが体験されますと、次からは「恐怖」という情動が発生しますので、実際に苦痛が与えられなくとも「事前回避という学習行動」が可能となります。この学習行動が「情動行動」です。
このように、脳内に予めプログラムされていますのは、
「報酬刺激に対する接近行動」
「嫌悪刺激に対する回避行動」
この二種類だけです。
我々動物はこれを基に何が利益で何が不利益かを体験によって学習し、「未知の生後環境」に順応してゆきます。
このため、与えられた環境やそれぞれの体験によって必然的に判定の結果に違いが現れることになります。この「心の動きの違い」が我々の「個性」であり「性格」であります。この学習結果を取り除くならば、本能行動といいますのは生得的に定められたプログラムであり、その結果は「全人類に共通」です。では、回避プログラムが組み込まれただけの「ただの型」ではなく、ロボットに個性を持たせようとするならば「生後学習」をしてもらえば良いということになります。

まず、上記のような人間の脳と同じ「並列回路」を作ります。そして、「本能行動回路」には予め「対象物A、B」の双方のセンサー反応に対して接近行動を選択するプログラムを作っておき、「情動行動回路」ではAの場合とBの場合の結果を学習させ、「成功率の高い方」を優先的に選択できるようにします。
生まれたばかりのときはAB共に成功率が0%ですから、どちらに対しても同様に接近行動が選択されます。では、以後の結果が学習され、生後の体験上Aの成功率が高ければロボットは積極的にAを選択するようになります。これにより、Aを好むロボットとBを好むロボットという個体差、即ち「個性」が作られます。
先に述べましたが、この学習行動といいますのは本能行動では実現することのできない生後環境の変化に柔軟に対応するためにあります。プログラムが入力された時点ではAを選択するのが有利なのかBを選択するのが有利なのかは予測ができません。ですが、与えられた環境にBの数の方が多かったとするならばBの成功率が上がりますので、ロボットは必然的に「未知の生後環境に適応した」ということなります。
「心の動き」とはセンサー入力に対して行なわれるCPUの処理であり、この結果はメモリーされた学習情報との比較によって出力されます。そして、個性とは「外部入力に対する心の動きの違い」であり、「食べ物の好き嫌い」や「異性のタイプ」といった我々の好みや性格といいますのは、果たしてそのひとに与えられた生後環境や個人体験などによって様々に作り出されるものです。

我々動物は本能行動の規準を基に利益・不利益を学習し、生後環境に適応します。ですが、本能行動のプログラムといいますのは実際に状況が発生しなければ起動することはありませんので、最低でも一度は体験しなければ「事前回避の学習行動」を獲得することはできないということになります。とはいいましても、死の危険を学習するために実際に死を体験するなんていうのは一度でも願い下げです。
では、
「A型は水に浸かって故障した」
「私もA型と同じロボットである」
「従って、私は水に浸かると故障する」
このように、複数の情報を組み合わせることによって「未体験の結果を導き出す」というのが「大脳皮質の理性行動」であります。これにより、知能の高い高等動物は未来の結果を予測した事前回避や、より価値の高い行動選択が可能となります。
このような情報処理は「応用」であり、これをコンピュータにやらせるならば複数の事例の中から類似するものを選別し、「多数決の論理」によって結果を出すという方法があると思います。そして、これによって導き出される「論理的に矛盾のない結果」、これが即ち「常識」であります。
我々がこの常識を獲得するためには生後十年から十数年の年月が掛かります。では、ロボットに十分な常識を判断させるためにはいったいどのくらいのメモリー容量が必要になるでしょうか。更に、「多数決の決済」を行なうためには、コンピュータの性質上「情報の全検索」を行なわなければならないわけですが、現在のスパコンの処理能力を以ってしても、これには結果を出すまでに数百年から数千年の時間が掛かってしまいます。
ところが、我々の脳は記憶容量こそ数桁は上回っていますが、処理速度はコンピュータの足元にも及びません。にも拘わらず、それは瞬時にして論理的に矛盾のない結果をいとも容易く導き出してしまいます。そして、このような「直感的な情報処理」に就きましてはまだその原理が全く解明されていません。

我々人間の「意識」や「情動」といったものをコンピュータの情報処理と一緒にしてしまうというのは少々乱暴な話ですが、最初に申し上げましたように「神経系の心の動き」といいますのは、基本的には我々動物が環境の変化に対応した行動を選択するためにあります。ですから、単にロボットに「心の動き」を持たせるというだけでありますならばセンサーからの入力情報に対して処理判断が行えるだけで十分です。これにより、ロボットは自分の「心の動き」に従った行動の選択が可能となり、そして、これを並列システムにして一方に学習能力を持たせるならば初期プログラムでは予測のできない結果に対しても対処することができるようになります。
ですが、未体験の結果を予測するということになりますと、それには膨大な処理能力が必要となり、量的な問題ではありますが、現実には技術的なキャパシティを遥かに超えてしまいます。そして、我々の脳にどうしてそのようなことができるのかはまだ分かっていませんので、これをコンピュータに教えるというのは現在のところできません。
    • good
    • 0

コンピュータの仕組みと人間の脳みそは根本的に動作の仕方が違いますが、私もいつか心を持ったロボットが出来ると思います。



人間の文明が、それだけ外界の影響のみに精錬されてきたと仮定するならば、例えば、水で口が塞がれて窒息する恐怖(入力)を生み出す関数が、もがく事をさせるだけ(出力)だったものが、さらに情報が蓄積して、仲間の姿や言葉によって情報交換することにより、彼らロボットが"泳法"というものを定義するということに気がつき伝達していけばたいしたものです。

自分の身を守る、自分の種族を守るという前提(適切な欲望みたいなもの)があるならば、溺れる自分と同じロボットを見て学習していき、物理空間から受ける値から単純な関数が増えていき、複雑な関数の動作の組み合わせが人間固有の欲望(初期値)に沿って時系列に統合されていけば、一人称の心が成立するような気がします。

無論、人間の倫理によってはそれを認められないから、人間より優れた発想ができるようになっても、心と呼べるのかどうかの議論が続きそうですが。デジタルの心はコピーが簡単にできるから、それぞれがオリジナルと主張しだし混乱するでしょう。

プログラムの域を出ないような気もしますし、人間が物理空間に在る関数の固まりのような気がしないでもない。
    • good
    • 0

人間の赤ん坊をプールに投げ込むとどうなるか。


教えていないのに、ちゃんと息を止めてバタバタと体を動かし泳ぎます。

これは後で刷り込んだため動作できるようになった(習得)のではなく、生まれもった能力ですよね。
生存本能が人間には最初から備えているわけですね。
言い換えるなら既にプログラムされているわけです。


では歩く・話すという能力は?

オオカミに育てられた少年は二足歩行ができなかった。
オオカミと同じような移動の仕方をした。
人間の言葉を教えたのですが、喋ることはとうとうできなかった。

ということは、足で歩く、言葉でコミュニケーションをとるというのは、生後獲得した能力。
ロボットは他のロボットに自ら考え出した新しいものを教え発展させていくのでしょうか?



2001年宇宙の旅にHALというロボットが出てきます。
HALは人間の出す汗や心拍数でその人の感情を読み取れる。
HALには嘘は通用しない。
HALの産みの親の博士は、自分達が地球に帰還するため、HALに協力を要請したんですね。
頭のいいHALは協力すると、自分は宇宙に置いていかれてしまうと気づいた。
父親は息子のHALと宇宙船に残ると言ったが、HALは父親に他の人と一緒に脱出をしろと言った。
ロボットのHALには人間と同じ心というものがあった。


HALは、乗務員を殺しましたが、HALが故障したからじゃない。
二つの矛盾するプログラムを人間がしたから。
つまり一方の命令を実行するために、自分が守り抜くはずの乗務員を殺さなければならなかったというわけです。


人間だってそうです。
「国民を守る」という義務がリーダにはある。
旅客機を乗っ取られ、身代金を要求され、犯人たちに自由を与えれば、乗客は救える。
しかし、少数の命を救うと、後に大勢の人の命が危なくなるかもしれない。
少数を救うか、犠牲にして大勢を救うかの究極の選択です。
日本の首相は少数の命を救うという選択をしました。
しかし、まさかその犯人たちが後に日本人を拉致して洗脳し、その人たちを使って日本を破壊しようとするようになるとは予測できなかったようです。
その当時は予測不可能で回避できなかった。


人間が作ったコンピュータの中で最高のものでも、知能は人間でいけば5歳くらいだそうです。
計算や正確に記憶することにかけては得意ですが、曖昧さや新しいものを創造するという点では、人間の方がはるかに能力が高い。

しかし、その曖昧さゆえに、誤差が出て、新しいものを発明できる。

例えばプラスチック。
これは実験の失敗から生まれた。
コンピュータなら失敗として処理するでしょうけど、人間は「! もしかしてこれを利用すれば、自由に形を作れて安価で固い素材ができるかもしれない」って思ったわけです。

予測外の結果すら利用して新しいものを地球上で作ってしまう。
衣類だって、家だってそうだし、形の無い知的財産を売り買いするし。
これが他の動物と決定的に違うところ。

ターミネーターという映画がありましたが、未来にはロボットが反乱を起こして人間を殺して地球を支配するって内容ですが、ありえそうで、ありえない。
何故なら、コンピュータは命令を実行をするだけだから。
人間はミスをするし、曖昧に記憶するし、感情というものがあって、やるべきだとわかっていても、感情がストップをかけて脳の決断を実行しなかったりする。
悪い結果を予測できても、実行を決定したりもする。

日本は世界で唯一の被爆国です。
それで、アインシュタインが日本人を殺したと感情的になっている人もいます。
アインシュタインは原爆の開発にゴーサインを出すか2年も悩んだ。
予測される事態を無視できなかったので。
でも、キューリー夫人の言葉を思い出し、人間の可能性にかけたんですね。
こんな言葉だったと思います。
「自分の発明は悪用されるかもしれないが、人間はそれを人間の益のために利用できる可能性を持っており、その可能性を私は信じる。」みたいな内容だったと思います。

キューリー夫人もアインシュタインもマッドサイエンティストか。
表だけ見れば大量殺人を生した諸悪の根源ですが、それを悪に利用したのか彼らじゃあない。


プラトンだったと思いますが、ギュゲスの指輪(はめると姿が消える)を持った人間がそれを悪に利用しない人などいないって考えたわけですね。
善に利用する人間などいない、絶対に悪にしか人間は利用しない という考え。

キュリー夫人やアインシュタンは、悪にも利用できるが益として利用できるなら、人間の善への可能性にかけたい かけるだけの価値が人間にはある という信頼の気持ちを絶やすことができなかったんですね。

アイボは、、、何故はやらなかったのか。
プログラム通りに実行している心の無い物質だと気づいたからだと思います。
これがHALだったとしたら、私は恐らくHALの父親と同じように、HALを自分と同じ人間としてつきあったと思います。

HALを救うためにHALの姉妹が使われたというのが面白い。
    • good
    • 0

あなたはアイボでよいところを突いています。


まさにそれがスタンリー・キューブリックの提示したテーマ
なのです。
    • good
    • 0

心が,外部から観察した場合には入力と出力の関数として把握できる,というのはサイバネティクスでは一般的な知見ですね。



>予測不可能な事態を対処できるかだと思います。

再帰的に自己能力を拡張できる「ロボット」についてはどう思われますか。60年代の人工知能研究では,まさにそこが前線でした。

ロボットと心の問題については,日本では永井均や野矢茂樹が平易な入門本を書いていますので,そこから入るのも良いかと。

参考URL:http://www.amazon.co.jp/dp/4061492861/,http://ww …
    • good
    • 0

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!