アプリ版:「スタンプのみでお礼する」機能のリリースについて

私は高校生の時からずっと人格プログラム(誰もが「生命を宿している」と認めるような対話システム)を作りたいと願ってきました。
現在大学生ですがニューラルネットワークを学んだ時、しっくり来て、同期型のリカレントニューラルネットワークを使えば、人間らしさが発現すると予測しました。
これを研究課題にしたかったのですが、私が専攻するのは情報「工学」であり、工学にそぐわないその研究はこの大学でやっていないと相談役兼教授の方に言われ、研究室もその後関係ない所に決定しました。
今既に人格プログラムに使うニューラルネットワークの大まかなアルゴリズムを考案し、今からODEという物理エンジンを学び、その中で視覚・聴覚・圧覚+空腹感などの内臓感覚等を与えて、仮想空間上で飼育し、人と会話ができるレベルまで育てるという計画を立てています。
これを、一人ではなく多人数でやりたいです。作業を分担して効率良く進め、ロジックの面でも意見交換し合いたいからです。脳科学に詳しい(そこそこ詳しい、興味があって調べたりしているでも)、感覚器官に詳しい、3Dプログラム、音声処理に詳しい等さまざまな知識人が集まれば、アイディアも豊富になると思います。
目の前でロボットが人間のように喋ってる、そんなSF映画みたいなことってありえないだろ、と私自身も思いますが、同時に上手くいく気がしてなりません。
これに際して、以下の質問がありますので、よろしくお願いします。

・似たような研究はありますか?
・同じことを考えている・やってみたい人はいませんか?
・この計画はどこで行き詰る予測できますか?

不明点がありましたらご指摘お願いします。その都度回答します。

A 回答 (9件)

>>人格プログラム(誰もが「生命を宿している」と認めるような対話システム)


これは難しいんじゃないですかね。プログラム以前の問題ですよね。
プログラムを走らせるサーバーなり、ロボットを見て「生命」を感じなければならないんですよね?
サーバーを見つめて生命を感じる人はパソコンオタクの中の一部だけでしょうから、「誰もが」を満たさないですし、ロボットにしても、ホンダのASIMOの様なデザインではやっぱり生命は感じません。
ロボットを人間に似せて作ればいいとおっしゃるかもしれませんが、「不気味の谷現象」のせいで人間に似せるのに苦労してますよね。
行き詰まるのはまさにこの点でしょう。
まぁ、人格プログラムに「心」があると認めさせるのは もしかしたら可能かもしれませんが。

あと、No.1さんと質問者様のやりとりにすれ違いが見られるのですが……。
No.1さんの指摘は「ハードウェアから取り込んだ五感のデータ処理をどうするのか」に言及しているにも関わらず、
質問者様の返答は「ハードウェアの構造」に言及しています。

ところで、質問者様は写真や動画を編集したことはあるでしょうか?
ある写真上で、特定の物体だけを認識させるのはかなり骨の折れる作業です。
白紙のノートの上に白いペンが乗っている写真などは特に難易度が高いです。
選択ツールで選択しても、物体の外側の余計な部分まで選択したり、物体の輪郭の内側まで選択したり、選択範囲の輪郭が凸凹になったりします。
ロボットの目に映るペンを「ペン」として認識させるのにも同じ苦労が伴うと考えられます。

ちなみに、人間の人格プログラムはどのようにプログラミングされていくか御存知ですか?
膨大なデータの入力、つまり、経験と学習を通して形成されます。
様々な出来事を経験し、人々と語らい、時には痛みを味わって、徐々に変質するのが人格です。
特に幼少期の経験は人格の基礎の形成に多大な影響を与えるとされます。
それを実現するのが独自のアルゴリズムに基づいた学習機能です。
人間の人格は学習の上に成り立っているのです。
また、前述の「物体を認識する」という行為でさえ、経験と学習が必要なのです。
生まれてからずっと、盲目だった人が視力を身につけた場合、どうなるか御存知ですか?
見た物の形を識別できず、色と光の渦の様なものとして捉えてしまうそうです。
そう、カメラを実装されたばかりの人格プログラムと同じ状態ですね。
経験(データ入力)無くしては物体を認識するのもおぼつかないんですよ。

この回答への補足

やっと目的が達成されそうなので締め切らせていただきます。
皆様ご回答、アドバイスの数々ありがとうございました。

補足日時:2013/06/26 01:57
    • good
    • 0
この回答へのお礼

回答ありがとうございます。
世界中が二次元ヲタだったら話は早いんですけどね・・というのは冗談で、
ご指摘の通り、人間だと思わせるのはハード的な技術も必要ですので先の話になります。
まずはおっしゃる通り「心があるように見せる」ことを目標としています。

それからすれ違いはご指摘の通りでした。
初めからソフト面で言及されていましたね。

それであれば、感覚器官を勉強し(同志よ!!頼む)、入力素子を用意するまでです。
聴覚はフーリエ変換を行い、それぞれの周波数に比較的小さな閾値をもった入力素子を用意したり。
皮膚感覚(圧覚や痛覚)に至っては皮膚上に入力素子をマッピングするだけでいいと思います。
人間の形にするなら手が敏感など、脳のホムンクルスに素子群の疎密を対応させる必要が出てくると思いますが。
入力素子の後ろはすべてニューラルネットワークです。

次に画像認識についてです。情報工学は速くて正確な画像認識を追求しますが人間は遅いです。つまりミスを許容したいということです。
ノートの上にペンを置いて、どれがペンかと人間に聞けば正解しますが、ケーキの上に置くと「ローソクしかなくね」と勘違いを続けるかもしれません。
選択ツールについてですが、それは静止画を前提としていると思いますので、人間にやらせても「これどこが境界?」なんてこともあると思います。
実世界であれば人間は両眼視差や視点変更(外部探索)を使って巧みに正体を把握することができます。余談ですが「これは何ですか」という入力に対して「これはペンです」というのは出力ですが、同様にアクティブに動いて視点変更を行うのも同じ出力に分類されると考えています。
私は既存の便利さを追求する工学ではなく、あくまで人間らしさを目指しています。

経験と学習の形成についてですが、初めの状態(重みの初期値)が人間の本能を意味すると考えており、それをどんな値にしておくか、経験則しか使えないだろうと思います。ここは直感でいくしかないかな・・?
開眼手術の話は知ってます。

あとかなり重要な意見ですが、私は人間の出力に特定領域のニューロン群の不活性化があると思っています。
そう、それは人間特有の「表情」です。
893が喧嘩を売るときおでこに筋が入りますよね。あれは抑制性ニューロンが集まりやすい前頭葉を物理的に抑え込むことによって、二重抑制を効かせ、本能をぶちまけちゃってるのだと考えています。
人間らしさを追求するためにも、この表情とニューロン領域の関係はしっかり把握していきたいと思っています。

お礼日時:2013/03/26 14:49

こんにちは


今4年生でしょうか?
まずは、今配属されている研究室で頑張りましょう。
その上で、修士で他大学の、類似の研究をやってる研究室に転がり込むのが良いと思います。
ニューラルネットワークは既存技術であり、情報科学でもポピュラーな手法です。
その応用研究をやってる先生は山ほどいます。
企業レベルでも実装されています。
ここで情報を仕入れるのは得策ではありません。
学会誌を読んで、学会の講演会に行きましょう!
頑張ってください。
    • good
    • 0
この回答へのお礼

回答ありがとうございます。学年合っています。
ここで情報を仕入れるのは得策ではないでしょうか。
NNは既存技術ですが私の類似研究はありますか?あったら情報お願いします。
NNの基礎的な所であれば参考書で把握しており、NNを扱う研究室に入るメリットはどれだけ目標が類似しているかと正の相関を持っていると思います。

学会はしっかり参加しようと思います。アドヴァイスありがとうございます。

お礼日時:2013/03/29 00:05

NO.7 です。


対話だけで相手に「こいつは人間だ」と錯覚させるのは可能だと思います。それだけの知識と回答の手順を機械に覚えこませればいいわけです。ウィキによれば2020年までに実現するだろうと書いてあります。
で、質問にタブーをなくして、聴覚しかない人間らしいと感じさせてもいいのではないですか?ヘレンケラーとかいう偉人もいたのです。問題はどうして会話だけで人間か人間でないかを見分けるか?その手立てはあるのか?ということですが、それはない、と私は思います。心なんかなくても、それを相手に悟らせなければいいのです。しかしこのテストでは人間の本当の知性や意識は測れないと思います。それが何であるか、人間にも分かっていないからです。錯覚ではありません。貴方の中には意識がないかも知れませんが私の中には別人格のような自立した意識がまちがいなくあります。

確かに人間もゾウリムシから進化したわけで、反射するだけの生き物である可能性は高いですが、個別に意思を持つに至っています。それが人工体の中にはたして生まれるのか、貴方のやり方で偶然生まれたとして、それをどうやってテストするかが次の問題だと思います。
    • good
    • 0
この回答へのお礼

お返事ありがとうございます。
テスト方法は証明ではなく説明を使います。
そのウィキの方法で会話ロボットが会話以外の機能も備えたものにまで発展できるようになるならば、採用しますが、そのまま応用して人間を作れるような技術ですか?それは。

そしてあなたは意識が何なのか全く見当がついていない状態かと思います。「我思う、ゆえに我の意識あり」という命題は正しいかもしれませんが、仮定として使っている「我思う」の部分が一体どこから証明されたのかが見えていません。

あなたの体は入力・出力以外に何か行っていますか?意識とは何を指しているか、「意識は意識である」という当たり前の等式を抜けて考えるのが私のコンセプトであります。

お礼日時:2013/03/28 07:59

対話で人格を感じさせる、相対した人間がその「人格」が生の人間と錯覚してしまう、対話する機械、そういうプログラムは既に実現していると聞きましたが、それで満足なのでしょうか?



「人格」というものをまともに考えれば、自立して自分を自覚し、心を持っていて自身が何者かを理解して、主張できる(機械であっても)ものだと解釈できますが、それが目標なのでしょうか?感覚としてとりあえずは聴覚だけでもいいと思いますが、私はそういう機械は現状では製作不可能だと思います。まだコンピュータが心を持ったという話は聞きません。心がどういう構造を持っているかということがまだ解明されていないと思います。このあたりを回避すればそれは人格ではないと私は考えます。
    • good
    • 0
この回答へのお礼

回答ありがとうございます。
率直に申し上げましょう。人間と錯覚できる機械で満足です。というのは、もし人間の特性をうまく反映しきれていない場合、こいつは人間じゃない、という違和感が少なからず生まれ、人間と錯覚できなくなるからです。

聴覚のみという点に関してですが、・・・初めの段階としてやってみてもいいと思います。ただ、彼は赤青、丸四角、大小、といった他の感覚器官で形成される概念に言及できません。それをなくして人間性がどこまで再現されるかという仮説が立てづらいため、結果を得たとしてもそれがうまくいっているのかどうか判断できないことを危惧しています。
それゆえに現段階では最初は視野・聴覚・圧覚の3つで試そうと思っています。確かに一応聴覚のみもやってみたいですね、物理エンジンで苦戦する前に。

心の構造、についてですが、人間が心を持つと感じること自体が錯覚だと考えています。自分でもにわかに信じられないことを言いますが、頭の中で車の絵をイメージしたとして、それは魂が考えているというよりも、次の瞬間に「車」について言及するための内部状態だと思います。そしてその内部状態というものが、リカレントニューラルネットワークの特定の素子群が発火し続けている状態に対応していると考えています。(かつて絵、音等のイメージを視覚・聴覚等に対応した“脳内の場”として定義しましたが、NNに出会ってこれを解決できる上生物学的にも構造が似ているということで、後者を選びました。)

要はこのように、人の心というのは、次の瞬間どういう入力刺激(+内部状態)を受けたらどういう出力を返すか、といった、客観的な視点で解決することができ、主観的な視点でも、考えづらくはありますが同じことが言えると思っています。

そしていまだかつてコンピュータが心を持ったという話が無いからこそ先駆者となり挑戦します。

お礼日時:2013/03/26 21:24

>・この計画はどこで行き詰る予測できますか?



例え「対話システムが完成した」としても、システムの成長過程を見ていない人間にとっては「中国語の部屋」と区別できないでしょう。

「成長過程」を見ず、表面的な「出力結果」しか見てないと「自立的に思考している結果を出力している」のと「入力に従ってプログラム通りの事を出力している」のが区別できないのです。

つまり「完成しても、正しく評価される可能性が、極めて低い」と考えられます。

最悪「誰からも評価されず、自己満足で終わっちゃう可能性」があるのです。

こういう分野を研究しているなら、ジョン・サールの「中国語の部屋」はご存知ですよね?
    • good
    • 0
この回答へのお礼

回答ありがとうございます。
一応情報工学を3年学んできましたもので、そういう話はしょっちゅう聞きました。
今軽くggりましたが中国語のできない人を中国語マニュアルと一緒に部屋に閉じ込めて外から中国語を聞くと“ブラックボックス全体”を見れば中国語の達者な物体と捉えられるというものですよね。

すごく的確なご指摘だと思います。
なぜなら私がチューリングテストによって人格プログラムが完成していることを説明できる、と質問文で曖昧に述べたことに対して、歴史上でチューリングテストへの疑問として挙げられた「中国語の部屋」を挙げてくださいましたから。

しかしながら私が求めているのは人格プログラムが完成していることの「説明」であり「証明」ではありません。

それは日常生活でも同じです。他人が本当に自分と同じ人間で、考えて生きていることを、証明してそうとらえている人が何人いるでしょうか。

人間が入力刺激でしかない他人を人間と認められるのであれば、人格プログラムも認めてもらうことが可能であり、よりスムーズに認めてもらえるような完成図をイメージしています。

お礼日時:2013/03/26 14:05

ANo3です。

お礼を有難うございます。
第2点について再度申し上げます。「与えた結果を素直に反映するだけ」と申しているのではありません。与えた条件群に対して「与えた反応・学習様式を示すだけになる」との恐れがあると申しております。ご用心ください。
    • good
    • 0
この回答へのお礼

補足ありがとうございます。
まだハッキリとした違いがわかりません(@_@)
学習して出来上がった関数が、ただの返答機のように“こう言えばこう返す”というエリーザのようなものになるということでしょうか?
それであれば、入力を受けながらNNのパスの重みを変化させていくことで、一連の刺激の文脈性を理解し、内部状態を持つことのできるNNを同期型リカレントNNで実装しようと思っていますが、どうでしょうか。

お礼日時:2013/03/26 13:46

二点申し上げます。


ニューラルネットワークと言うのは小生の理解では、各々の実験点(座標と関数値の組)を確実に反映しますが、ある実験点近傍の他の実験点の傾向を反映するものではありません。ですから実験点を増やしてもその空間の傾向・挙動を反映させることは出来ません。高次元空間の曲面を近似しないで、多数の個々の点を反映するだけです。lazydog1様のご指摘の通りで学習機能よくご検討なさることをお勧めします。
もう一点。この種の研究では最終段階で得られた成果が、「自分の作ったモデル自身が良く反映されている」との結果になりがちです。小生は愚かにもそのような結果を得ました。新しい鏡に世界を写そうとしたところ、写っていたのは自分の顔だけだったというわけです。ご用心ください。
    • good
    • 0
この回答へのお礼

回答ありがとうございます。
なるほどです。NNは「実験点近傍の他の実験点の傾向を反映しない」のですね。私の理解ですが、出力素子のパターン数が有限だから、ある出力パターンと別のパターンとの間のパターンが存在しないために、なめらかな曲面のような点間の補完を行わないということでしょうか。
私は人の考え方はそれでよいと思っています。

もう一点のほうは理解が難しいですが・・・
与えた結果を素直に反映するだけだということでしょうか。それならばそれでいいと思っています。

元研究生の方ですよね。恐縮です。アドバイスありがとうございました。

お礼日時:2013/03/26 07:32

> ・似たような研究はありますか?


> ・同じことを考えている・やってみたい人はいませんか?
> ・この計画はどこで行き詰る予測できますか?

本当に専門的に研究したい気持ちがある学生さんなら、何故こんなQ&Aサイトで質問しようと思うのか、その気が知れません。

ちょっとネット検索すれば
・人工知能学会 http://www.ai-gakkai.or.jp/  
・日本ロボット学会 http://www.rsj.or.jp/
等々、簡単に見つけることができます。
上記などから知りたい情報を探すほうが、よほど手っ取り早いし、正確でしょう。

なお「2013年度人工知能学会全国大会(第27回)JSAI2013」が6/4~6/7まで富山で開かれるようですから、
 http://www.ai-gakkai.or.jp/conf/2013/
同学会に入会して(学生会員は年会費4,000円)、こういった催しにどんどん参加して、最先端の研究状況と人脈を掴むことをお薦めします。
    • good
    • 0
この回答へのお礼

回答ありがとうございます。
それなら理由は質問文に記した通り、工学の守備範囲である人工知能や人工生命といった分野は、製品や作業の効率化を第一目標としており、人間を作るという最終目標を持っていないからです。
同じニューラルネットワークでも、画像認識をやるだけなら階層型ニューラルネットワークを使えばいいじゃんという話になります。
二つの学会は工学分野です。そこでで知識やヒントを得て一人別のビジョンを持って研究する、というのは今まで参考書を買って一人で構想を練ってきたことと何ら変わりありません。
私が求めているのは最終目標を同じくして、そのためにあえて現代使われないデータ構造とアルゴリズムを追求して行ける仲間です。

ですがそういった学会に入る前からそこに同志が居ないと決め付けて動かないのは愚ですし、これからの研究室生活で少なからず参考になると思うため、人工知能学会には折に触れて参加していこうと思います。アドバイスありがとうございました。

お礼日時:2013/03/25 18:34

 要は人工知能ですね。

17世紀以来、様々な方法が試みられてきており、現在も模索中です。研究者は哲学などの協力者も含めると膨大です。人工知能の実現に否定的な専門家でも、脳のシステムそのものをシミュレートする方法については可能性があるとしています。

>・似たような研究はありますか?

 ニューラルネットワーク型に限っても非常に多数あります。

>・同じことを考えている・やってみたい人はいませんか?

 非常に多くの人がやっています。

>・この計画はどこで行き詰る予測できますか?

 行き詰ったかどうかすら、よく分かっていない段階です。

 五感をどう実現するかも、よく分かっていないのです。視覚情報、これをムービーカメラで行うとしても、その動画情報をどうコンピュータに認識させるかだけでも、非常に苦労が多いですね。味覚、嗅覚、触覚も同様、あるいは視覚以上に難しい。

 もっと単純な生物、たとえばハエでもどうしたらいいか不明です。生物学でも解き明かすにはまだまだ道のりは遠いようですから、当然なのかもしれません。

 見かけ上、人間のように反応するシステムでしたら、ニューラルネットワークのように内部状態の把握が極めて困難なものより、シンプルな学習機能と膨大な学習量に頼ったものの方が、実現は容易ではないかと思います。ニューラルネットワークを採用するのは、人工知能がいかに高度な結果を出力するかより、人間を含めて脳がどのように思考するかを解明したいという面が大きいです。
    • good
    • 0
この回答へのお礼

回答ありがとうございます。
視覚は視細胞の構造が明らかになっていますので水平細胞等の層をそのまま真似するか、ピクセルを入力素子として直接用いるかを考えています。
嗅覚はハードウェアでの実現は不可能ですが、仮想空間上では可能と思っています。
触覚は当たり判定を用いて実現できないかと思っています。

他の関数近似ではなくニューラルネットワークを用いる理由は、死人を作るわけではないからです。
学習方法はさまざまですが、どれも目指す点は関数近似という点で共通しています。
近似済みの関数はいわば時間軸上のある点における人間であり、彼は死人です。
ある刺激に対する反応は備えてますが、入出力関係や内部状態が時間軸上で変化しないために、文章を理解できません。
「ブドウっておいしいよね」の「おいしいよね」を聞いたとき、「ブドウは」の部分を既に覚えていません。
そこで学習過程も含めて人間に近い(と思われている)ニューラルネットワークを採用しました。

お礼日時:2013/03/25 07:36

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!