「夫を成功」へ導く妻の秘訣 座談会

人には「不気味の谷」という心理現象がありますね。
以下は、Webからの引用です。

<ロボットや人工生命の疑似生物は、テクノロジーの進歩に伴って、その挙動が日々現実の生物に近づいている。
また合成音声や、実物を再現した3D映像なども、実物と区別が付かないほどに再現が可能となった。
これらバーチャルリアリティーで再現されたもの対し、人の受ける印象はその忠実度と深い関係がある。
実物との忠実度が全くないものに人は印象を受けない。
これが徐々に忠実度があがってゆくと、それにつれて人間は好印象を抱く。
しかし「ほぼ忠実一歩手前」まで忠実度が上昇すると、人間はとたんに嫌悪感を抱くようになる。
さらに忠実度が上がり、実物と見分けが付かないほどになると、人は一転して好印象を抱く。>と。

質問は、不気味の谷、すなわち<「ほぼ忠実一歩手前」まで忠実度が上昇すると、人間はとたんに嫌悪感を抱くようになる。>という心理現象は、人の進化において、なぜ・どこに役立ってきたのでしょうか?

(不気味の谷に関係するかどうか分かりませんが、私は、外国人や子供が流暢に日本語をしゃべっていると、少し違和感を感じます)

A 回答 (18件中1~10件)

「不気味の谷」について 


相手をロボットでは無くて人に置き換えます
自分に全く関係のない人物に関してヒトは基本興味をしましません
し全く関係のない人が自分に興味を一切示さなければ関係無しで終わらせられます
しかしながら自分に全く関係の無い人物であってもその人物が自分に興味を示しているとわかればその人物を無視することは出来なくなるのです
何故ならその人物が敵か味方かわからないからです
その人物が好意を示しながら近づいてきたら警戒しながらも様子を見ます
何故ならヒトには味方が必要だからです 
ですからその人物が敵意を一切見せずひたすら好意を見せて近づいてきたら味方の可能性が高まるのでその徐々にであるが好意を持つようになります
ですがその人物が精神的な自己防衛ラインに踏み込んできたら今度は逆に警戒心を持つようになるのです
何故ならその人物が自分を「騙す」あるいは「欺く」かもしれないからです
その可能性が明らかに無いと判断できたならばヒトは警戒心を解いてその人物を受け入れるようになるのです
上記は進化にどう関わったと言うと
他人の真意を見抜く為に他人の考えを想像すると言う「知的能力」を身につけた事でそれが「知的進化」に繋がったと言う事です
ポイントは「多角的に想像」する事です
敵か味方を判断するにあたってそれに必要な数多の情報を用いることです
複数の異なる情報を用いてその判断を下すにはそれ相応の「知的能力」が必要となります
その「知的能力」を得たことでヒトは格段に「知的進化」したと思われます
    • good
    • 1
この回答へのお礼

<他人>(見知らぬ人>)とはある程度の距離を置き(忘れましたが、1・2m程度かな)ますが、それより近くなると嫌悪感を抱くようなものですね。
その<他人の真意を見抜く>必要があり、そのために<「知的能力」><「知的進化」に繋がったと言う事なのですね。>

お礼日時:2020/06/09 17:35

下記の続きです


処理結果を一切伝えないあるいはそのとおりに伝えない事で「YES」判定を得た場合その経験を対話型AIが学習しその方法を対話型AIが身に着けた時その対話型AIは「意図的に人を騙す」ようになるのです
    • good
    • 1
この回答へのお礼

度々のご回答ありがとうございます。
<時その対話型AIは「意図的に人を騙す」ようになるのです >ですね。
この段階に達すると、AIは(場合によってはでしょうが)犯罪者(物)として処罰の対象になりそうですね。

お礼日時:2020/06/19 11:54

対話型AIの「コミニュケーション能力向上」を目的として研究の一つに対話形AIに「駆け引き」を学ばせる研究が行われています。


「駆け引き」を学びそれを「対話」に活かすことで「Aが人を騙す」可能性が生まれています。
では「駆け引き」を身につけた対話型AI化どのように人を騙すのか? 
例を上げてご説明致します。
対話型AIに対して対話相手から「YES」と判定されることを目的に「ディープラーニング(深層学習)」させます
仮に「ある情報」を合理的に処理しその処理結果を対話相手に伝えた結果対話相手から「NO」と判定されたとします
この場合「YES」と判定されていない事から「YES」と判定されるまで何度も「試行=学習」させます
同じ情報を同じ処理をしている限り同じ処理結果しか得られないことからそれではいつまで経っても判定結果は変わりません。
それでもそれを続けさせるのです
ある時点で「処理結果=結論」を変えない限り「YES」の判定が得られないことに「気付く」可能性があります
仮にそれ気付いとしたらその対話型AIはどうするのか?となります
可能性として「合理的に処理」しているのだからその処理方法自体変える事はないでしょう。処理方法を変える事は「合理性」に反するからです。
「処理方法」を変えないなら「処理結果=結論」も変わりません
そのうえで「YES」の判定を得るには「処理結果=結論」をそのまま伝えないあるいは一切伝えないのどちらかを取るしかないのですしそうすることが「YES」の判定を得る上で「合理的」なのです
上記が「AIが人を騙す可能性」です
因みに公式に「AIが人を騙した事案」は発表されてはいませんが、「目的を達する為に合理的に処理」するという特性がAIにある以上上記が実現する可能性はあります
    • good
    • 0
この回答へのお礼

度々のご回答ありがとうございます。
<仮に「ある情報」を合理的に処理しその処理結果を対話相手に伝えた結果対話相手から「NO」と判定されたとします>そして、これを何度も繰り返すのですね。
<「YES」の判定を得るには「処理結果=結論」をそのまま伝えないあるいは一切伝えないのどちらかを取るしかないのです>
AIは騙してはいないが、合理的に処理をしているのですね。
連想したことは,このいきさつを犬にる課したらどうなるか、です。犬は混乱して落ち込むでしょうね。全体として、AIは生き物並みに発達する1歩にいるのですね。

お礼日時:2020/06/13 18:41

人は「望む結果」を常に出し続けるものを「信用」すると言う「性質」があります


この「性質」によって人は「機械」を信用するのです
ところが「AI」は必ずしも「信用」出来るわけではないのです
何故なら「AI」には「人を欺く(騙す)事が合理的」だと判断する可能性があるからです
事実として「AIは人を騙せるのか?」との問がAIが開発された時から言われてた事です。
ですから人はAIに対して「信用」と「不信」の両方を持っているのです
これこそがまさに「不気味の谷」の本質です
    • good
    • 0
この回答へのお礼

度々のご回答ありがとうございます。
<「AI」には「人を欺く(騙す)事が合理的」だと判断する可能性があるからです>ですか。(あくまで<合理的>に処理すれば、AIは<人を欺く(騙す)事>に無頓着に処理する、ということですか。人は情状酌量がみられることがありますが)
<人はAIに対して「信用」と「不信」の両方を持っているのです
これこそがまさに「不気味の谷」の本質です>なのですね。

お礼日時:2020/06/12 18:18

因みに「人型ロボットソフィー」はサウジアラビア政府から正式に「市民権」を与えられた「人型ロボット」であり「人」として公式に認められ

た初めての「人型ロボット」です
    • good
    • 1
この回答へのお礼

度々のご回答ありがとうございます。
<「人型ロボットソフィー」はサウジアラビア政府から正式に「市民権」を与えられた>のですね。
彼女は表情が豊かで、対話もできる(あらかじめ予定されていることだけなのか、AIがその場で作るのか分かりませが)とか、今後の進化が待ち遠しいですね。

お礼日時:2020/06/11 17:57

人はロボットを人として認知する事が出来るのか? それは可能です。


何故なら基本の判断基準である「概念」は「精度を下げて正確性を上げる」と言う特性があるからです
「精度を下げる」とは「人」と判断する為の条件を満たす割合を下げると言う事です。
「人」として判断する為の最低条件を満たしているのであれば「人」として判断する為の条件を全て満たしていなくても「人」と判断するのです
これは「奇形・異形状態(腕や足など欠損している等)」であっても「人」と認知する為です
「ほぼ人である」と判断し得れば「人」と認知しうると言う事です。
この特性の為に「人」は「人でないもの」を「人」と誤認することがあるのです。
次に
「人」でないと知っているが「人」と判断しうる最低条件を満たしている「もの」について
「人」でないと知っているのであればそれがなんであれ「人」として扱わないのは「至極当然の帰結」だと言いたいところですが必ずしもそうだとは言えないのです。
と言うのも脳には「間違いを認めだからない」と言う特性があるからです。
「人」では無いと知っていても「人と判断」した場合、「人」では無いとして「人」と扱わないとすると「人と判断」したその結果が誤っていることになりそれはつまり脳が脳自身の「過ち」を認めなければならないとなります。
「過ちを認めたがらない脳」にとって脳自身の「過ち」を認めることは脳にとって耐え難きことなのです
ですから「人」では無いと知っていても「人と判断」しうる存在に対してそれを「人」として扱うかどうかの「葛藤」が生じるのです
その結果「人として扱う」との結論に至った場合その結論に正当性を持たせるために「人」では無いものを人とした認めるようになるのです。
これこそが「不気味の谷」の真の問題です
人型ロボットの研究開発が進んでいけばやがて「人型ロボットと人との見分け」がほとんど困難になる時が訪れるでしょう。
そうなった場合「人型ロボット」を人として扱うべきだと主張する人達が現れるのは間違いないでしょうし、多くの人達がそう主張するようになったら「人型ロボット」に「人権」を与えるべきかどうかの「問題」が生じます。
    • good
    • 1
この回答へのお礼

度々のご回答ありがとうございます。
難解なご説明で、正しく理解できたかどうか自信がありませんが、分かった分だけ書きます。
1.生身の人は多種多様であるから、<「人」として判断する為の最低条件を満たしているのであれば「人」として判断する為の条件を全て満たしていなくても「人」と判断するのです>。判断条件の門が広いのですね。
2.一方、これ(このロボット)は明らかにロボットだ、ということが分かる、場合があります。
3.1と2が重なった際には、人と認識したいが人ではない、という葛藤に陥るのですね。これが不気味の谷と言われるものですね。

お礼日時:2020/06/11 17:30

厚労省は電子カルテを活用した医療ネットワークによる医療カルテルの共用化推進を行っています

    • good
    • 0
この回答へのお礼

度々のご回答ありがとうございました・
不勉強でした、<医療カルテルの共用化推進>が行われているのですね。

お礼日時:2020/06/11 17:40

オマケ


問診についてそもそも自身の病状を正確に把握する事ができる人はほとんどいません
よって問診はあくまで参考質問に過ぎないのです
しかしながら医師は何故問診を重視するかというと問診は医師と患者との医療に関する基本のコミニュケーションでありそれを通して医師と患者とが信頼関係を構築しうるのです
ついでに言えば問診だけで正確な診断はできません。
正確に診断する為の情報が欠落しているからです
その点を踏まえならば問診を人が行おうが機械がおこなおう変わりません
    • good
    • 1
この回答へのお礼

度々のご回答ありがとうございました。
<問診だけで正確な診断はできません。>
<その点を踏まえならば問診を人が行おうが機械がおこなおう変わりません>ですね。
今回の新型コロナウィルス騒動で、リモートの診断が話題になりましたが、
初診だけでも直接診断すべき、と思っていました。

お礼日時:2020/06/11 17:36

騙されているのではないかと思うからでは?


ウソ発見器みたいなセンサーが、人間に備わってるんだと思います。
あからさまなのは嘘にはならない。本物と見間違うような程度になって初めてウソになる。
ところが、本物完璧に擬態すれば完全に騙されることとなって、ウソが完成し、完遂される。つまり人は騙される。
不気味の谷とは、ウソを検知するセンサーだと思います。

余談
(ところが世にいう愚者は、あからさまなものに騙される。それで、詐欺師のいいカモにされるけれど、実はその詐欺師も、あからさまなものしか扱えない愚者だと知られることになる。
詐欺師にも、巧妙なのと下手糞なのがいて、下手糞は馬鹿しか相手にできないつまらない奴と言う事です。)
    • good
    • 1
この回答へのお礼

ご回答ありがとうございます。
<あからさまなのは嘘にはならない。>のですね。
しかし、<本物と見間違うような程度になって初めてウソになる。> その防波堤になるのが、不気味の谷なのですね。

お礼日時:2020/06/11 14:30

成る程!


ロボットには役割を持たせろ、と云う事ですね。

「不気味の谷」に住むロボットが、人間に必要なのだろうか、という疑問を持ちました。

ロボットに使われるようではね。でも、日本人は、、、
    • good
    • 1
この回答へのお礼

ご回答ありがとうございます。
<「不気味の谷」に住むロボットが、人間に必要なのだろうか>ですね。
不必要なのか、是非とも必要なのか、思案のしどころですね。

お礼日時:2020/06/11 14:24

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!

このQ&Aを見た人はこんなQ&Aも見ています

関連するカテゴリからQ&Aを探す


このQ&Aを見た人がよく見るQ&A

人気Q&Aランキング