プロが教えるわが家の防犯対策術!

人には「不気味の谷」という心理現象がありますね。
以下は、Webからの引用です。

<ロボットや人工生命の疑似生物は、テクノロジーの進歩に伴って、その挙動が日々現実の生物に近づいている。
また合成音声や、実物を再現した3D映像なども、実物と区別が付かないほどに再現が可能となった。
これらバーチャルリアリティーで再現されたもの対し、人の受ける印象はその忠実度と深い関係がある。
実物との忠実度が全くないものに人は印象を受けない。
これが徐々に忠実度があがってゆくと、それにつれて人間は好印象を抱く。
しかし「ほぼ忠実一歩手前」まで忠実度が上昇すると、人間はとたんに嫌悪感を抱くようになる。
さらに忠実度が上がり、実物と見分けが付かないほどになると、人は一転して好印象を抱く。>と。

質問は、不気味の谷、すなわち<「ほぼ忠実一歩手前」まで忠実度が上昇すると、人間はとたんに嫌悪感を抱くようになる。>という心理現象は、人の進化において、なぜ・どこに役立ってきたのでしょうか?

(不気味の谷に関係するかどうか分かりませんが、私は、外国人や子供が流暢に日本語をしゃべっていると、少し違和感を感じます)

A 回答 (18件中1~10件)

下記の続きです


処理結果を一切伝えないあるいはそのとおりに伝えない事で「YES」判定を得た場合その経験を対話型AIが学習しその方法を対話型AIが身に着けた時その対話型AIは「意図的に人を騙す」ようになるのです
    • good
    • 1
この回答へのお礼

度々のご回答ありがとうございます。
<時その対話型AIは「意図的に人を騙す」ようになるのです >ですね。
この段階に達すると、AIは(場合によってはでしょうが)犯罪者(物)として処罰の対象になりそうですね。

お礼日時:2020/06/19 11:54

対話型AIの「コミニュケーション能力向上」を目的として研究の一つに対話形AIに「駆け引き」を学ばせる研究が行われています。


「駆け引き」を学びそれを「対話」に活かすことで「Aが人を騙す」可能性が生まれています。
では「駆け引き」を身につけた対話型AI化どのように人を騙すのか? 
例を上げてご説明致します。
対話型AIに対して対話相手から「YES」と判定されることを目的に「ディープラーニング(深層学習)」させます
仮に「ある情報」を合理的に処理しその処理結果を対話相手に伝えた結果対話相手から「NO」と判定されたとします
この場合「YES」と判定されていない事から「YES」と判定されるまで何度も「試行=学習」させます
同じ情報を同じ処理をしている限り同じ処理結果しか得られないことからそれではいつまで経っても判定結果は変わりません。
それでもそれを続けさせるのです
ある時点で「処理結果=結論」を変えない限り「YES」の判定が得られないことに「気付く」可能性があります
仮にそれ気付いとしたらその対話型AIはどうするのか?となります
可能性として「合理的に処理」しているのだからその処理方法自体変える事はないでしょう。処理方法を変える事は「合理性」に反するからです。
「処理方法」を変えないなら「処理結果=結論」も変わりません
そのうえで「YES」の判定を得るには「処理結果=結論」をそのまま伝えないあるいは一切伝えないのどちらかを取るしかないのですしそうすることが「YES」の判定を得る上で「合理的」なのです
上記が「AIが人を騙す可能性」です
因みに公式に「AIが人を騙した事案」は発表されてはいませんが、「目的を達する為に合理的に処理」するという特性がAIにある以上上記が実現する可能性はあります
    • good
    • 0
この回答へのお礼

度々のご回答ありがとうございます。
<仮に「ある情報」を合理的に処理しその処理結果を対話相手に伝えた結果対話相手から「NO」と判定されたとします>そして、これを何度も繰り返すのですね。
<「YES」の判定を得るには「処理結果=結論」をそのまま伝えないあるいは一切伝えないのどちらかを取るしかないのです>
AIは騙してはいないが、合理的に処理をしているのですね。
連想したことは,このいきさつを犬にる課したらどうなるか、です。犬は混乱して落ち込むでしょうね。全体として、AIは生き物並みに発達する1歩にいるのですね。

お礼日時:2020/06/13 18:41

人は「望む結果」を常に出し続けるものを「信用」すると言う「性質」があります


この「性質」によって人は「機械」を信用するのです
ところが「AI」は必ずしも「信用」出来るわけではないのです
何故なら「AI」には「人を欺く(騙す)事が合理的」だと判断する可能性があるからです
事実として「AIは人を騙せるのか?」との問がAIが開発された時から言われてた事です。
ですから人はAIに対して「信用」と「不信」の両方を持っているのです
これこそがまさに「不気味の谷」の本質です
    • good
    • 0
この回答へのお礼

度々のご回答ありがとうございます。
<「AI」には「人を欺く(騙す)事が合理的」だと判断する可能性があるからです>ですか。(あくまで<合理的>に処理すれば、AIは<人を欺く(騙す)事>に無頓着に処理する、ということですか。人は情状酌量がみられることがありますが)
<人はAIに対して「信用」と「不信」の両方を持っているのです
これこそがまさに「不気味の谷」の本質です>なのですね。

お礼日時:2020/06/12 18:18

因みに「人型ロボットソフィー」はサウジアラビア政府から正式に「市民権」を与えられた「人型ロボット」であり「人」として公式に認められ

た初めての「人型ロボット」です
    • good
    • 1
この回答へのお礼

度々のご回答ありがとうございます。
<「人型ロボットソフィー」はサウジアラビア政府から正式に「市民権」を与えられた>のですね。
彼女は表情が豊かで、対話もできる(あらかじめ予定されていることだけなのか、AIがその場で作るのか分かりませが)とか、今後の進化が待ち遠しいですね。

お礼日時:2020/06/11 17:57

人はロボットを人として認知する事が出来るのか? それは可能です。


何故なら基本の判断基準である「概念」は「精度を下げて正確性を上げる」と言う特性があるからです
「精度を下げる」とは「人」と判断する為の条件を満たす割合を下げると言う事です。
「人」として判断する為の最低条件を満たしているのであれば「人」として判断する為の条件を全て満たしていなくても「人」と判断するのです
これは「奇形・異形状態(腕や足など欠損している等)」であっても「人」と認知する為です
「ほぼ人である」と判断し得れば「人」と認知しうると言う事です。
この特性の為に「人」は「人でないもの」を「人」と誤認することがあるのです。
次に
「人」でないと知っているが「人」と判断しうる最低条件を満たしている「もの」について
「人」でないと知っているのであればそれがなんであれ「人」として扱わないのは「至極当然の帰結」だと言いたいところですが必ずしもそうだとは言えないのです。
と言うのも脳には「間違いを認めだからない」と言う特性があるからです。
「人」では無いと知っていても「人と判断」した場合、「人」では無いとして「人」と扱わないとすると「人と判断」したその結果が誤っていることになりそれはつまり脳が脳自身の「過ち」を認めなければならないとなります。
「過ちを認めたがらない脳」にとって脳自身の「過ち」を認めることは脳にとって耐え難きことなのです
ですから「人」では無いと知っていても「人と判断」しうる存在に対してそれを「人」として扱うかどうかの「葛藤」が生じるのです
その結果「人として扱う」との結論に至った場合その結論に正当性を持たせるために「人」では無いものを人とした認めるようになるのです。
これこそが「不気味の谷」の真の問題です
人型ロボットの研究開発が進んでいけばやがて「人型ロボットと人との見分け」がほとんど困難になる時が訪れるでしょう。
そうなった場合「人型ロボット」を人として扱うべきだと主張する人達が現れるのは間違いないでしょうし、多くの人達がそう主張するようになったら「人型ロボット」に「人権」を与えるべきかどうかの「問題」が生じます。
    • good
    • 1
この回答へのお礼

度々のご回答ありがとうございます。
難解なご説明で、正しく理解できたかどうか自信がありませんが、分かった分だけ書きます。
1.生身の人は多種多様であるから、<「人」として判断する為の最低条件を満たしているのであれば「人」として判断する為の条件を全て満たしていなくても「人」と判断するのです>。判断条件の門が広いのですね。
2.一方、これ(このロボット)は明らかにロボットだ、ということが分かる、場合があります。
3.1と2が重なった際には、人と認識したいが人ではない、という葛藤に陥るのですね。これが不気味の谷と言われるものですね。

お礼日時:2020/06/11 17:30

厚労省は電子カルテを活用した医療ネットワークによる医療カルテルの共用化推進を行っています

    • good
    • 0
この回答へのお礼

度々のご回答ありがとうございました・
不勉強でした、<医療カルテルの共用化推進>が行われているのですね。

お礼日時:2020/06/11 17:40

オマケ


問診についてそもそも自身の病状を正確に把握する事ができる人はほとんどいません
よって問診はあくまで参考質問に過ぎないのです
しかしながら医師は何故問診を重視するかというと問診は医師と患者との医療に関する基本のコミニュケーションでありそれを通して医師と患者とが信頼関係を構築しうるのです
ついでに言えば問診だけで正確な診断はできません。
正確に診断する為の情報が欠落しているからです
その点を踏まえならば問診を人が行おうが機械がおこなおう変わりません
    • good
    • 1
この回答へのお礼

度々のご回答ありがとうございました。
<問診だけで正確な診断はできません。>
<その点を踏まえならば問診を人が行おうが機械がおこなおう変わりません>ですね。
今回の新型コロナウィルス騒動で、リモートの診断が話題になりましたが、
初診だけでも直接診断すべき、と思っていました。

お礼日時:2020/06/11 17:36

騙されているのではないかと思うからでは?


ウソ発見器みたいなセンサーが、人間に備わってるんだと思います。
あからさまなのは嘘にはならない。本物と見間違うような程度になって初めてウソになる。
ところが、本物完璧に擬態すれば完全に騙されることとなって、ウソが完成し、完遂される。つまり人は騙される。
不気味の谷とは、ウソを検知するセンサーだと思います。

余談
(ところが世にいう愚者は、あからさまなものに騙される。それで、詐欺師のいいカモにされるけれど、実はその詐欺師も、あからさまなものしか扱えない愚者だと知られることになる。
詐欺師にも、巧妙なのと下手糞なのがいて、下手糞は馬鹿しか相手にできないつまらない奴と言う事です。)
    • good
    • 1
この回答へのお礼

ご回答ありがとうございます。
<あからさまなのは嘘にはならない。>のですね。
しかし、<本物と見間違うような程度になって初めてウソになる。> その防波堤になるのが、不気味の谷なのですね。

お礼日時:2020/06/11 14:30

成る程!


ロボットには役割を持たせろ、と云う事ですね。

「不気味の谷」に住むロボットが、人間に必要なのだろうか、という疑問を持ちました。

ロボットに使われるようではね。でも、日本人は、、、
    • good
    • 1
この回答へのお礼

ご回答ありがとうございます。
<「不気味の谷」に住むロボットが、人間に必要なのだろうか>ですね。
不必要なのか、是非とも必要なのか、思案のしどころですね。

お礼日時:2020/06/11 14:24

>病院で、医師が患者を問診している際、医師の斜め後ろに、人間型ロボットである看護師(婦)が立っていると、問診が円滑に進む、のだそうです。



ワシなんか、ミニスカートのピチピチ看護婦型ロボが立っていたら、ますます饒舌になってしまうと思うがの。

しかし、医療経験が10年もないような若手の医師に問診させるのは間違え。
全国の症例と患者プロフィールのマッチングを済ませた問診専門ロボット(AIと言っても良い)が問診を完了して、診断結果と治療計画を示し、その診断の信憑性をパーセンテージで示すようにせにゃならんでしょ。

老人医療費で健康保険を崩壊させる前に、Google一社程度の開発投資をして国費で問診専用ロボを開発し、全国の老人・病人が無料で問診を受けるられるようにせにゃああかんでごわす。
    • good
    • 1
この回答へのお礼

再度のご回答ありがとうございます。
年季を重ねたベテラン医師が尊敬されるのは、長年の医療経験により頭脳に情報・データを大量に集積しているため、なのでしょうが、この情報・データをAIに入れすべての医者が利用できるようにすべきなのでしょうね。情報・データの独占を阻止される現行の医者たちはそっぽを向くでしょうが。

お礼日時:2020/06/10 19:31

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!

関連するカテゴリからQ&Aを探す