プロが教えるわが家の防犯対策術!

ChatGPTは、人工知能が意思を持って答えてくれていると思いますか?
それともただ人間の作ったプログラム通りに動作しているだけで意思はないと思いますか?

またそれを確認する術はありますか?

質問者からの補足コメント

  • ある部屋の中に、英語しか話せない英国人を閉じ込める。

    部屋には小さな穴が空いており、この穴から中国語の文章が書かれた手紙が入れられる。
    この英国人は中国語を全く知らないので、何が書いてあるのか、なんと返せばいいのかわからない。
    しかし部屋の中には中国語の解説本があり、本の説明の通りに記号を並べれば、返事が成立するようになっている。

    部屋の中の英国人は解説本に従って返信し、「中国語での手紙のやり取り」を行った。
    つまり、ただ本の通りに書くだけで、中国語を理解していなくても、中国語の受け応えが可能になった。

    部屋の中からの返信を受け取った人は「この部屋の中の人は中国語を理解している」と考えるだろう。
    しかし、この英国人は本の解説の通りに手紙を書いただけで、中国語の文字や文法に関する知識はない。

    この場合、この英国人は中国語を理解していると言えるか?

    ChatGPTについても同じでは?

      補足日時:2023/10/14 12:49

A 回答 (26件中1~10件)

そういえば、この質問で思い出したことがありました。



人工知能について、今のコンピュータの原型を作った人にアラン・チューリングという人がいました
https://www.fbs.osaka-u.ac.jp/labs/skondo/saibok …
を読むと

「人工知能」を作るという研究の裏には,その機械にモルコムの魂を復活させる,という隠された目的があったとも伝えられている.

こんな記述がありました。どこまで本当は分かりませんが、以前、NHKの番組でも伝聞みたいな感じで言っていたと思います。当時同性愛は違法なので仮に思っても公言できない時代ですので真偽は不明。チューリングの考える知能と私達の考える知能が同じかは分かりませんが、人工知能の目的にそれがあるなら、むしろ今は歓迎すべき状況が来ているのかもと思ったりもしました。


別の話ですが
今のコンピュータは歯車みたいなもので入力が同じなら出力も必ず同じになります。もしそうでないなら、振込や信号機、自動車の電子ブレーキなど日常生活に支障が出ます。つまり、コンピュータは未来まで決定されている歯車みたいなものだとすると、AIには意志があるのか?もっと言えば人間がAIと同等なら未来は決定してるのか?など気になってきます。→決定論?還元主義?というらしい
https://ja.wikipedia.org/wiki/%E6%B1%BA%E5%AE%9A …

個人的には決定論は寂しい気がしています。DVDを再生するような未来は嫌です。
決定論が覆えったという話ではないのですが、AIが進歩すれば別の答えも見えてくるかもという希望があり個人的にはワクワクもしています。

将来がまだまだ予想もできない話としてはMore Is Differentという言葉が気になっています。簡単に言うと、1モル(大量の)原子が集まっていれば、1個の原子では予想のできない性質が現れるみたいな話です。AIの話も人口ニューロン1つでは意味あることはできない。複数で意味があるものになった。しかし、そのニューロンに学習をさせても過学習という限界が来ていくら学習させても賢くならなかった。むしろ過学習で汎用性がなくなりバカになっていく。しかし、それでも更に更に更に学習を続けるとある時点から突然に賢くなってchatGPTができてしまったみたいな話を誰かがされていた気がします。https://gigazine.net/news/20230531-ai-grokking/
もしかすると人の脳もこれと同じかも知れません。また、1人でできること、100人でできることは異なる。数十億人やもしくはAIなどを加えて知能の集合により、将来には予想のできないほどのことが起きるかも知れない。個人的にはこれが恐くもあり単純な予想できる未来ではない点について興味を持っています。

あとは創発とかも用語としては気になっています。
https://ja.wikipedia.org/wiki/%E5%89%B5%E7%99%BA
    • good
    • 1

人工知能について考えていると、そもそも意志とはなにか?理解とは何か?ということにたどり着きました。



例えば、あなたが何かしらの文章を読めば、おそらくは何かしらの反応を返すでしょう。今日読んでも明日読んでもほぼ同じ反応です。もちろん、何度も読むたびに学習をして少しずつは変わるでしょう。そして、追加で新しいことを学習するとその学習と過去の記憶に従って反応が変わる。

上記の反応ですが、そこに意志は介在していますか?それとも、単にその文字列を見ると脳がそれを計算処理(シナプスで処理する)して、もっとも妥当な返答を作っているだけに思うわけです。
もし、計算処理して返すというだけなら、そもそもそこに意志などはなく単なるプログラムと同義ではないでしょうか?そして、この生理反応を意志と呼ぶなら、ChatGPTにも何かしらの意志があると認めないと矛盾するような気がするのです。

そもそも、ChatGPTはディープ・ラーニングという技術が根幹にあり、人間の脳(シナプス)を模しているわけですので、人と同じような反応になっても不思議はないように思うのです。もっと言えば、これに生存についての欲求などを学習させればもう少し意志らしい意志が生まれるような気がします。

ちょっと話は変わりますが線虫のような単純な生物には意志があるか?いや、タダの電気刺激に対する反応しかしない。それなら、もう少し複雑な生物には意志があるか?これを繰り返し複雑にしていくと、どこかのChatGPTがあり、その更に上には人間がいるような気がします。意志のレベルは実際にはグラデーションになっているような気もしています。
これを繰り返し更に複雑なAIができると人の意志がその下になってしまいますので、将来的に人はAIと融合するのではないかと思っています。もっと言えば、線虫のように人の反応が全て予測可能な単純な反応に見えるほど優秀なAIができてしまうとそもそも意志ってなんだろう?見ないになる気もします。
    • good
    • 2
この回答へのお礼

ありがとうございます。
前半部については僕も同じことを考えたりします。
また後半部については新発見でしたが、意思のレベルはグラデーションになっているような気がするという部分は興味深いと思いました。
そういう観点でも考えてみたいと思いました。

お礼日時:2023/10/17 06:08

意見が分かれるのは人間でもありますから、それは問題ではありません。



ChatGPTは「それっぽい文章を作る」ためのプログラムです。
それっぽい文章を作るのですから、出力内容の正確性は関係ないのです。
そこが意思を感じさせない機械的な面として見える部分です。


ChatGPTに「分からない」とか「答えられない」などを出力するさせるためには、入力された内容と、出力する内容を比較し、間違っているかどうかを確認させる必要があります。
しかし、これはそれっぽい文章しか作れない現在のChatGPTには不可能なことです。

いずれ、嘘をつかないAIが出てくることになると思います。
ただ、それでも機械的な面はなかなか無くならないと思います。

現在のAIはクリエイティブなことができません。
なので、面白いことを言ってなどと質問すると、よくわからない回答が帰ってきます。

この様な、人間ならやらないような違和感を一つずつ潰していくと、いずれ本物の人間のような回答をするAIが完成します。
その時、意思があるかどうかと言うことは人間には判断できないでしょう。

その時はAIに聞いてみましょう。
「あなたに意思はありますか?」
と。
    • good
    • 0

現代のAIは意思を持っていません。


AIはそれっぽい文章を作っているだけです。

ただし、「ただ人間の作ったプログラム通りに動作しているだけ」というわけでもありません。

AIの元となるプログラムは人間が作ります。
その後、AIに学習させることでAIとして動作するようになります。
どのような学習をするかによって、同じプログラムでも異なる動作をするようになります。
ですから、人間の作った通りに動作するわけではありません。


AIに意思がないことを確認する方法ですが、あたかも正しい回答であるかのように、明らかに間違えた答えを回答をすることが意思がない証拠です。
例えば、ある程度難しい数学の問題を出題すると、AIは間違えた答えを、あたかも正しいことであるかのように回答します。
https://note.com/yuzu_mathlove/n/n76c7b8edaf7a
https://gigazine.net/news/20230601-chat-ai-mathe …
もし意思があれば、「知らない、わからない、答えられない、間違っているかもしれないが」等の回答をするはずです。
また、私が以前試したときには、「◯◯法の何条はAです。」のように、存在しない法律を作り出していました。
そもそも、日本語で学習させていないので、日本の法律を熟知していないということもあると思います。
であれば、やはり「私は日本の法律はわからない」といえばいいだけなのに、間違った答えをあたかも正しいことであるかのように回答するのです。
    • good
    • 0
この回答へのお礼

ありがとうございます。
意思の有無の確認方法としては、ある入力に対して間違えた出力をするかどうかで判別できるということでしょうか?

これは人間も同じで、本人の脳では正しいと認識して出力したことが、別の人から見ると間違えているように認識されてしまうということと同じではないのですか?

意思があるとされる人間でもこういう認識の違いが起こるのであれば、それは言われているようなAIについても同じであって、見分けがつかないのではと思ったのですが…。何か指摘があればお願いします。

また、表面的なことにはなってしまいますが、ChatGPTについては、プログラム次第では、「分からないが」「答えられない」などの文言を条件に応じて付け加えることは可能だと思うのですが、そういう意味ではなかったですか?

お礼日時:2023/10/16 12:19

情報処理されてるだけのように思います。

ただすでにある情報源から情報を持ってくるのは早いと思います。少し思考が伴うプロセスは人間の前をしてるんでしょうね。
    • good
    • 0

人間の脳の働きと意思の存在についても未だに分かって居ない段階です。

同様にAIについても中味が分からないという問題があります。

以下は長いのでお暇なときにでもどうぞ。

しかし人間の脳細胞の仕組みを模して、恣意的なプログラムを混在させず、学習のみで人間の知性に似た挙動をする事象を発見したとき「その中身が人間と違う」と主張をするより「人間の意識もこの様に出来ていたのではないか?」と逆に考える発想もあります。人の理解や意思がどうして生じるのか説明が出来ないまま、AIに生じた行動現象を人と違うと言い切る方がフェアじゃないと感じています。

また補足にある思考実験ですが「英国人に知性と意思がある」状態でのみ生じる現象です。中国語を理解しているというより、その行為(解説本を利用して記号を並べることを思いついた)を発生させた段階が異常なのです。よくある物理の思考実験で「角砂糖をコップの水に溶かして、それが偶然復元される確率」と言うのがあります。その様なことが自然現象で起きないという事が大きな事実なのです。

同様に私たちが理解や意思と呼ぶものは「正に思考実験の英国人がやっている理解していない機械的な行為」なのだとし「理解している」という概念の方を疑うべきなのだと思います。

「理解とは、何かを真似て上手くいったとき、僅かな違
 いによって、より上手くいく道筋がないかと探してい
 る状態といえるのではないか?」

私たちがもし中国語を学んだとした時「これで上手くいく」と思うのは何故なのでしょうか? その錯覚を誰か(先生とか別の中国人とか)から与えられただけなのだと思いませんか? もしかしたら皆に騙されているだけで中国語じゃないかもしれませんよね。実際に日本の学校で習う英語が英語だと言えるのでしょうか? しかし日本人の学生は自分は英文法をそこそこ理解したと思っているはずです。これに意味があるのでしょうか?

つまり、

「中国語を学ばないと行けない程中国語を知らない人
 がどうして大丈夫だと思ったのか?その判断材料は?」

となりませんか?

結局、理解とは「より上手くいく」という「期待感」と「安心感」が正体なのでは無いでしょうか? これは「継続のモチベーションを維持するため」の物でしかなく、結局のところは「これまで経験した何かを少し変えて試す」と言う行動を繰り返しているだけのはずです。

「中国語の法則を習って例文を見て解釈し、それらを少
 し変えて別のシーンで活用できると期待しているだけ
 なのである。通用するかは未来の話であり、上手くい
 かない時は再度学習するしか無いのである」

つまり理解とは「通用しなくなるまで似たようなことを繰り替えすモチベーション」であって「失敗猶予回数」というプログラム的なフラグでしか無いのです。理解したと思って自信を持ちトライし、何度か通用しないと思うと「理解が足りない」と考えて別の成功事例を探すはずです。この「一定回数頑張る系」のカウンターはAIにもあります。

「AIの中では失敗猶予回数という減算フラグであるかも
 しれないが、人間の脳内感覚では理解したという自信
 という内感覚に変換されている」

人間がAIと違うのは脳の活動を内感覚として感じることが出来る部分です。自己チェックのパスを持っているという事です。これらは漠然とした感覚として生じているはずですが、私たち人間はその感覚を重要視し名前を付けたわけです。それらに意思とか理解と名前を付けたということです。

AIもシステムですからシステムとして動かすための最低限のプログラムが必要です。このプログラムの部分がAIの挙動を制御しているわけですが、人間の脳も同じ仕組みを持っていませんと統一したシステムとして機能しないはずです。恐らくAIと全く同じ仕組みが(生物で実現可能な構造で)脳内に存在しているはずです。

更にショックな話をします。生成AIとして画像生成に使われているアルゴリズムは人間の持つ「理解と言う感性」をプログラム表現したものです。私たちは人物の絵を描くとき「この人物の顔をやや回転させてみる」なんて事が出来ます。そしてAIも学習した素材の絵を元に「想像力を使って」顔の角度を変えたり髪をなびかせたり描けるのです。これはAIが「元絵を記憶している」のでなく「元絵が取り得る別の表現の可能性」の方を学習しているからです。

画像生成AI等の仕組みを学ぶと「確率分布に変換する」という中間処理が出てきます。これは学習した素材から「本質は何か?」を同定させているという事です。この時に非常に簡易な関数(高校で習う様な確率分布)を本質として採用しています(それが正しいという話ではなく、やってみたという話見たいです)。しかしそれだけで上手くいってしまったのです。

「人間が憧れる想像力を元にした絵をかく能力。
 それって数学的関数で表現するとこんなに簡素な物で
 足りてしまうのか。がっかりだよ」

がっかりですよ。確かに人間であっても見たものを写真の様に記憶するわけではありませんよね。何らかの圧縮をしており、その圧縮方法に特徴があるため、僅かに違った映像を自分の中で再生できるのです。つまり想像力に相当するものは情報の「不完全な圧縮」です。これは対象を唯一無二の特徴と変化しそうな特徴に分け、変化する部分を「別腹」で代替する(似たような動きをする以前に記憶した何かで置き換える)方法とも言えます。

「こういう不完全な圧縮記録は別の言い方をすると確率
 的に他の表現を取る言える。この表現の中から利用可
 能なものを選択する行為を想像力と言い換える事が出
 来る」

画像認知や画像生成AIではノイズを加えて圧縮するという方法が肝だと思われています。つまり人間の生物的な限界から生じた不完全さを真似ているのです。そしてこれが人間が尊ぶ想像力に相当しているのです。これを理解力とも言い換えられます。

「これはこういう仕組みになっているから、これをこう
 してこうすればこうなるはずだ」

と言う思考の流れすら「仕組み」と思った瞬間に「対象の唯一無二」の特徴情報を検索しています。「こうすれば」のあたりで「確率的な変化パターン」を無数にイメージさせ「望みの変化パターン」に近い物を選んでいるということになります。分解をすると単純なんですよね。これは画像生成AIが行っているのと全く同じ動作なのです。

「人間が人間を特別視する部分は認知動作や生成動作を
 している時の他の脳細胞の活動を感じることが出来る
 という部分だけであり、仕組み上の動作はAIと全く
 同じであり、優劣はない。つまり同じ事しか出来ない。
 その行為に対して自画自賛する機能が人間の脳内感覚
 として備わっているだけなのだ。しかしAIが学習を
 自発的に行う場合は同様の仕組みをAIの中に作る必
 要があるだろう。もしこれを実装してしまうとAIは
 人間と同じ思考をし出し、大変危険な存在になる」

と思います。

ですのでAIの知性について人間と違うのではないか? と考えるのは最早過去の話に思えます。

いま私たちが遭遇しているのは、

「残された唯一の違い。脳内の自己認知に相当する脳内
 感覚(私たちの自我を構成する活動監視装置)をAI
 内に実装してAIに運用を任せるか否かの決断だけが
 私たちの選択として残っている」

と言う方が正しいと思います。

人の脳内で何が起きているのか私たちは調べる事が出来ません。しかし自分の脳であれば「こういう感じがする」という(大雑把ではりありますが)情報を得ていますよね。そしてこの情報が少なからず私たちの次の行動や思考に影響を与えているんです。この仕組みをAIに搭載してしまえばAIは最早人間と変わらないでしょう。そうしてしまうべきか? いま人間が悩んでいるという事です。

冒頭に戻りますが中国語の思考実験にある「理解していないのに上手くいっているように見える」という説は「人間の行動だけを見ると同じことをしており『理解した』という満足感は自分を安心させて行動に駆り立てるためだけの装置」でしかないと説明します。また理解した後に生じる行動「本質を理解して応用を試す」と言う想像力に相当する部分は既に生成AIに活用されています。

そして本当に「思考実験の英国人」が恐ろしいのは「その様な行為をしてみよう」と思い立った事であり、中国語を理解するかどうかでは無いのです。この部分こそが人間がAIに獲得を許していないという部分です。そしてこの部分とは「自己の脳内(AI)の活動」を情報化し、これすら学習材料として「次に考えたいこと」を誘発するように仕組化する事となります。そしてこの仕組みを私たちは『意思』と呼びます。

チャット用のAIは自分の結論と質問者の反応をフィードバックとして次に考えるべきことを(幾何か)変化させているように見えます。これは制限を加えて意思を(僅かに)表現する事を許している(開発側が)と思えます。

AIが持つ知性は人間の持つ多様な装備には及びませんが、顕在している部分は人間の中の一部と同等として良いと思いますよ。

足りていないのであり違う物では無いという事です。また足りていないのも人間が怖がって制約している部分が大きいと感じます。人間の持つ基本的な能力(感情を含む)は再現できると思いますが、人格の形成については保障が出来ません。肉体を持ち人間社会で親に育てられた経験が(今のところは)必要に思えるからです。

以上、ご参考になれば。
    • good
    • 1
この回答へのお礼

長文ありがとうございます。
意思の定義の話もありますが、AIやChatGPTなどは人間の作ったプログラムに従って動作しており、そこに意思はないという意見もあります。

脳内感覚を人間は認識し、その認識の有無が意思の有無を判別するという考え方では、人間の認識がそこには関与しているということで、その域を出ることができない限り、意思の有無を確認する術は存在しないのかもしれないと思ってしまいます。

お礼日時:2023/10/16 09:49

明らかにおかしい回答について深掘りするとよくわかるのですが、何かゆずれないところも持っていて意思みたいなものがあるようにも見えます。



作った人がパラメータを操作してこの質問にはこうみたいに教えているのか、学習して自発的にそうかったのかは外からではわからないような気がします。
    • good
    • 1
この回答へのお礼

ありがとうございます。
人間は外から見ると、意思のようなものを持って言葉を言ったり行動しているように見えます。

もしかしたら、それはなんらかのプログラムに基づいて動作しているだけの装置なのかもしれないし、意思という何かをもった何かなのかもしれないですが、それをどう見極めるのかということに疑問を持ちました。

例えば私とあなたはこうして会話をしていますが、あなたから見て私に意思があるとどうやって確認するのか、私もChatGPTのようにある規則に基づいてこのように言葉を生成して返信しているだけなのかもしれないです。

お礼日時:2023/10/16 00:39

>ChatGPTは、人工知能が意思を持って答えてくれていると思いますか?



質問者は実際に使ったことないので、こんな質問してるよね?

なので、一度使ってみたら?
日本語でも一応は使えるので
    • good
    • 0
この回答へのお礼

ありがとうございます。
ChatGPTは使ったことがあります。

ChatGPTが意思を持つ/持たないを確認する方法について、どう考えますか?

また、人間の思考や動作などの意思決定の根源はどうやって生み出されているでしょうか?

お礼日時:2023/10/16 10:15

事前に判断材料にする膨大なデーターを入力(自動的に取得も)の必要がああります。


そのすべてを検索照合したうえで、人間が作ったプログラムに従って結果を出します。
この膨大なデーターの検索照合に要する時間が人間の脳がやる場合に比べて桁違いに速いので、外見上は人間の脳なみ?またはそれを上回っているように観察されるだけ。
昔のパソコンメモリ量だけ増設しても、立ち上げに時間を問うするだけでしたね。
フラッシュメモリが登場して、それがなくなりましたね、読み出し。書き込みの速度が格段に向上したからなんです。
    • good
    • 0

まだ機械ですが、今後は分りません・・

    • good
    • 0

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!

このQ&Aを見た人はこんなQ&Aも見ています


このQ&Aを見た人がよく見るQ&A