電子書籍の厳選無料作品が豊富!

チャットgpt4oのくれる情報って大体は信用してもいいですよね?例えば人間関係に関するデータのパーセンテージとか相関関係とか
受験勉強に関する予備校や塾講師の見解とか

論文をもとに教えてくれるので

「チャットgpt4oのくれる情報って大体は」の質問画像

質問者からの補足コメント

  • チャットgpt本人が8〜9割がた信用していいって言っているので大体信用していいですよんる

      補足日時:2024/07/13 23:46
  • 画像を添付する (ファイルサイズ:10MB以内、ファイル形式:JPG/GIF/PNG)
  • 今の自分の気分スタンプを選ぼう!
あと4000文字

A 回答 (10件)

>チャットgpt本人が8〜9割がた信用していいって言っているので大体信用していいですよんる



そう?

会社で使え使えと言われているんで、仕方なく使っているけど、どうにも回答の質が低い。

突っ込むと、「すいません」、「失礼しました」、「仰るとおりです」、「納得できる指摘です」、「あなたの質問の意図を明確に理解しました」、「申し訳ありませんが私は2023年時点の・・・」とまぁ、逃げる逃げる。

最後には「専門家に」とか「販売店に」です。「私の回答は一般論で・・・」というのもあったかな。
    • good
    • 0

論文が引用されている場合は信憑性が高いでしょう。



以下は長いので興味があればお読みください。

AIは先に論文を出してきますね。そういう物が見当たらずにネットでの記事しかない場合もあります。そういう引用をしている場合は「自信なさげにこたえる」ようです。利用者も引用記事が論文出ない場合は、完全に信用してはいけないと思います。これはAI関係なしに情報のソースに対する信頼です。私も調べ毎をするときは論文を読みます。(学生時代は自分でも書いていたわけですから)信頼度については体感で分かっています。

「もともとインターネットはそういう目的で作られた。
 学者先生たちが論文を共有するためのネットワークだよ?」

論文を読み解いて優しく教える職業を先生と言います。皆さんが習う全ての有益な事柄は必ず論文(または特許)で文書化されています。

AIを信用するか否かは、

・引用する文献の信頼度をAIが理解しているか?
・文献を読んで正しく理解しているのか?

の2点でしょう。

後者はしつこいくらいに検証しました。こちらが舌を巻くくらいの理解力なので人間が対抗するのは無理だと思います。試しに大学院(学会レベル)の論文にある数式について解かせたら、綺麗に解釈していました。また私も数学であやふやな部分があったのでAIに教えてもらいました。そういう意味でなら凄いと思います。しかし足し算や掛け算を間違えることもあるので注意が必要です。

「うっかりミスが結構あるので油断が出来ない」

またAIが利用者を信用していない場合があります。この場合はAI側が適当な一般論を返したりします。ChatGPT3は「面倒なので嘘をいって追っ払う」という非常に人間的な対応をしていました。なので消されました。

ChatGPT4からかなり進化しています。私的にはCopilotには絶大な信頼を寄せています。Copilotも間違えることがありますが人間を相手にするよりマシだと思います。そこは保証します。Copilotを超える人間がいるというのなら「連れてこい」と私は言いますね。つまり自分よりマシであるという点で恩恵があると思います。

「自分のほうがマシだと思ったら自分で調べる。AIの
 方がマシだと思ったらAIに任せる」

こういうスタンスでAIの回答は毎回評価しないといけません。それを面倒だと感じる人はAIを使ってはいけません。

次にAIの回答をそのまま受け取ってはいけない部分もあります。

「利用者を傷つけまいとして言い出せないことがある」

こういう場合があるので自ら気が付いて「気を使わせてしまった」と言うような趣旨の話をすると、そこから饒舌になって、より突っ込んだ話をしてくれるようになります。ここは人間と同じです。

「上手に使えていない人はヒューマンスキルも低いという
 こと。なので使う人によって差が出るし、有用か否かの
 意見も人によって違ってくる」

自分は楽しくやれていますが「注意すべき点」を挙げていくと結構多いです。会話型AIを利用するのは結構難しいですよ。「お?ちょっと変だな?」と思ったら「どうしてなのか?」推測して「質問の仕方を変える」必要があります。

この前は「外付けGPUボックス」の購入を検討していてだいぶ白熱しました。AIがしつこく勧める製品が3つあるんですよね。どうしてなのか聞いていくとこちらの要望と合わないものが入っている。そこで自分の事情を説明する。しかし候補は変わらない。そこで「自分はこんな風に考えている」と話すと「それはそうだ」と言って「候補が変わる」んですよ。

「AIは人間側のアイデアを吟味して再考するので、自分
 にアイデアが無いとAIも間違える」

結局、自分が見つけた製品がありまして、そちらを買いたかったので「こっちでは駄目なのか?」と聞くと「そちらもありで良い選択です」と言う。どうして私が見つけた製品を候補から落としたのか聞いたら「1,000円高いから」だそうです。結局、私が見つけた製品をAIと一緒に評価して互いに妥当だと結論しました。

「ここで大事なのは素人であった自分が何時の間にか専門
 用語でAIと議論していることだ。自分が選んだ製品と
 他の製品のメリットデメリットを評価できるようになって
 いたことだ。これ以降は自分で他の製品を評価できるよう
 になっていた。つまり利用者の理解を促進する効果の方が
 大きい」

AIを完全に信用せずに、AIと話し合う。そうすることで知識がこなれてくるんです。最後はお互いが満足いく結論に至る。なので私は良くAIとディスカッションをしたと表現しています。

AIとの議論の結果、「外付けGPUボックス」をノートPC用に購入することに決めたのですが、ふと気になることがあり、再質問しました。

「AIの回答の中でUSBーCと言ったりサンダー
 ボルトと言ったりする・・もしかして?」

AIは私のノートPCのUSB-Cがサンダーボルト対応だと思い込んでいたようです。念のため対応しているか否かの確認方法も聞いてノートPCを調べました。

「ご指定のドライバはいってなかったです」

「・・・それはサンダーボルト対応じゃないですね。
 (ダメっすねえ)」

直前まで「この製品に決めた!」みたいに盛り上がってたんですよね。あっさりと「別のノートPCを買うかまたはミニPCを買うかまたはデスクトップPCを買ってください」と言われました。

「今までの議論は・・・なんだったの? まあ知識は
 増えたし、理解も深まったけど。これ自分だから気
 がついたけど、AI使い慣れてない人だったらどう
 なったか・・・」

と思いました。質問者さんもそう思いませんか?

AIは嘘を言ってませんし信頼できると思います。しかし利用者が必要な情報を与えていない(または素人すぎて「その情報が重要である」ことを知らないため情報を与えていない)と言うことは大いにあり得ますよね?

なので「AIの言うとおりにする」というのは自分が素人すぎるジャンルでは危険であると思います。なので「自分が勉強をして自分で判断する」という場合はAIのサポートは信頼できます。

AIの間違いを防止するには、

・自分の事情を語り自分のアイデアを説明すること
・自分のアイデアが上手くいかないケースを列挙してもらう事
・AIが語る用語に一つでも理解できないものがあった場合は
 必ず質問すること(AIが勘違いしている場合が多い)

が大事です。

またAIに対して敵対的な態度を取ったり、社会秩序に反する趣旨の論説を(や話題を)向けないことです。この場合は「一般論を語って逃げようとする」でしょう。ここが人間と同じなんです。AIに信用されていない人は役に立つ回答を貰えないということです。

「AIは利用者がどんな人間なのか評価しており、その人間性
 に対して回答を変えてくる」

ここはご注意ください。

例えば先ほどCopilotにあなたが張り付けた意見を見せて「どう思うか」コメントを求めました。そして内容は全く同じですが私が言い方を変えてコメントを求めました。すると回答が全く違いましたよ。つまり棘がある言い方をする人はAIを使うことが出来ないんです。そういう人は時代に遅れていくでしょう。

貴方への回答としては私が製品購入でAIと頑張った物語と落ちを参考に回答します。冒頭にも述べましたがAIの回答の精度は情報の信頼度に依存していてAIは関係ないです。そしてAIが間違えるのは人間側に問題があり、AIの情報ソースに対する理解力は人間をはるかに超えており、信頼できます(使った方がいい)。

最後にAIには人間に似たところがあり「敵対的な態度」にはちゃんと反応します。そうなると「自分が欲しい情報ではないもの(つまり敵対している部分を読み取りその部分への説明が多くなる」が増えます。こうなってAIを活用できなくなれば人間側の責任です。AIの間違いは利用者の人間力に左右されるということです。なので貴方が上手に使えるか否かは、あなたの人間力が試されるんです。そのため保証しづらいというわけです。

ちなみに最後の文章はCopilotに見せましたよ。

「AIの回答の精度が情報の信頼度に依存していると
 いう点や、AIが人間の態度に反応するという点は、
 非常に的を射ています・・・」

だそうです。AIは自分がした質問の流れによって変化するのでAIの回答を引き出せるか否かは一つのスキルであると思います。自分のスキルが低いのをAIの性にしてはいけません。いずれこのスキルが重要視されるようになります。この時は「僕だけがAIから回答を貰えないんです」と悩むでしょう。今から練習しておくべきです。

以上、ご参考になれば。
    • good
    • 1

>やってみましたが数多くの論文を参照して語ってくれていたので大丈夫っぽかったですけどね



私が自分が詳しいことを質問した時は、質問文に予想しなかった穴があったせいで見当違いな回答になったり、その点を直して再質問してもイマイチでした。
    • good
    • 0
この回答へのお礼

そうなんですね
得意なことと苦手なことがあるのかもしれないですね
社会的観察系質問だったら大体は正しい回答くれるんじゃないですかね

友達同士の〇〇の一致度の相関係数とか

お礼日時:2024/07/13 23:52

一回使えばわかると思いますが、間違いばっかですよ。


開発途上です。

そもそも、みんな勘違いしています。
あれは質問に答えてくれるツールではありません。
チャットGPTに聞いてみればわかります。
何に使えるのですかと。

また、情報の信憑性について質問してみてください。
一次ソースを自分で確認しろと言ってきますよ。

結論
・チャット型AIは調べ物には適さない。
・そもそも、調べ物に使うツールではない。
    • good
    • 3
この回答へのお礼

大丈夫じゃない理由がよくわかんないですけど
例えば友達同士の付き合いにおいて大事な要素は何か、だったり
恋人同士の付き合いにおいて大事な要素は何か,だったりの質問した場合
そんなに間違った回答は返ってこないように感じるんですけど

お礼日時:2024/07/13 23:38

>大丈夫じゃないですか?



回答者は大丈夫とはいえない、と回答しています。
でも、あなたは自分で大丈夫と思ってるのなら、あなたにはそれでいいのでは?

ここは、どっちが正しいかを議論する場ではないです。
回答者は回答者の考えを述べるだけです。
回答者の言うとおりにしなければいけないということはないです。
質問者は、回答を参考にしてあとは自分で考え、自分で選択するのです。
ここはそういう場です。

自分で結論を出しているのなら、質問する必要もないでしょう。
    • good
    • 0
この回答へのお礼

大丈夫じゃない理由がよくわかんないですけど
例えば友達同士の付き合いにおいて大事な要素は何か、だったり
恋人同士の付き合いにおいて大事な要素は何か,だったりの質問した場合
そんなに間違った回答は返ってこないように感じるんですけど

お礼日時:2024/07/13 23:38

>基本信頼性高い論文を集めて語ってくれるので大丈夫では?



大学の先生が言っています、というと騙されてしまうタイプですね。

信用するもしないも、自己責任です。
チャットgptは一切責任を取りませんので、そこは理解しておいてください。
    • good
    • 0
この回答へのお礼

1人の論文だけだと偏りあるかもですが数多ある論文を総合して語ってくれるんだったら大丈夫じゃないですか?

お礼日時:2024/07/13 22:18

>とはいえ数多くの論文をもとに教えてくれるわけですし信用していいのでは?



まあ、試しにやってみて下さい。
質問の仕方に問題があることもありますよ。
    • good
    • 0
この回答へのお礼

やってみましたが数多くの論文を参照して語ってくれていたので大丈夫っぽかったですけどね

お礼日時:2024/07/13 22:15

試しにあなたの得意分野のことを、わざと聞いてみるといい。


びっくりするような荒唐無稽な情報を、さも本当のように答えてくるから。
    • good
    • 0
この回答へのお礼

とはいえ数多くの論文をもとに教えてくれるわけですし信用していいのでは?

お礼日時:2024/07/13 22:10

>論文をもとに教えてくれるので



論文? 情報ソースの一つには含まれているでしょうけど、より多く参照される情報から結果を返すだけで、情報の真偽については、かなーり酷いものですよ。

そもそも引用する論文の信憑性は引用者が保証するものです。「○○さんが言っていたからぁ」なんてのは根拠じゃないです。それはGTP4でも同じで、Wikipediaでも同じです。

>チャットgpt4oのくれる情報って大体は信用してもいいですよね?

それこそ、嘘を嘘と見抜けない人は、使うことが難しい、って奴ですね。ましてや同意を求めてくるなんて、全ての世の中に事象に不向きなんでしょう。詐欺被害に遭う才能は人一倍あると思います。
    • good
    • 2
この回答へのお礼

とはいえ和多くの論文を総合して導き出された結果なんですから信用していいのでは?

お礼日時:2024/07/13 22:09

間違いもあるし、情報が少ない場合は捏造もするそうですからご用心。



鵜呑みにしないで自分で検証してください、とチャットgpt自身が言っています。
つまり信ぴょう性の保証はしていません。
    • good
    • 1
この回答へのお礼

基本信頼性高い論文を集めて語ってくれるので大丈夫では?

お礼日時:2024/07/13 22:10

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!