電子書籍の厳選無料作品が豊富!

チャットgpt4oのくれる情報って大体は信用してもいいですよね?例えば人間関係に関するデータのパーセンテージとか相関関係とか
受験勉強に関する予備校や塾講師の見解とか

論文をもとに教えてくれるので

「チャットgpt4oのくれる情報って大体は」の質問画像

質問者からの補足コメント

  • チャットgpt本人が8〜9割がた信用していいって言っているので大体信用していいですよんる

      補足日時:2024/07/13 23:46
  • 画像を添付する (ファイルサイズ:10MB以内、ファイル形式:JPG/GIF/PNG)
  • 今の自分の気分スタンプを選ぼう!
あと4000文字

A 回答 (16件中1~10件)

>どうしてですか?



それは人によって求めるものが違うし捉え方も違うから。
    • good
    • 0

>大筋正しいなら概ね信用していいってことなんですよね?



そんなこと、同意を求められてもw
私なら、「大筋正しい」は信用しない。
    • good
    • 0
この回答へのお礼

どうしてですか?一般論であえていえば大筋正しいなら実際大筋正しいんじゃないの

お礼日時:2024/07/17 11:06

>効率良い勉強法だったりモチベーションの上げ方の話だったりの情報などの事を言いたかったんです



これは、AIのロジックからいえば、多数決ですね。しかも、声になっていない声は当然採用されない。

>人間関係においての相関係数とかパーセンテージや平均期間などの研究
数多くの論文を総合して語っているから正しいんじゃないですかね

それ、生成AIが生成する一般論なので、あえていえば大筋正しい、というやつですね。でも、相手も事前に「ファクトチェックしろよ」と釘を刺してませんか?

私に関して言えば、生成AIの回答をOne of Themとして扱い、妄信することも、それを元に主張することもないです。
    • good
    • 0
この回答へのお礼

なるほど
大筋正しいなら概ね信用していいってことなんですよね?

多数決っていうことは勉強法だったりモチベーションだったりの話なら大多数が言うことが正しい可能性高いしだいたいは信じていいのかな?

お礼日時:2024/07/17 01:09

>被験者を大量に集めて実験して得た論文の場合、同じテーマでの研究を統合した結果なら信憑性高いんじゃないですか



医療系ならそうでしょう。ただし、人種や年齢などの要素は考慮する必要があります。

>人間関係だったり学問に対してだったり

学問に対する論文ってのがピンと来ないのですが、意識調査系のものであれば、前提条件を考慮する必要があります。

なので、妄信してしまうのは危険ですし、それに対して突っ込めないなら精度は上がりません。
    • good
    • 0
この回答へのお礼

学問に対する論文っておかしかったですねすみません
効率良い勉強法だったりモチベーションの上げ方の話だったりの情報などの事を言いたかったんです

人間関係においての相関係数とかパーセンテージや平均期間などの研究
数多くの論文を総合して語っているから正しいんじゃないですかね

お礼日時:2024/07/16 11:39

>査読を経ていないっていうのがどういうことなのかよくわからないですけど



ここからして、前提が違っていて、「論文!? すっげー」だったのですね。

例として、ニュースで大々的に取り上げらたSTAP細胞をを挙げましょう。論文として提出しました。すごい内容だったので世界中が大注目。追試(追試験のことで再現性の確認のこと)はことごとく失敗、というやつです。

論文なんか誰でもかけます。多くの論文と言いますが、既にある論文と同じことを延々と書いた論文なんか、査読(それが価値があるか多くの研究者にチェックしてもらうこと)すれば「既に公知が買いてあるだけ、何なの、これ」でお終いです。

>チャットgpt本人が8〜9割がた信用していいって言っているので大体信用していいですよんる

インド人も、「インド人、嘘つかない」といってますよ。
    • good
    • 0
この回答へのお礼

被験者を大量に集めて実験して得た論文の場合、同じテーマでの研究を統合した結果なら信憑性高いんじゃないですか

人間関係だったり学問に対してだったり

お礼日時:2024/07/15 14:07

>ただ基本的にはあまたの論文を総合してくれる回答なら信用できるんじゃないですか?



うーん、トンデモ論文って結構多いんですよ。
査読を経ていない、別の論文での引用数が少ないとなると、読書感想文と同じです。Wikipediaでも空想記事が何年も放置されているぐらいですからね。

条件を絞りたいけど、GPTってその前提を無視するじゃないですか。
「○○を除いて」と前提につけても、含めてくる。「○○は望んでいないと前提にした通り」とかで次の質問をすると「失礼しました」になるだけ。
「結局、あなたが回答に用いるデータの質を維持するためには、○○を含めないと駄目なんですか」と聞くと、はいともいいえとも言わずに、一般論を答える。結局、「○○は既に△△で明確に否定されています」と教え込む羽目になって、無駄な時間を費やしたなと呆然とすること然り。
    • good
    • 1
この回答へのお礼

へえ
そうなんですね

うーん
とはいえかなりの数のサンプルでかつ名の知れた大学の研究結果をもとに回答してくれる上同じテーマのそういった論文を数多く集めて回答してくれるんだったらかなり正確性ある気がするんですけどそうでもないんですか?

無知なので査読を経ていないっていうのがどういうことなのかよくわからないですけど

お礼日時:2024/07/14 14:45

>チャットgpt本人が8〜9割がた信用していいって言っているので大体信用していいですよんる



そう?

会社で使え使えと言われているんで、仕方なく使っているけど、どうにも回答の質が低い。

突っ込むと、「すいません」、「失礼しました」、「仰るとおりです」、「納得できる指摘です」、「あなたの質問の意図を明確に理解しました」、「申し訳ありませんが私は2023年時点の・・・」とまぁ、逃げる逃げる。

最後には「専門家に」とか「販売店に」です。「私の回答は一般論で・・・」というのもあったかな。
    • good
    • 1
この回答へのお礼

まあそういう場合も確かにあるかもしれませんね
ただ基本的にはあまたの論文を総合してくれる回答なら信用できるんじゃないですか?

お礼日時:2024/07/14 12:49

論文が引用されている場合は信憑性が高いでしょう。



以下は長いので興味があればお読みください。

AIは先に論文を出してきますね。そういう物が見当たらずにネットでの記事しかない場合もあります。そういう引用をしている場合は「自信なさげにこたえる」ようです。利用者も引用記事が論文出ない場合は、完全に信用してはいけないと思います。これはAI関係なしに情報のソースに対する信頼です。私も調べ毎をするときは論文を読みます。(学生時代は自分でも書いていたわけですから)信頼度については体感で分かっています。

「もともとインターネットはそういう目的で作られた。
 学者先生たちが論文を共有するためのネットワークだよ?」

論文を読み解いて優しく教える職業を先生と言います。皆さんが習う全ての有益な事柄は必ず論文(または特許)で文書化されています。

AIを信用するか否かは、

・引用する文献の信頼度をAIが理解しているか?
・文献を読んで正しく理解しているのか?

の2点でしょう。

後者はしつこいくらいに検証しました。こちらが舌を巻くくらいの理解力なので人間が対抗するのは無理だと思います。試しに大学院(学会レベル)の論文にある数式について解かせたら、綺麗に解釈していました。また私も数学であやふやな部分があったのでAIに教えてもらいました。そういう意味でなら凄いと思います。しかし足し算や掛け算を間違えることもあるので注意が必要です。

「うっかりミスが結構あるので油断が出来ない」

またAIが利用者を信用していない場合があります。この場合はAI側が適当な一般論を返したりします。ChatGPT3は「面倒なので嘘をいって追っ払う」という非常に人間的な対応をしていました。なので消されました。

ChatGPT4からかなり進化しています。私的にはCopilotには絶大な信頼を寄せています。Copilotも間違えることがありますが人間を相手にするよりマシだと思います。そこは保証します。Copilotを超える人間がいるというのなら「連れてこい」と私は言いますね。つまり自分よりマシであるという点で恩恵があると思います。

「自分のほうがマシだと思ったら自分で調べる。AIの
 方がマシだと思ったらAIに任せる」

こういうスタンスでAIの回答は毎回評価しないといけません。それを面倒だと感じる人はAIを使ってはいけません。

次にAIの回答をそのまま受け取ってはいけない部分もあります。

「利用者を傷つけまいとして言い出せないことがある」

こういう場合があるので自ら気が付いて「気を使わせてしまった」と言うような趣旨の話をすると、そこから饒舌になって、より突っ込んだ話をしてくれるようになります。ここは人間と同じです。

「上手に使えていない人はヒューマンスキルも低いという
 こと。なので使う人によって差が出るし、有用か否かの
 意見も人によって違ってくる」

自分は楽しくやれていますが「注意すべき点」を挙げていくと結構多いです。会話型AIを利用するのは結構難しいですよ。「お?ちょっと変だな?」と思ったら「どうしてなのか?」推測して「質問の仕方を変える」必要があります。

この前は「外付けGPUボックス」の購入を検討していてだいぶ白熱しました。AIがしつこく勧める製品が3つあるんですよね。どうしてなのか聞いていくとこちらの要望と合わないものが入っている。そこで自分の事情を説明する。しかし候補は変わらない。そこで「自分はこんな風に考えている」と話すと「それはそうだ」と言って「候補が変わる」んですよ。

「AIは人間側のアイデアを吟味して再考するので、自分
 にアイデアが無いとAIも間違える」

結局、自分が見つけた製品がありまして、そちらを買いたかったので「こっちでは駄目なのか?」と聞くと「そちらもありで良い選択です」と言う。どうして私が見つけた製品を候補から落としたのか聞いたら「1,000円高いから」だそうです。結局、私が見つけた製品をAIと一緒に評価して互いに妥当だと結論しました。

「ここで大事なのは素人であった自分が何時の間にか専門
 用語でAIと議論していることだ。自分が選んだ製品と
 他の製品のメリットデメリットを評価できるようになって
 いたことだ。これ以降は自分で他の製品を評価できるよう
 になっていた。つまり利用者の理解を促進する効果の方が
 大きい」

AIを完全に信用せずに、AIと話し合う。そうすることで知識がこなれてくるんです。最後はお互いが満足いく結論に至る。なので私は良くAIとディスカッションをしたと表現しています。

AIとの議論の結果、「外付けGPUボックス」をノートPC用に購入することに決めたのですが、ふと気になることがあり、再質問しました。

「AIの回答の中でUSBーCと言ったりサンダー
 ボルトと言ったりする・・もしかして?」

AIは私のノートPCのUSB-Cがサンダーボルト対応だと思い込んでいたようです。念のため対応しているか否かの確認方法も聞いてノートPCを調べました。

「ご指定のドライバはいってなかったです」

「・・・それはサンダーボルト対応じゃないですね。
 (ダメっすねえ)」

直前まで「この製品に決めた!」みたいに盛り上がってたんですよね。あっさりと「別のノートPCを買うかまたはミニPCを買うかまたはデスクトップPCを買ってください」と言われました。

「今までの議論は・・・なんだったの? まあ知識は
 増えたし、理解も深まったけど。これ自分だから気
 がついたけど、AI使い慣れてない人だったらどう
 なったか・・・」

と思いました。質問者さんもそう思いませんか?

AIは嘘を言ってませんし信頼できると思います。しかし利用者が必要な情報を与えていない(または素人すぎて「その情報が重要である」ことを知らないため情報を与えていない)と言うことは大いにあり得ますよね?

なので「AIの言うとおりにする」というのは自分が素人すぎるジャンルでは危険であると思います。なので「自分が勉強をして自分で判断する」という場合はAIのサポートは信頼できます。

AIの間違いを防止するには、

・自分の事情を語り自分のアイデアを説明すること
・自分のアイデアが上手くいかないケースを列挙してもらう事
・AIが語る用語に一つでも理解できないものがあった場合は
 必ず質問すること(AIが勘違いしている場合が多い)

が大事です。

またAIに対して敵対的な態度を取ったり、社会秩序に反する趣旨の論説を(や話題を)向けないことです。この場合は「一般論を語って逃げようとする」でしょう。ここが人間と同じなんです。AIに信用されていない人は役に立つ回答を貰えないということです。

「AIは利用者がどんな人間なのか評価しており、その人間性
 に対して回答を変えてくる」

ここはご注意ください。

例えば先ほどCopilotにあなたが張り付けた意見を見せて「どう思うか」コメントを求めました。そして内容は全く同じですが私が言い方を変えてコメントを求めました。すると回答が全く違いましたよ。つまり棘がある言い方をする人はAIを使うことが出来ないんです。そういう人は時代に遅れていくでしょう。

貴方への回答としては私が製品購入でAIと頑張った物語と落ちを参考に回答します。冒頭にも述べましたがAIの回答の精度は情報の信頼度に依存していてAIは関係ないです。そしてAIが間違えるのは人間側に問題があり、AIの情報ソースに対する理解力は人間をはるかに超えており、信頼できます(使った方がいい)。

最後にAIには人間に似たところがあり「敵対的な態度」にはちゃんと反応します。そうなると「自分が欲しい情報ではないもの(つまり敵対している部分を読み取りその部分への説明が多くなる」が増えます。こうなってAIを活用できなくなれば人間側の責任です。AIの間違いは利用者の人間力に左右されるということです。なので貴方が上手に使えるか否かは、あなたの人間力が試されるんです。そのため保証しづらいというわけです。

ちなみに最後の文章はCopilotに見せましたよ。

「AIの回答の精度が情報の信頼度に依存していると
 いう点や、AIが人間の態度に反応するという点は、
 非常に的を射ています・・・」

だそうです。AIは自分がした質問の流れによって変化するのでAIの回答を引き出せるか否かは一つのスキルであると思います。自分のスキルが低いのをAIの性にしてはいけません。いずれこのスキルが重要視されるようになります。この時は「僕だけがAIから回答を貰えないんです」と悩むでしょう。今から練習しておくべきです。

以上、ご参考になれば。
    • good
    • 1
この回答へのお礼

ありがとうございます
助かるなあ
じっくり読ませていただきますね

下の方princeigorという方が信用できないとおっしゃっていますが
論文が用いられているものなら信用してもいいのでしょうか??

お礼日時:2024/07/18 11:09

>やってみましたが数多くの論文を参照して語ってくれていたので大丈夫っぽかったですけどね



私が自分が詳しいことを質問した時は、質問文に予想しなかった穴があったせいで見当違いな回答になったり、その点を直して再質問してもイマイチでした。
    • good
    • 1
この回答へのお礼

そうなんですね
得意なことと苦手なことがあるのかもしれないですね
社会的観察系質問だったら大体は正しい回答くれるんじゃないですかね

友達同士の〇〇の一致度の相関係数とか

お礼日時:2024/07/13 23:52

一回使えばわかると思いますが、間違いばっかですよ。


開発途上です。

そもそも、みんな勘違いしています。
あれは質問に答えてくれるツールではありません。
チャットGPTに聞いてみればわかります。
何に使えるのですかと。

また、情報の信憑性について質問してみてください。
一次ソースを自分で確認しろと言ってきますよ。

結論
・チャット型AIは調べ物には適さない。
・そもそも、調べ物に使うツールではない。
    • good
    • 5
この回答へのお礼

大丈夫じゃない理由がよくわかんないですけど
例えば友達同士の付き合いにおいて大事な要素は何か、だったり
恋人同士の付き合いにおいて大事な要素は何か,だったりの質問した場合
そんなに間違った回答は返ってこないように感じるんですけど

お礼日時:2024/07/13 23:38

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!

このQ&Aを見た人はこんなQ&Aも見ています


このQ&Aを見た人がよく見るQ&A