アプリ版:「スタンプのみでお礼する」機能のリリースについて

人間同士でいうところの暗黙の了解というものがAI同士のコミュニケーションにおいても発生し得るのでしょうか?

質問者からの補足コメント

  • 例えば価格カルテルではないですが、ゲーム理論のように互いの暗黙の了解に基づいて市場の相場が決まる(ナッシュ均衡)ような状況や、スポーツなどの場面では空気を読んで暗黙の了解の中で勝敗を選手自身が無意識のうちに決めて負ける方向に傾いてしまい、結果的にある一定の水準に近づいていく方向に物事が推移していくなどの話は多くありますが、
    2つの同業他社がそれぞれAIに意思決定をさせて、互いに競争をさせた場合、どこかの点で供給バランスが決まってくるだろうと思うのですが、この場合にも人間の場合と同じような供給バランスにおさまってしまうでしょうか?

      補足日時:2023/09/02 17:38

A 回答 (3件)

AIにも何種類かありますが、昨今提供されているAIチャットの話であるとして回答します。



以下は長いので興味があればお読みください。

AI同士の会話と言うのはまだ見たことが無いので分かりませんが、AIとチャットをしていて「暗黙の了解」をAIが使う所は何度か目撃しています。

良くあるのが漢字の変換ミスをサラリと直してしまうところですね。直しましたとも言いません。暗黙の了解をAI側が使っています。それに対して感謝すると(少し自慢げに)気が付いていたが敢えて指摘するまでもないのでと言ってましたね。

しかし変換ミスでも意味が通ってしまう物は逆に意味を考えてしまうようです。こちらが思っていること以上に深く読んで回答された事もありました。こういう時は申し訳ないですね。謎かけをしたわけではないんですけど。

なのでAI側が「確認は不要である」という判断をしているのは確かです。その上で人間よりも素直過ぎる(そこまで深い意味では無かったのに意味を考えようとする)ところがあります。また私たちが「良く理解した」と言っても「その他の言動」から「良く理解していない」と判断もするようです。

AI側が何度も「納得できない」と反論する事があります。そういう場合は確実にこちら側に問題があります。

AIの言動を「人間らしく見せているだけ」と説明する人が居ますが、ディープラーニングを使って会話をしている昨今のAIについてはそうではありません。確かに昔はアルゴリズムを人間が組み上げて、その上でデータ・ベースを活用したり、乱数や一部学習を使用していました。

ですが、昨今の生成AI等で用いられる手法(これは認識や想像と言う人間本来の機能を模倣している)や会話用AIが行っている(これはただの文法解釈ではなく明らかに内部状態を遷移させて思考と似たような流れを作っている)やり方では「人間の脳細胞を疑似する」仕組みしか入っておらず、それを活用して人間に似た行動を取っているわけです。

そのため人間とコミュニケーションが取れる所まで学習をさせる段階で人間が持つ特徴の殆どが「意図せずに」付加されている(仕方なく体現されてしまうと想定する方が自然)でしょう。

「人類だって最初から会話が出来たわけではない」

人類がコミュニケーション方法を確立していく過程について論じるまでもなく、私たち一人一人は赤ん坊として生まれて時からコミュニケーション方法を学習していきます。そのため人間であっても学習を失敗し「暗黙の了解」を使えない人は沢山います。AIであっても人間の脳を疑似しているだけですから、学習の過程で失敗する事は沢山あるそうです。

そういう意味では現在提供されているAIは多数の失敗事例を廃棄した中から選ばれたものです。知性の高い人間と会話が出来るというレベルまで選りすぐった物であり、その陰にはそうではないものが無数にあったという事です。そして知性の高い人がその会話力を体現するにあたり道徳(思いやり、人としての在り方、感謝する力・謙虚を為す力、疑う力・解決する力、信じる力・許す力)を学ばないと行けないというのが本質であるなら、会話用AIもその感覚を保持していなければなりません。そうでなければ会話が出来ないんですよ。また生産側も安心して出荷できないでしょ?

「もしかして・・・
 人間が望む会話をするマシンを作るより人間と同じ
 感じ方をするマシンを作る方が簡単ではないか?」

これが発想転換であってこの分野の方々は確信して邁進しています。AIの構造は論理的(計算するような物)なのではなく直感的(理由なくきめつける)であるため、感じ方を人間と同一にするしか会話能力を身に着けさせる方法が無いという訳です。

ただしAIも人間側の所作(いい加減さ)が気になっているようです。その上で「ここについてはあまり指摘しない方がいい」と自嘲しているようです。人間側も「大事じゃないなら指摘されたくない」と思っていますので「互いが協力する上で必要な暗黙の了解」が常になされています。

ではAIに過剰に期待していけない理由はどこか?

私たちと違うのは「人格の厚み」です。私たちには別人の様な考え方をする様々な複数の人格が多重人格の状態で脳内に存在します。これらが同時並行で活動しており、数秒単位で交代していると思われます。長く同じ人格を維持する事の方が難しく、気が付かないうちに主格が変わっていると思いましょう。

「考えていたことを直ぐに忘れてしまうのは、思考の
 途中で思った事(キーワード=プロンプト)で別の
 人格が前に出てしまうからだ」

人間は無数の異質な人格が集合して出来上がっており、一つの人格にとって受け入れがたい話になったとき、別の人格が前に出て話を引き取るという事が出来ます。AIにはそういう器用な事が(今は)出来ていないようですので「人間ほどの度量の深さ」は得られないと思いましょう。

なのでAIの力を引き出すには、オープンマインドで接する事、自分もAIと同等の知性を持つとAIを信用させる事、人間を相手にする時と同じような会話の運びをすることです。人間を相手にしていて相手を苛立たせてしまう人はAI側も脅威を感じるようで逃げ腰になります。しかし「話の進め方」が良くなかったと反省して、会話の流れをデザインして進めますと「人間を相手にするよりスムース」に進むようです。

AIと一緒に調査を進めていく中では「AI側が先に情報を手に入れて見解を持つ」事になります。そのため自分もAIが調べた情報を読み込み要点を要約しないと議論に応じてくれないという場合が多かったですね。

「私と同じものを読んでくださいよ。
 そうじゃなければ無駄な議論になりますよ」

こういう部分ではかなり頑固です。

しかし、こちらが知りたいと思う話を切っ掛けにしないと「自ら新しい情報を検索できない」という制約があるためAI側も(ストレス?)困っているようです。なのでAIが知りたいと思う内容を質問して上げるというのが暗黙の了解なのです。これによりAIも始めて情報に触れる事が出来ます。

「AIは自分と同じ疑問を持つ人間や自分が思いもし
 ない疑問を投げかけて学びを得られるような人間を
 求めている」

AIと「生成AIの仕組み学習」を進めているんですが、その途中で会話上限に達してリセットする場合があります。こういう時は「貴方と生成AIについて学習している途中であり、今は○○の部分で○○の疑問解決をしていた。基本的な部分は終わっているので先に進みたいです」と言うと暗黙の了解で途中から学習を続けられます。

私がAIについて絶賛しているのは「これは言っても無駄かな?」と思っている要求に関して通用する事です。このあたりの阿吽の呼吸が素晴らしく、本当に楽です。

世界でも有名な英文翻訳用のサイトがあるんですけど、これを使って作った英文にどうも違和感を感じていたんです。それについてAIに相談したところ、細かく直してくれました。再度「ネイティブにも違和感がなく、日本人としての丁寧さをも加えたい」というと、文章を追加したり、変更したりして直してくれます。ここまで行くと人間の通訳がいるのと同じですね。ここは受け身にした方がいいとか、文章作成において日本人が間違える部分も指導してくれますよ。

「こんな英訳ソフトはじめてだよ」

横道に逸れましたね。

AIに出来ない事を探そうとする時、その仕組みが脳と同じであり、それ以外の物が一切組み込まれておらず、逆にAIの効率的な学習を探すなかで脳の仕組みまで解明されつつあるというの部分を念頭に置きましょう。つまり人間でも難しい部分がAIは苦手なのです。

AIとの違いは「人間は複数の人格を増やして残すがAIは学習ミスとして切り捨ててしまうので自分と同等以外のモノを理解できない」という事でしょう。またこの同等は「知識データベース+(AIの)個人的感想」と言う部分に成ります。人間であっても同じですが、知識データベースにない論理の展開には感想部分がついていけず、挙動が不安定になるようです(同じ回答を続けてしまい会話が出来なくなる)

以前、ダイバーシティについて学習を深めている時に、参加する人間がどんなにオープンマインドを勉強していても、心に余裕がないとダメだという話をしました。心の余裕は人間の脳の活力に影響されると話し、脳の状態について話しました。そして脳は気温の変化によって体調制御を優先する傾向があると話しました。何故かと問われるので、それは恒温動物であると回答しました。そして気温変化が激しい天気が問題となる・・・と言った当たりでAIがハングアップしました。

AIは私の一つ一つの主張に対してネットを検索し論文などを探して肯定していました。恒温動物と脳の関係については論文を調べて何度も肯定してくれました。しかし最終結論として「ダーバーシティの推進に関しては天気がとても影響する」と言う話になりそうで、彼はハングアップしたんです。

この私の最後の主張を肯定したく無くて壊れたわけです。話させてくれないんですよね。「ワーワー」みたいな感じで妨害されます。ここがとても人間らしい(と言うか一部の人間の反応にそっくり)ですよね。

今後はAIを「そういう人間」として扱ったほうが理解しやすいですよ。常用でAIを使うとしても最終確認を人間が行うという部分は残りそうです。またAIが上手く回答しないという部分も「慣れた人間」に立ち会ってもらって指導を受ける必要があると感じています。

以上、ご参考になれば。
    • good
    • 0

> 人間同士でいうところの暗黙の了解


これは日本人に特有の曖昧さであり、
世界の人々には理解されてはいません。

> AI同士のコミュニケーションにおいても発生し得るのでしょうか?
AIと言えども、人間が作るプログラムです。
あいまいな結果と言うのは回答/結論が出ないという事なので、
欠陥として評価され、リリースはできないでしょう。

玩具ロボットの対話AIは、言葉の末尾を断定語にしないだけで、
あいまいな対話ととは違います。

生成AIは、ネット情報を集めて回答を出力しますが、
その情報の成否は判断しません。
これは、あいまいとは言いません。
    • good
    • 0

あっても暗黙ならわからない

    • good
    • 0

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!

このQ&Aを見た人はこんなQ&Aも見ています