掲示板

AIは計算が苦手のよう

ChatGPTとCopilotにこんな問題を出してみました。

◎合計1000円あります。50円玉と100円玉合わせて15個あります。50円玉、100円玉はそれぞれ何個あるのでしょうか?

Copilotでは100円玉7枚、50円玉8枚と回答。これじゃ1100円。
ChatGPTでは100円玉5枚、50円玉10枚と回答。正解ですね。

AIと言えどもいつも正解を出すとは限らないようです。。

試しにもう一度Copilotに尋ねたところ、今度は正解しました。
学習しているのかな。
AIの回答はチェックが必要なようです。


4 件のコメント
1 - 4 / 4
AIは現時点では、検索も精度が悪いです。
なので、別途、検索して合っているか調べる必要があります。


以前出していますが、日本人でヤフーやグーグルでちゃんと検索できるのは50%なので、半数の方はAIで間違った答えを出されてもわからないことになります。
 (スマホの普及率は90%なのでほぼ普及していると仮定)
二度手間になりますね。
最近の某社のカスタマーサポートAIチャットでの経験ですが、短文に区切って入力しても全くの的外れとか、全く同じ(誤った)回答を何度も繰返すとか、不愉快なことがありました。意図的に賢くせず、門前払いする(諦めさせる)ことを狙っているのでしょうか? 窓口の電話回線を減らせば、繋がらないから諦めるみたいな。
そういう簡単な計算式だからわかるものの、パッと聞いただけでは答えられない聞いてもわからない高度な計算式などが必要な計算の問題だったら、どうします?
二度手間以前に、人間には難問過ぎて確認すらわからないみたいな計算だったら。。。

それにふと思い出したのが、「依存」という言葉の話。

この言葉、正しくは「いそん」と読みます。
でも、「いぞん」と読んでしまう。「いぞん」と読む人が多くなった。
そしていつしか「いぞん」もOKになった。

円周率も、
3.14....と続くけれど、「3.14」とする学年や、「3」で計算する学年もありました。

近い将来AIが、3.14がついに割り切れた!と発表したとき信じるか信じないか、そしてそもそも本当に割り切れたのか人間が確認できるのか。
コメントするには、ログインまたはメンバー登録(無料)が必要です。