ChatGPTを使ってるらしいbingのチャットはbingの検索結果から推測して断定的に答えているのだけど、私のSNSアカウントでマストドンのアカウントを答えないから、まずはSNSの一覧を問うたらマストドンは除外されてて、マストドンはSNSではないのか問うたら「分散型SNS」だと言い訳したので、ひとりネズミのSNSアカウントを問う時に分散型SNSを除外しないよう要求したら、このアカウントを答えたのだけど、「Misskey」にも@hitorinezumiがあるなんて答えたから心配になって、真偽を尋ねたら逃げた。
たぶん、「ひとりネズミ 分散型SNS」で検索した添付画像の結果から断定したのだろう。でも、その検索結果は「ひとりネズミ」を除外してるじゃないか。信用できない答え方をするようだ。間違いを指摘すると不完全であることを言い訳にして逃げるけど…。
"人生において知っておくべきことの一つは「人は間違えることがある」ということです。
偉い人も権威のある人も社会的地位が高い人も皆に尊敬されている人も、
頭が良い人でも勉強ができる人でも専門家でもプロフェッショナルでも、
親でも先生でも信頼している人でも愛している人でも、間違えることがあります。
人は相手の肩書で信じてしまいがちだけど、疑うことを忘れたら危険です。
常識だと言われたことも、常識だと思っていたことも、間違っていることがあります。
ほとんどの人が正しいと言っていたことでも間違っていることがあります。
だから信じたり他の人に伝える前に、「本当かな?」と疑って確認した方が良いです。"
人は間違えることがあるから確認しなさい | ひとりネズミ
http://hitorinezumi.wp.xdomain.jp/20220402-3/
不十分な知識で間違った答えを断定的に答える人っているけど、AIもそんな人に近付くようだ。自信なさそうに答えれば好感度は下がらないのだけど…。