最近真面目にAI勉強してますけど、ハルシネーション(無根拠なでっちあげ)の問題はぜんぜんまだまだ改善されていないっすね。
昨日病院でちょっと気になることがあったんですが、
受診前に自宅で事前予約する際にWebフォームで問診票などの質問事項があって、それに症状とか細かく書いてから病院に行ったんですが(それ自体はいいことだと思います)、受診時には「その回答を元にAIが自動生成した文章」がカルテに掲載されていました。
でもその文章がかなり間違っているんです。むっちゃ正確な日付で「8月11日に○○の症状が出て」などと書いてあるんですがそういう回答はそもそもしてない。AIが独自解釈で生成してる。看護師と話がかみ合わないなと思って見せてもらって発覚しました。
これ、風邪程度の診察なら大した問題にはならないんですが、今後AIがどんどん導入されていく中で、手術の内容とかに関して、AIが手順を自動生成したりして、それが間違っていたりというような医療事故、出てくるんじゃないでしょうか。
今のAIの精度に見合った利用方法で活用していかないと大変なことになりそうです。
Flux.1を導入したいけどMidjourneyよりいろいろめんどそうで躊躇している。
"この世は無価値だという考えはー本来ならいかなる厄災より危険な思想なのにー当たり前のことに堕してしまった"
シオラン『崩壊概論』
カメラ屋店員。本を読んだり、写真や動画を撮ったりします。