昨日病院でちょっと気になることがあったんですが、

受診前に自宅で事前予約する際にWebフォームで問診票などの質問事項があって、それに症状とか細かく書いてから病院に行ったんですが(それ自体はいいことだと思います)、受診時には「その回答を元にAIが自動生成した文章」がカルテに掲載されていました。

でもその文章がかなり間違っているんです。むっちゃ正確な日付で「8月11日に○○の症状が出て」などと書いてあるんですがそういう回答はそもそもしてない。AIが独自解釈で生成してる。看護師と話がかみ合わないなと思って見せてもらって発覚しました。

これ、風邪程度の診察なら大した問題にはならないんですが、今後AIがどんどん導入されていく中で、手術の内容とかに関して、AIが手順を自動生成したりして、それが間違っていたりというような医療事故、出てくるんじゃないでしょうか。

今のAIの精度に見合った利用方法で活用していかないと大変なことになりそうです。

フォロー

生成AIは、たまに嘘やでまかせを言います(専門用語でハルシネーション:幻覚といいます)。現在のAIの技術では、このような嘘の低減はできても、根絶はできません。
(大事なことなのでもう1回。ハルシネーションの根絶は ** できていません **)

医療現場にAIを導入する場合、このことはもっと周知されるべきです。

この事案では、ハルシネーションへの注意喚起を怠ったIT企業側の責任も大きいと思います。 [参照]

ログインして会話に参加
Fedibird

様々な目的に使える、日本の汎用マストドンサーバーです。安定した利用環境と、多数の独自機能を提供しています。