https://x.com/GianMattya/status/1870622801083940865
生成AIに判断を委ねて、その結果で不利益が出た場合でも、保険か何かで金銭で解決する仕組みを作れば、AIにも「責任」を取らせられる、という言説。
問題は、AI利用コスト+保険料が、人間の雇用コストをコンスタントに上回るかだと思う。保険料はAIが間違いを犯すことによる損害額の期待値から算出されるわけだが、保険会社の気持ちになって考えてみるのも面白そう。
まあ個人的には、生成AIの出力を人間がチェックする、すなわち「人間が責任を負う」方が、はるかに安上がりだと思うけどもね。
https://www.asahi.com/special/10005/TKY201201100691.html
事故の損害額の期待値が高すぎると、保険自体が成立しない例。
AI賠償責任保険(仮)の保険料は、個人賠償責任保険の類より、はるかに高額にせざるを得ないと思う。
個人賠償責任保険は、故意に起こした事故に対しては当然、保険金が支払われることはない。
一方でAIが起こした事故が、故意か偶発か、という判定はできない。AIには意思はないんだから、全部、偶発と見做すしかない。その前提で保険料を決定すると、もう可能な限り高く設定するしかないと思うんだよね。