OpenAIの安全対策チームリーダーが、安全性への懸念を表明して辞任。
https://www.itmedia.co.jp/news/articles/2405/18/news062.html
OpenAIの目標はAGI(超人工知能)を作ることだが、AGIは人間を越える知能なので潜在的な危険性を持つと考えられている。その安全対策チーム(Superalignmentチーム)を率いてきたのは役員のイリヤ・サツケバーと、チームリーダーのヤン・ライケだった。サツケバーは昨年(23年)11月の内紛でアルトマン解任派に回ったが、その理由は安全性への意見の相違だったとの見方がある。
そのサツケバーは5月15日、ライケは5月18日に退社を発表した。
ライケは「私はかなり長い間、OpenAI のリーダーシップと同社の中核的な優先事項について意見が合わず、ついに限界に達した」と書いた。アルトマンCEOも「やるべきことはたくさんある」とコメントした。
感想:
「AIの安全性」は「自転車置き場の色」や「世界平和」を合わせたのと同じぐらい厄介な問題だ。誰でも意見を出せるが、実現は非常に困難。ここは堅牢な倫理学とエンジニアリングの両方が必要となる分野だと考えている。