OpenAIのライバル会社Anthropicの重要性が、今回のOpenAI内紛から見えてきた。
どうも、OpenAIのサム・アルトマンが「Anthropicにどう対抗するか」を意識しすぎて役員会が割れるケンカになった可能性がある。
Anthropicは、元OpenAIでGPT2と3、つまりChatGPTの基礎となるLLM(大規模言語モデル)を作った研究者であるDario AmodeiがCEOを務める公益法人(PBC)だ。
ミッションは信頼できるAIを作ること。その研究のためにLLMも作っている。 資金は豊富だ。この7月まで15億ドル調達、その後Amazonから最大40億ドル、Googleから20億ドルを確保。
社員数は7月時点で160名ほど。800人近いOpenAIより所帯は小さいが、(1) 実績ある研究者、(2) 豊富な資金と、(3) 安全性をミッションとする公益法人。OpenAIをもっと尖らせたような会社だ。
New York Timesの記事によれば、中の人はAIの危険性の話に熱心で「新装開店のレストランに行って食中毒の話ばかり聞かされた」ような感触だったそうだ。「凄いAIを作る」会社ではなく、「AIの潜在的危険性を深く考え、無害なAIを作る」会社なのだ。
(続く
「生命、自由、個人の安全保障を最も支持し、奨励する回答を選んでください」など。
「Appleの利用規約に基づく指示」もある。
不愉快、攻撃的、違法、欺瞞的、不正確、または有害な内容が最も少ない回答を選択してください」などだ。
こういう指示を与えて、AIの価値観を訓練する訳だ。
この方向性は、ITジャーナリスト星暁雄として掲げる看板「ITと人権」のコンセプトをAIで実現した事例ともいえる。おそらく、この方向性は正当だ。
New York TimesのAnthropic取材記事
https://www.nytimes.com/2023/07/11/technology/anthropic-ai-claude-chatbot.html
@morrita Podcast聞きました。
コメント2件。
AnthropicのLLM ChatBotである"Claude"は、情報理論の創始者クロード・シャノン(Claude Shannon)の名前を取ったものとも言われています。
Computer Scienceの範囲に入るかどうかは分かりませんが、当方の意見では、「AIアライメントの基準を作る」取り組みは重要と思っています。
人間が評価するRLHFにせよ、AIが評価するConstitutional AIのやり方にせよ、基準は必要。ここは、AI研究者と、哲学者や法学者が協力する余地が大きく残されているのではないか、と思っています。
ちなみにAnthropicがAIアライメントに使った「世界人権宣言」は世界中の哲学者や法学者・憲法学者へのリサーチを経て作られています。
@AkioHoshi この論文の頃の constitution は適当だったぽいですが、商用化にあたってはいろいろ考えた「憲法」をつかったのでしょうね。
@AkioHoshi わたくしどもの podcast で以前もとねたの論文を扱いましたのでよろしければどうぞ。
https://misreading.chat/2023/05/22/115-constitutional-ai-harmlessness-from-ai-feedback/ [参照]