追記:
最近出た『倫理資本主義の時代』(マルクス・ガブリエル、ハヤカワ新書)は「新しい啓蒙」のエッセンスを一般読者向けに平易に書いた本です。しかも世界に先駆けて日本で出版したそうです。
この本には、こんな一節があります。
「複雑な問題について人々が抱く道徳的信念にはバラツキがある。自由な民主主義の下では、国家や司法などの制度は異なる道徳的立場の存在をある程度尊重するようにデザインされている。誰かを傷つけたり深刻な危害を及ぼしたり、差別の対象にするのでないかぎり、道徳的意見の不一致は許容される。こうした理由から、正しい倫理が存在する可能性、複雑な道徳的問題や道徳的ジレンマにさえ客観的に正しい答えが見つかる可能性を否定するという過ちが起こりやすい。自分の倫理的価値観を他者に押しつけないことが民主主義的寛容さだという極論を支持する人も多い」
難解な用語を使わず書かれた本ですが、誤謬は誤謬とはっきり指摘しています。
「道徳的事実は存在する」——これが「新しい啓蒙」の革新的な主張です。この本は、冷笑主義や虚無主義への強力な反論となる一冊といえます。
「新しい啓蒙」のパンフレットです。
https://www.amazon.co.jp/Towards-New-Enlightenment-Future-oriented-Interventions/dp/3837665704
例えば、次のようなことが書いてあります(英文から機械翻訳+手直し)
「道徳的リアリズムとは、道徳的事実とは私たちが共有する人間性に由来する、単純に何をなすべきか、あるいは何をなすべきでないかという問いに対する真の答えである、という見解として理解することができる。したがって、私たちが共有する人間性の明確化は、倫理的洞察の決定的な源泉である」
「多くの道徳的事実は個人や集団にとって明白ではないため、このことは議論、特に異文化間の交流を促す。倫理学もまた、複雑な規範秩序の網の目の境界で生じる不確実性を扱っている」
「人文科学と社会科学は、道徳的事実の存在を否定するという虚無主義的あるいは相対主義的な過ちを犯すことなく、不確実性と社会の複雑性の完全な認識に対処する価値判断のための発見的方法を倫理学に提供する」
当方の感想として、これは英語圏の哲学に蔓延する「道徳的な不真面目さ」(※)に対する、強力な異議申し立てだと思います。
※ たとえば「トロッコ問題」を想起されたし。近年の「効果的な利他主義」をめぐるスキャンダルも材料となる。
いま考えていることを、改めて言語化してみます。
現代の複雑な問題を思考する上で、人文学は必要である。特に倫理学には正面から向き合う必要がある。技術や経済を私たちがどのように思考するのが良いのか——そのための思考のフレームワークや言葉は、工学や経済学には含まれていない。だから共通言語としての哲学、倫理学には大きな意味がある。
例えば現代の国際社会は、カントが考えた永遠平和・道徳哲学をヒントとして「平和と人権」を共通の言葉として定義し、今日に至っている。
その一方で、人文学の伝統に根強く浸透している虚無主義・相対主義・権威主義・アンチヒューマニズム(差別思想、優生思想)には警戒しなければならない。哲学の専門家が倫理学を冷笑する傾向は根強い。
この傾向に異議を唱えるムーブメントとして、ドイツの哲学者マルクス・ガブリエルは「新しい啓蒙」を唱えている。カント、シェリング、フッサールらの思想を批判的に受け継ぎ、虚無主義・相対主義・権威主義・アンチヒューマニズム・資本主義を乗り越える思想を建設しようとしている。
もちろんマルクス・ガブリエルも無謬ではなく、最近はイスラエルのガザ攻撃を全肯定してしまった。人は間違える。だからこそ、間違いを正すための思考の枠組み、議論のための言葉が求められている。
ソフトバンクGの株主総会で孫正義氏がAIへの展望をぶちあげる。
「どの天才よりも1万倍賢い(AI)。10年以内前後ぐらいに来るんじゃないかって、心底思ってる」
「ソフトバンクは、孫正義は何のために生まれたんだと、僕はこのために生まれたんだと」
「去年20兆円もうかったのは誤差で、どうでもいい」
TBS
https://newsdig.tbs.co.jp/articles/-/1245478?display=1
産経
https://www.sankei.com/article/20240621-U57TB5K6WZKK5BYFUVHEW4WHFE/
最近の孫正義氏は、OpenAIのサム・アルトマンの「7兆ドルの資金調達」計画で資金調達元として名前が出たり、「1000億ドル規模の投資を計画中」と報じられたりしている。AI分野の巨額投資に意欲的であることは間違いなさそうだ。そんな経緯から、私が書いた次の記事にも孫さんの名前が出てきます。
OpenAIの投資計画はアポロ計画の70倍?加速し膨張するAI開発投資、バブルの懸念も
https://globe.asahi.com/article/15296480
感想:孫さんが元気だと負債は膨らむ。AI巨額投資は、文字通り100倍、1000倍のスケール競争になってきている。ASI(超人工知能)が先か、バブル崩壊が先か。
哲学の立場からの「AIゆりこ」への疑問。面白い文章です。
私の感想。
AIも人間も無謬ではない。現状の生成AIはハルシネーション(AIの嘘)を緩和はできても根絶はできない。
しかし人間は自らの行為に責任を負い、間違いをただすことができる。
AIは責任を取ることができない。 人間ならば責任について思い考えよう。
https://note.com/toyahiroshi_/n/n9fd7894c6377
AIの規模拡大は持続的か。
いまや「1000億ドル」や「7兆ドル」と巨額の投資計画が語られる。2023年のAI産業は500億ドルをNVIDIA製半導体の購入に費やした。
AI開発企業OpenAIは「規模拡大の先にAGI(人工汎用知能)が生まれる」という信念のもと、巨額の投資を続けている。
しかし同年のAI産業全体の売上げは30億ドル。バブルの懸念がある。そしてOpenAIが掲げる「安全なAGI」という目標の工学的な矛盾も指摘されている。
前後編の後編です。AIに関心がある方はぜひ読んでください。
https://globe.asahi.com/article/15296480
書きました。
「スカーレット・ヨハンソンがOpenAIに抗議した件の背後にあるもの」を掘り下げました。OpenAIは組織内の「ブレーキ」役を冷遇しアクセルをベタ踏みしていることが見えてきました。
OpenAIの最新モデル「GPT-4o」にスカーレット・ヨハンソンが激怒、くすぶる倫理課題
https://globe.asahi.com/article/15295676
「『Plurality(多元性)』とは、『意見の衝突』を、この社会で共に創造し進歩するためのエネルギーにするということです。意見が食い違ったときに、お互いに攻撃し合うのではなく、論争に合意を形成できるような技術を持っているかどうかが重要です」
「もしも全員が同じ場所、同じ起点から同じ方向で物事を見たら、ひとつの角度でしか物事が見えません。多くの違う角度があるという多様性があってこそ、民主主義を前進させられるのです」
補足:
記事中には言及がないが、オードリー・タンが共著で執筆したPlurarityの本の日本語版が今年中には出る見込みという。また原文はCCライセンスで公開されている。
https://github.com/nishio/plurality-japanese/tree/autotrans/contents/english
感想:
Plurarityは、民主主義を成立させる不可欠なもの(必要十分条件)である。立法府の議論でも、行政でも、司法でも、そして技術コミュニティでも、「Plurarity=平等で異質な他者と出会える可能性を保つこと」は重要だ。Plurarityの破壊は民主主義の破壊であり、人間性の破壊だからだ。
特にオープンソースの技術コミュニティがPlurarityに関心を持ち、民主主義に貢献できるプロダクトやサービスに反映してくれることを期待している。
台湾の前デジタル大臣オードリー・タンのインタビュー。オードリー・タンは最近"Plurarity"に関する本を出版し、その話題が中心だ。
https://news.tv-asahi.co.jp/news_international/articles/900003343.html
"Plurarity"について少し前置きを。
ハンナ・アーレントは『人間の条件』の中で、政治("活動的な生")が成立する必要十分条件は複数性(Plurarity)であると述べた。複数性とは、「自分とは異なる意見を持つが平等な他者と出会えること」であり、民主主義が成立するには複数性が不可欠だ。複数性が破壊された状態がファシズムである。
日本の哲学分野ではPlurarityの訳語は「複数性」が定着しているが、日本のPlurarityコミュニティでは「多元性」といった別の訳語の方が人気がある。このインタビューも「多元性」をカッコ内で使っている。
では、オードリー・タンの言葉を見てみよう。
「地震や、ひいては情報セキュリティーや民主主義に対する脅威には、たとえ意見が違っても、また文化が違っても、その違いを乗り超えて、地震対策や民主主義を守るために協力することはできます。 私たちは先入観を捨て、異なる文化やイデオロギーを超えて、協力することができるのです。こうした概念を私は「Plurality(多元性)」と呼んでいます」
補足:
「自分にできる範囲」は、かなり大事な考え方だと思っています。
カントの用語で「不完全義務」という言葉があります。必ず果たすべき「完全義務」と対になる言葉で、「なるべく果たした方がいい義務」です。
私たちは、必ず果たすべき義務(法や契約)だけでなく、できれば果たした方がいい義務(不完全義務)も背負っています。
相談した方は、世界の理不尽を思い考えた。回答者の野沢氏は「考えるな」とアドバイスした。相談者は不完全義務を果たそうとし、回答者の野沢氏は「不完全義務だから果たさなくてもいい」と言った訳です。
私の意見では、野沢氏の回答をあえて好意的に読むなら、仕事でストレスを抱える人に「仕事を休もう」とアドバイスするようなものでしょう。ただし、「戦場に行ってみれば?」とストレスを増すような煽りの物言いをしたのは良くありません。そして、アドバイスの後に「休んで元気になったら、社会問題に取り組めるよう復帰を試みましょう」と言い添えるのが良かったと思います。
朝日新聞の人生相談「世界の理不尽に我慢できない」に、三牧聖子氏がコメントを寄せている。とても良いコメントなので、一読をおすすめ。
5/20 13:29まで閲覧可能「世界の理不尽に我慢できない」
https://digital.asahi.com/articles/DA3S15935111.html?ptoken=01HY7HSQ7GQ8Y2KZTE81HHZ2KK
" 野沢氏の回答は、アカデミー国際長編映画賞を受賞し、来週日本でも公開される映画「関心領域」に通じるものだと感じる。アウシュビッツ収容所の隣に住んだ同収容所の所長ルドルフ・ヘスとその家族を題材にした映画だ。ヘス一家の「平穏」な生活は、すぐそばで行われているユダヤ人の大量虐殺を「関心領域」の外に置くことで成り立っていた。"
感想:
野沢氏による当初の回答は「社会問題に関心をもったり怒ったりしないで、身の回りの事だけに関心を持ってポジティブに生きていきましょう」といったものだった。
これは故意の無知の誤謬を拡大させようという話ですね。
複雑な問題はみなつながっている。自分にできる範囲で問題を思い考えることは、私たちの義務。
OpenAIの安全対策チームリーダーが、安全性への懸念を表明して辞任。
https://www.itmedia.co.jp/news/articles/2405/18/news062.html
OpenAIの目標はAGI(超人工知能)を作ることだが、AGIは人間を越える知能なので潜在的な危険性を持つと考えられている。その安全対策チーム(Superalignmentチーム)を率いてきたのは役員のイリヤ・サツケバーと、チームリーダーのヤン・ライケだった。サツケバーは昨年(23年)11月の内紛でアルトマン解任派に回ったが、その理由は安全性への意見の相違だったとの見方がある。
そのサツケバーは5月15日、ライケは5月18日に退社を発表した。
ライケは「私はかなり長い間、OpenAI のリーダーシップと同社の中核的な優先事項について意見が合わず、ついに限界に達した」と書いた。アルトマンCEOも「やるべきことはたくさんある」とコメントした。
感想:
「AIの安全性」は「自転車置き場の色」や「世界平和」を合わせたのと同じぐらい厄介な問題だ。誰でも意見を出せるが、実現は非常に困難。ここは堅牢な倫理学とエンジニアリングの両方が必要となる分野だと考えている。
OpenAIの共同創設者兼チーフ・サイエンティストであり、2023年11月のOpenAI内紛ではサム・アルトマンCEOの理事解任派に回った人物であるイリヤ・サツケバーが、OpenAIを去った。
OpenAIのBlog記事で、サム・アルトマンCEOは「彼なしにはOpenAIはあり得なかった」と記した。
一方、サツケバーはX/Twitterの投稿で「OpenAIは安全で有益なAGIを構築していくと確信している。一緒に仕事ができたことは光栄であり、特権でもあった。みんなに会えなくなるのはとても寂しい。長い間、ありがとう」と別れを惜しんだ。サツケバーは次のプロジェクトに取りかかっていると書いているが詳細は不明。
サツケバーは「AIのゴッドファーザー」の一人であるジェフリー・ヒントンと共にキャリアをスタート。Googleを経てOpenAIで大規模言語モデル(LLM)のGPTの開発に貢献した。2023年11月のOpenAI内紛で、サム・アルトマンCEOの理事解任に動いた(解任を求めた理由は、いまだに明らかにされていない)。アルトマンがOpenAIに戻るとサツケバーは理事の地位を失い、その処遇は未定とされていた。
(情報源は次の投稿で
背景:
米国ではビットコインはじめ暗号通貨への規制が厳しさを増し、業界の有名人が逮捕される事案が相次いでいる。大手暗号通貨取引所FTXの創業者サム・バンクマン=フリードは懲役25年の判決。世界最大級の暗号通貨取引所Binanceの創業者CZは4カ月の収監が決まった。ビットコイン普及に貢献した人物ロジャー・ヴァーもスペインで逮捕された。
感想:ジャック・ドーシーが望むビットコインの自由は、今の米国政府の方針とは相容れない。
とはいえ、だからといって、反ワクチンでビットコイン支持のトンデモ大統領候補ロバート・ケネディ・ジュニアを応援、ついでに「差別禁止」のモデレーション方針を打ち出したBlueskyを「Twitterと同じ中央集権化の過ちを犯した」云々と批判するのは、何かが違うのではないか。
ジャック・ドーシー率いる金融サービス会社Block社は、米連邦検察当局の調査を受けている。2人の関係者がNBC Newsに明かした(5/1付けニュース)。
https://www.nbcnews.com/business/personal-finance/prosecutors-examining-transactions-block-owner-cash-app-squarc-rcna147181
Block社は、個人向け送金アプリCash Appと、店舗向け決済サービスSquareの2大サービスを提供。調査の内容は、(1) 2つのサービスで顧客からリスクを評価するための情報収集が不十分、(2) Squareが経済制裁対象国(キューバ、イラン、ロシア、ベネズエラ)を含む数千件の取引を処理、(3) Cash Appがテロリスト集団のために複数の暗号通貨取引を処理した疑い。
これらの事案が確認されるとAML/CFT(マネー・ローンダリング及びテロ資金供与対策)違反となり、悪質と判断されると巨額の罰金を課されたり、経営者が逮捕される場合がある。
Block社では、AML/CFT違反の疑いがある数千件の取引を外国資産管理局(OFAC)に自主的に報告しており、これを受けてOFACは行政処分なしに調査を済ませたという。それとは別に連邦検察が調査に乗り出した形。
12月現在、Cash Appのアクティブな取引口座数は5,600万件、過去4四半期の資金流入額は2,480億ドル。
(続く
論文
Eyal Aharoni他, Attributions toward artificial agents in a modified Moral Turing Test, Scientific Reports, 30 April 2024
https://www.nature.com/articles/s41598-024-58087-7
上記論文を紹介した記事
どんどん賢くなる生成AI、最新の道徳チューリングテストが明らかにしたAIのモラル, JBpress, 2024.5.13
https://jbpress.ismedia.jp/articles/-/80941
FYI: 「道徳的チューリングテスト」の実権結果と知見
論文の概要:
米国の成人299人に「道徳的チューリングテスト」——道徳的な課題に対する人間とAIの解答を、誰が書いたかを知らせずに評価してもらった。その結果、彼らはAIの道徳的推論を高潔さ、知性、信頼性などほとんどすべての次元において「人間よりも質が高い」と評価した。
この事は、人々がAIからの潜在的に有害な道徳的ガイダンスを無批判に受け入れてしまうのではないか、という懸念を抱かせる。
AI/LLM(大規模言語モデル)の道徳的言説は洗練されているが、必ずしも意味を理解している訳ではなく、その点で犯罪者やサイコパスと似ている。
感想:
なお、論文では「倫理分野の用語や理論の整備が求められる」とも記している。私は、ここはけっこう重要だと思っています。
書誌情報はリプライで。(続く
ITジャーナリストです。
仕事リスト:https://note.com/akiohoshi/n/nebac412b6c12