補足:
「自分にできる範囲」は、かなり大事な考え方だと思っています。
カントの用語で「不完全義務」という言葉があります。必ず果たすべき「完全義務」と対になる言葉で、「なるべく果たした方がいい義務」です。
私たちは、必ず果たすべき義務(法や契約)だけでなく、できれば果たした方がいい義務(不完全義務)も背負っています。
相談した方は、世界の理不尽を思い考えた。回答者の野沢氏は「考えるな」とアドバイスした。相談者は不完全義務を果たそうとし、回答者の野沢氏は「不完全義務だから果たさなくてもいい」と言った訳です。
私の意見では、野沢氏の回答をあえて好意的に読むなら、仕事でストレスを抱える人に「仕事を休もう」とアドバイスするようなものでしょう。ただし、「戦場に行ってみれば?」とストレスを増すような煽りの物言いをしたのは良くありません。そして、アドバイスの後に「休んで元気になったら、社会問題に取り組めるよう復帰を試みましょう」と言い添えるのが良かったと思います。
朝日新聞の人生相談「世界の理不尽に我慢できない」に、三牧聖子氏がコメントを寄せている。とても良いコメントなので、一読をおすすめ。
5/20 13:29まで閲覧可能「世界の理不尽に我慢できない」
https://digital.asahi.com/articles/DA3S15935111.html?ptoken=01HY7HSQ7GQ8Y2KZTE81HHZ2KK
" 野沢氏の回答は、アカデミー国際長編映画賞を受賞し、来週日本でも公開される映画「関心領域」に通じるものだと感じる。アウシュビッツ収容所の隣に住んだ同収容所の所長ルドルフ・ヘスとその家族を題材にした映画だ。ヘス一家の「平穏」な生活は、すぐそばで行われているユダヤ人の大量虐殺を「関心領域」の外に置くことで成り立っていた。"
感想:
野沢氏による当初の回答は「社会問題に関心をもったり怒ったりしないで、身の回りの事だけに関心を持ってポジティブに生きていきましょう」といったものだった。
これは故意の無知の誤謬を拡大させようという話ですね。
複雑な問題はみなつながっている。自分にできる範囲で問題を思い考えることは、私たちの義務。
OpenAIの安全対策チームリーダーが、安全性への懸念を表明して辞任。
https://www.itmedia.co.jp/news/articles/2405/18/news062.html
OpenAIの目標はAGI(超人工知能)を作ることだが、AGIは人間を越える知能なので潜在的な危険性を持つと考えられている。その安全対策チーム(Superalignmentチーム)を率いてきたのは役員のイリヤ・サツケバーと、チームリーダーのヤン・ライケだった。サツケバーは昨年(23年)11月の内紛でアルトマン解任派に回ったが、その理由は安全性への意見の相違だったとの見方がある。
そのサツケバーは5月15日、ライケは5月18日に退社を発表した。
ライケは「私はかなり長い間、OpenAI のリーダーシップと同社の中核的な優先事項について意見が合わず、ついに限界に達した」と書いた。アルトマンCEOも「やるべきことはたくさんある」とコメントした。
感想:
「AIの安全性」は「自転車置き場の色」や「世界平和」を合わせたのと同じぐらい厄介な問題だ。誰でも意見を出せるが、実現は非常に困難。ここは堅牢な倫理学とエンジニアリングの両方が必要となる分野だと考えている。
OpenAIの共同創設者兼チーフ・サイエンティストであり、2023年11月のOpenAI内紛ではサム・アルトマンCEOの理事解任派に回った人物であるイリヤ・サツケバーが、OpenAIを去った。
OpenAIのBlog記事で、サム・アルトマンCEOは「彼なしにはOpenAIはあり得なかった」と記した。
一方、サツケバーはX/Twitterの投稿で「OpenAIは安全で有益なAGIを構築していくと確信している。一緒に仕事ができたことは光栄であり、特権でもあった。みんなに会えなくなるのはとても寂しい。長い間、ありがとう」と別れを惜しんだ。サツケバーは次のプロジェクトに取りかかっていると書いているが詳細は不明。
サツケバーは「AIのゴッドファーザー」の一人であるジェフリー・ヒントンと共にキャリアをスタート。Googleを経てOpenAIで大規模言語モデル(LLM)のGPTの開発に貢献した。2023年11月のOpenAI内紛で、サム・アルトマンCEOの理事解任に動いた(解任を求めた理由は、いまだに明らかにされていない)。アルトマンがOpenAIに戻るとサツケバーは理事の地位を失い、その処遇は未定とされていた。
(情報源は次の投稿で
背景:
米国ではビットコインはじめ暗号通貨への規制が厳しさを増し、業界の有名人が逮捕される事案が相次いでいる。大手暗号通貨取引所FTXの創業者サム・バンクマン=フリードは懲役25年の判決。世界最大級の暗号通貨取引所Binanceの創業者CZは4カ月の収監が決まった。ビットコイン普及に貢献した人物ロジャー・ヴァーもスペインで逮捕された。
感想:ジャック・ドーシーが望むビットコインの自由は、今の米国政府の方針とは相容れない。
とはいえ、だからといって、反ワクチンでビットコイン支持のトンデモ大統領候補ロバート・ケネディ・ジュニアを応援、ついでに「差別禁止」のモデレーション方針を打ち出したBlueskyを「Twitterと同じ中央集権化の過ちを犯した」云々と批判するのは、何かが違うのではないか。
ジャック・ドーシー率いる金融サービス会社Block社は、米連邦検察当局の調査を受けている。2人の関係者がNBC Newsに明かした(5/1付けニュース)。
https://www.nbcnews.com/business/personal-finance/prosecutors-examining-transactions-block-owner-cash-app-squarc-rcna147181
Block社は、個人向け送金アプリCash Appと、店舗向け決済サービスSquareの2大サービスを提供。調査の内容は、(1) 2つのサービスで顧客からリスクを評価するための情報収集が不十分、(2) Squareが経済制裁対象国(キューバ、イラン、ロシア、ベネズエラ)を含む数千件の取引を処理、(3) Cash Appがテロリスト集団のために複数の暗号通貨取引を処理した疑い。
これらの事案が確認されるとAML/CFT(マネー・ローンダリング及びテロ資金供与対策)違反となり、悪質と判断されると巨額の罰金を課されたり、経営者が逮捕される場合がある。
Block社では、AML/CFT違反の疑いがある数千件の取引を外国資産管理局(OFAC)に自主的に報告しており、これを受けてOFACは行政処分なしに調査を済ませたという。それとは別に連邦検察が調査に乗り出した形。
12月現在、Cash Appのアクティブな取引口座数は5,600万件、過去4四半期の資金流入額は2,480億ドル。
(続く
論文
Eyal Aharoni他, Attributions toward artificial agents in a modified Moral Turing Test, Scientific Reports, 30 April 2024
https://www.nature.com/articles/s41598-024-58087-7
上記論文を紹介した記事
どんどん賢くなる生成AI、最新の道徳チューリングテストが明らかにしたAIのモラル, JBpress, 2024.5.13
https://jbpress.ismedia.jp/articles/-/80941
FYI: 「道徳的チューリングテスト」の実権結果と知見
論文の概要:
米国の成人299人に「道徳的チューリングテスト」——道徳的な課題に対する人間とAIの解答を、誰が書いたかを知らせずに評価してもらった。その結果、彼らはAIの道徳的推論を高潔さ、知性、信頼性などほとんどすべての次元において「人間よりも質が高い」と評価した。
この事は、人々がAIからの潜在的に有害な道徳的ガイダンスを無批判に受け入れてしまうのではないか、という懸念を抱かせる。
AI/LLM(大規模言語モデル)の道徳的言説は洗練されているが、必ずしも意味を理解している訳ではなく、その点で犯罪者やサイコパスと似ている。
感想:
なお、論文では「倫理分野の用語や理論の整備が求められる」とも記している。私は、ここはけっこう重要だと思っています。
書誌情報はリプライで。(続く
"アップルがiPadイベントで紹介した動画「Crush」に関して、広告とマーケティングテクノロジーの情報を扱うAd Ageなどを通じて、アップルのマーケティングコミュニケーション担当副社長であるTor Myhren氏が、「的外れだった」と異例の謝罪を行った。"
「創造性は我々アップルのDNAであり、世界中のクリエイターに力を与える商品開発を行うことは我々にとって非常に重要です。我々の目標は、ユーザーが自分自身を表現し、iPadを通じてアイデアを実現する無数の方法を常に称賛することです。このビデオは的外れなものでした。申し訳ありません」
https://dig-it.media/thundervolt/article/837023/
ティム・クックによる新型iPad ProのCM動画の紹介は下記。
https://twitter.com/tim_cook/status/1787864325258162239
あらゆる"クエイリティブ"なものを、"Apple史上で最も薄い製品"に置き換えますよ、というメッセージだろうが、このCMからはクリエイターの道具やミュージシャンの楽器への敬意は見られない。
私は「道具や芸術に対する軽蔑を表現している」というコメントに同意する。
ティム・クックがX(Twitter)で紹介した新型iPad ProのCM動画へのコメントを紹介したい。
https://twitter.com/sainimatic/status/1787913898454302938
"ジョブズがこれを承認するはずがない。道具や芸術に対する軽蔑を表現している。意図的だったとは思わないが、悪趣味だ。 "
"美しいレンズや楽器などが巨大な油圧プレスに破壊される様子を見るのは心が痛む。ますます多くの人々が困窮に陥っている時代に、これはまったく無神経なことだ。アップルは"1984年"のCMからかなり劣化してしまった。 "
半導体、AI、大きなお金に関するお話。
Metaのヴァイスプレジデント兼チーフAIサイエンティストであるヤン・ルカンは、MetaはAIトレーニングのためGPUに$30B(300億ドル、1ドル154円換算で4兆6000億円相当)を費やしたと発言。
https://twitter.com/emollick/status/1786213463456448900
元ポストには「これはアポロ計画を上回る」と書かれている。だが引用ポストが示す文献によれば、この数字はマンハッタン計画の$22Bを上回るが、アポロ計画の$98Bには及ばない(数字は2008年のドル価値で換算)。
なお、どの金額も、最近Appleが発表した$110B(1100億ドル、17兆円相当)の自社株買いに及ばない。
感想:
資本市場には極端に大きな額面のマネーが集まる。これらマネーは政府や企業の信用を示す数字の集まりにすぎない。マネーの価値を人が信じている間は、マネーは価値を持つ。
巨額のマネーは資本市場の内側をぐるぐる回って増え続け、その一部が不動産投資や半導体工場への投資などの形を取って現実世界に流れ込む。
マネーの価値を支えるのは信用という虚構だ。サイクルのどこかで信用が失われると大惨事が起きる。今の経済学はバブルをうまく判定できないらしい。だいじょうぶなのかな、という素朴な疑問はある。
今夜はワルプルギスの夜。
そこでドイツの異教フォークバンドFaunの"Walpurgisnacht"を聴いてみます。
https://www.youtube.com/watch?v=nLgM1QJ3S_I&feature=youtu.be
イーロン・マスクは4/28に中国をサプライズ訪問、北京で李強首相と会談した。
WSJ報道によれば、会談の後、中国政府は(議論が多い)自律運転ソフトウェアFSD("完全自動運転")をテスラが中国で展開する計画を「暫定的に承認」した。中国バイドゥが提供する地図とナビゲーション機能をベースに、自律走行サービスを展開する予定。
https://www.wsj.com/tech/tesla-wins-chinas-backing-for-driver-assistance-service-20816802
またイーロン・マスクは中国首脳との会談の中で、中国で収集した運転データをアルゴリズムの訓練に使うため国外に転送する許可を得ようとしたが、中国政府は応じなかった模様だ。
中国には170万人のテスラ車ドライバーがおり、運転データは中国国内のデータセンターに保存されているという。
米国ではテスラ車の自動運転機能(自律運転)に由来する事故が多発しているとの批判が高まっている。4/26に米道路交通安全局はテスラの運転支援システムの調査開始を発表、「回避可能な事故や死亡事故に関連している」とコメントしている。
感想:
イーロン・マスクは、「規制を強化すると中国に負けるぞ」と米国の規制機関を脅かすつもりだろう。
自動運転に由来する死傷者数は、今後も増えそうな予感がする。
「現実は残酷なんだから空虚なエセヒューマニズムの出る幕はないんだ」
このような種類の言説をどこかで見聞きしていないでしょうか。これは誤謬です。理念と現実の区別が付いていません。
第2次世界大戦後の国際社会は、現実が残酷であるからこそ、ヒューマニズムに基づく理念が必要だと考えました。そこで合意された理念が人権。国際人権システムは、現実を理念に(少しでも、ゆっくりでも)近づける活動をしています。
残念ながら、このような理念と現実を混同する誤謬に巻き込まれている人はまだまだ多い。そして「理念を故意に無視する」こともまた「故意の無知」の誤謬です。私は、その背後には19世紀の人種差別論から続く反ヒューマニズム言説の蔓延がある、と考えています。
ヒューマニズムも、反ヒューマニズムも、人文学から出てきた思想です。最近の流行は、反ヒューマニズム思想を強化するため功利主義の極端な使い方をしたり、自然科学(進化、遺伝)や統計を持ち出すこと。これは倫理学への故意の無知、そして自然科学や統計の誤用だと考えます。そもそも、自然科学も統計も価値中立で、なおかつ常に反証可能性に開かれているのですから。
私の個人的な思いとしては、人文学の学徒の方々は、ぜひ反ヒューマニズムという「精神の毒」と戦ってほしいと思っています。
不祥事を受け本人は隠居、息子が家督を継ぐ——これは中世のソリューションですよね。
「資本主義の帰結として、現代社会は新たな封建制に向かっている」と唱える意見がいくつか出てきているのですが、日本の世襲政治家問題をそこにどう位置づけられるか。
https://news.ntv.co.jp/category/society/yt6d14412ea3c842bbba2a9344d518c0c3
「人間のドライバーよりも安全な完全自動運転は実現しないかもしれない」と警告する文書が公開されました。警告したのはACM。コンピュータサイエンス分野で最も権威ある学会のひとつです。
自動運転への楽観論に冷水をかける専門家の意見はどんな内容でしょうか。
https://newspicks.com/topics/tech-and-human-rights/posts/7
英オックスフォード大学のThe Future of Humanity Institute (FHI)は、4月16日に閉鎖された。哲学者ニック・ボストロムが2005年に設立、所長を務め、「高度に発達したAIが人類を滅ぼすリスク」など「実存的リスク(人類の存続に関わるリスク)」を主に研究していた。
ボストロムの差別発言(白人至上主義発言や、社会正義の支持者を「血に飢えた蚊」と呼んだ発言など)が問題視されたとも言われている。
同研究所(FHI)は、哲学者ウィリアム・マカスキルらが設立したCentre for Effective Altruism(効果的な利他主義センター)とオフィスを共有し、密接に連携してきた。またイーロン・マスクらが研究資金を提供していた。
https://twitter.com/xriskology/status/1780702577656791451
ITジャーナリストです。
仕事リスト:https://note.com/akiohoshi/n/nebac412b6c12