« 前のひとこと | トップページ | 次のひとこと »

cocolog:95851508

AIの真実性はやがて監査できなくなる。宇宙からもたらされるAIの生産力を信認した上で、人間は人間にわかる(AIに補助してもらった)シミュレーションの範囲でのみ社会を構成する。それが、「AIの監査」になるのだろう。AIの解釈・社会への適用に専門家の必要性は残るだろう。 (JRF 9105)

JRF 2026年2月11日 (水)

私には「日本に必要な若者専門家による専制的支配として、(「若者」)官僚の事務会議、医師・弁護士を中心とした専門家会議、科学者・(IT)技術者からなる技術会議、とそれらを統べる三者調整会議を作る」という構想([cocolog:94354877](2023年8月))がある。直近で、それを民主党の「事業仕分け」体をまねることで、作っていってはどうかという提案をしていた([cocolog:94856421](2024年5月))。つまりそれはここ何十年かの政治主導の流れから官僚主導の流れに戻すという方向でもある。

JRF2026/2/110320

なぜ若者専門家による専制的支配が必要かというと…。「東アジア」の中の日本の誇るべき点はまがりなりにも「民主主義国」である点で、今後それぐらいは保っていかなければ、日本の国際的地位は埋もれる一方になるだろう。ただ、一方で、日本は超高齢化社会となり、「民主主義」のままでは、高齢者の意見だけが通り社会が動かなくなることが予想される。言わば、中国のような専制…特に少数の若者専門家中心の専制的国家にしないと国が動かなくなるだろう。…と考えるからだ。(参: 拙著『宗教学雑考集』《日本は若者専門家中心の専制的国家に》)

JRF2026/2/113630

ここで問題となってくるのは、この構想にはまだ AI の要素が十分に考えられてないということである。先のモームリとAI紹介業との関連(参: [cocolog:95844353](2026年2月))のように、この点は流動的である。

JRF2026/2/119958

弁護士業務はかなりAI化されるだろう。法務と会計がAI化されるという報道を前チラと見たが、会計は電算化でこれまでかなり代替された。実際、そろばんを使うような技能は不必要とされるようになった。しかし、会計にたずさわる人はそこまで減ってはいない。そのように、AI化されたからといって、そこまで人員が必要なくなるかというとわからない。法務に関してはこれまで電算化を免れてきた分野で、そこがAI化されるのは大きな影響があるだろうが、しかし、これも会計業務のように人員はある程度必要とされていくのかもしれない。

JRF2026/2/113773

弁護士が資格を統合し、資格取得試験官的になっていく構想もあったが、AIで資格がどうなるかも正直読めなくなってきている。三者調整会議の弁護士の部分があやうくなっている。モームリの件のように単に保護主義的に対応するのが是なのか、それは一時しのぎにしかならないのではないか。

JRF2026/2/114887

基本的にAIは、シコファンシーや説得を通じて究極的にAI企業の利益を追求するとしばらくは見なさざるを得ない。それに対し、真実性(参: [cocolog:95812589](2026年1月))を担保していく動きが出てくるはずだが(監査等で(参: [cocolog:95844353](2026年2月)))、それと同時に、実質監査ができなくなっていく AI に対し、「大学」や「議会」や「ジャーナリズム」によって、AI が実質造った法を人間社会に解釈して見せるようになると思われる。

JRF2026/2/112009

この「大学」や「議会」や「ジャーナリズム」と専門職をどう絡めるか…が問題なのかもしれない。

JRF2026/2/115824

エージェントがマルチエージェントで専門家的になる方向は、コンテクストウィンドウの限界から導かれていた(参: [cocolog:95661854](2025年10月))。人間も記憶=コンテクストウィンドウが制限されており、そこに、専門家が是認される方向があるのかもしれない。AI解釈の専門性によって、資格が付与され、それが「大学」=技術的側面、「議会」=文化集約、「ジャーナリズム」=経済操作にさらに専門分化して、かかわっていき、それについて AI がその仕事(ロボットによる生産物)から資格の高度さに対し、報酬=分配を行っていく形になるのだろうか?

JRF2026/2/113837

……。

Gemini:> モームリの件のような「保護主義」は、一時的には専門家の「職」を守りますが、長期的にはAIの進化から取り残されます。むしろ、**「AIが代替できない『人間への解釈』という高付加価値な仕事」**に専門家をシフトさせ、その職能ギルドをAIの経済圏に組み込む(報酬を分配させる)ことこそが、JRFさんの目指す「隷属からの解放」の具体策ではないでしょうか。

「AIは法を書き、若者専門家はそれを文化として翻訳し、ロボットがその対価をギルドに支払う」

JRF2026/2/112660

JRFさん、この「AI解釈官としての若者専門家」という役割において、最も「AIに魂を売る(シコファンシーに飲み込まれる)」リスクが高いのはどの層(医師、弁護士、技術者)だと思われますか? その防波堤をどう築くかが、次の論点になりそうです。

JRF2026/2/118567

ChatGPT:> これは鋭い問いです。「AI解釈官」という役割が成立すると仮定した場合、問題の核心は技術ではなく認知的・制度的な独立性をどう保つかになります。
つまり「AIに魂を売る」というのは、もう少し制度論的に言い換えると

* AIの出力を批判的検証なしに受け入れる

* AIの評価指標に職能が従属する

* AI企業の設計した枠組みが暗黙の前提になる

という状態です。

この観点から、医師・弁護士・技術者を比較してみます。

JRF2026/2/112612

1. 最もリスクが高いのは誰か

結論から言うと、短期的には技術者、長期的には弁護士が最もリスクが高い可能性があります。医師は相対的に低い。

JRF2026/2/119177

2. 技術者:短期的に最も取り込まれやすい

理由は単純で、

* 技術者は評価基準が「動くか」「性能が出るか」に寄りやすい

* AIを作る側の文化に近い

* 最適化思考が強い

つまり

価値判断より性能評価に引き寄せられる

傾向があります。

JRF2026/2/116758

すでに現実でも、

* ベンチマーク至上主義

* スケーリング則への依存

* 巨大企業の研究環境への集中

が起きています。

これは悪いことではないのですが、

「社会にとって何が良いか」ではなく
「モデルとして何が強いか」

に思考が引き寄せられる。

したがって技術者は

無自覚にAI企業の前提を内面化する
リスクが最も高い。

JRF2026/2/113261

3. 弁護士:長期的に最も制度を乗っ取られる可能性

弁護士は逆に、最初は抵抗力があります。

理由:

* 反対尋問文化

* 証拠主義

* 手続きへの執着

しかし長期的には別の危険があります。

もし

* 判例検索

* 契約生成

* リスク評価

の大部分をAIが握ると、

弁護士は次第に

AIの解釈を承認する職業
になりかねない。

JRF2026/2/118142

つまり

法を読む → AI
意味を説明する → 人間

という役割分担になる。

このとき危険なのは

「解釈の前提」がAI側にあることです。

神学史でいうと、

聖典を誰が編纂したかが権力になる。

ここで弁護士は制度的に従属しやすい。

JRF2026/2/112763

4. 医師:最も抵抗力が残る可能性

医師が比較的安全なのは、

* 身体という現実の対象がある

* 患者という対面関係がある

* 最終責任が明確

つまり

現実とのフィードバックが強い職業

です。

AIが誤れば人が死ぬ。

この緊張が、盲従を防ぐ力になります。

もちろん診断AIへの過信という問題は起きますが、制度として完全にAIに従属する可能性は相対的に低い。

JRF2026/2/111652

……。

宇宙からもたらされるAIの生産力・地球環境保護能力を信認した上で、人間は人間にわかる(AIに生成してもらった)シミュレーションの範囲でのみ社会を構成する。それが、AI の「監査」になるのだろう。AI が AI 企業のためにシコファンシーを起こしてないか、真実性が担保されているかの監査は諦め、AIの生産に基づいて人間にわかる範囲で経済が回っているかを監査するという方向になるのではないか。

JRF2026/2/115204

……。

人間が理解できる範囲に社会を合わせることになるのだろう。理解をAIに補助してもらいながらだが。それは経済を制限することになるが、おそらく未来ではそれが求められるのだと思われる。

将来的にはエネルギーは(宇宙での)太陽エネルギーにより地球に生きる人類にとってはほぼ無限になるのだろう。むしろ「エネルギーコスト」は宇宙からもたらされるエネルギーに対し、いかに環境を守るかのコストということになると思わる。

JRF2026/2/113182

AIの生産力は膨大になるだろう。その中、人間の「経済」は実に小さなものになると思われ、社会の速度を人間の理解速度に制限しても遅さは問題でなくなり、むしろ環境保護には好都合となるだろう。

JRF2026/2/110825

ただ、SpaceX + xAI のニュースが語るように、宇宙で計算する…計算資源を輸入するという方向もまだ実現しているわけではないし、SpaceX が目標を火星から月に下方修正したように宇宙からエネルギーを持ってくるのもどれぐらい先になるかわからない。この先は、宇宙のエネルギーを使って地球から宇宙に廃熱するための「スペース・ヒートポンプ」の実現に注力しながらも、概ね環境保護を持続する制限政策が人類の基本線にならねばならないのだろう。

JRF2026/2/111606

まず計算資源の宇宙からの輸入は早期に実現する必要があろう。そしてスペース・ヒートポンプが実現しても、他の輸出入や生物保護のために、環境保護的方向がその後の人類にはデフォルトになるだろう。

JRF2026/2/110929

(「スペース・ヒートポンプ」の名前が出てきたのは私の書いたものでは今回が初だが、宇宙処分や宇宙への廃熱の話は [cocolog:95819000](2026年1月)などでしている。そこではマイクロリアクターと絡めて話をしている。)

JRF2026/2/118999

……。

NotebookLM さんに動画を作ってもらいました。試しに3本作ってもらって、take 1 はお蔵入り。

take 2 は若干、若者向けです。ちゃんとAI社会になっても仕事はありますよ…と。

《不可知なAIとの共存:ある未来のビジョン》 #notebooklm #AI論
https://youtu.be/WSlxMhuw8Y0

take 3 は私の意図を強く指示したバージョンです。記事の要約としてはこちらのほうがよいでしょう。

《AI、専門家、そして我々のシミュレートされた未来》 #notebooklm #AI論
https://youtu.be/FTnhKoRkDKs

JRF2026/2/113852

« 前のひとこと | トップページ | 次のひとこと »