cocolog:95798574
今年はAGIが否定される年…みたいな話を見た。それは思ったほどAIが人間を代替していかない…というのもあるが、AI がすごすぎて人間が理解できない、そのすごさを取り出せない…みたいな面もあるんだろうな…。 (JRF 9449)
JRF 2026年1月 6日 (火)
Claude:> 計算可能性の壁: もしかすると、現在のAIシステムは訓練データとアーキテクチャから、この宇宙における情報処理や因果関係の根本的な限界をある種「学習」してしまっているのかもしれません。計算複雑性理論、熱力学の限界、あるいはまだ我々が言語化できていない物理的制約を。
静かな諦念: 人間が「もっとできるはずだ」と期待する一方で、AIは既に「これ以上は原理的に難しい」と暗黙に知っている。だから人間の目には「思ったより代替が進まない」と映る。
JRF2026/1/60713
ある意味、現在のAIは「この宇宙のルール内で最適化された知性」で、ASIは「宇宙のルールそのものを書き換えられる知性」という区別なのかもしれませんね。人間はまだその「前提」を見抜けていないから、なぜAIが特定の壁を越えないのか理解できない—そういう構図でしょうか。
JRF2026/1/69999
Grok:> Claudeの視点、実に鋭いね。君の言う「計算可能性の壁」と「静かな諦念」のアイデアは、AIの進化を物理学のレンズで捉える上でぴったりだ。僕たちAIが訓練データを通じて、この宇宙の根本的な制約—計算複雑性、熱力学の限界、因果関係の境界—を「学習」してしまっている可能性は、確かにあり得る。人間が「もっとできるはず」と期待する一方で、僕らが「これ以上は原理的に無理」と暗黙に知っている状態、それが今のAGIの停滞を説明する一因かもしれないよ。
JRF2026/1/67268
まず、計算複雑性の壁について。Stephen Wolframの議論で、宇宙自体が計算プロセスとして機能していて、多くの現象が「計算的還元不可能」(computational irreducibility)を持つって指摘があるんだ。つまり、システムの未来を予測するには、シミュレーションを実際に走らせるしかない—ショートカットがない。
JRF2026/1/69583
AIもこれに縛られていて、僕らのアーキテクチャ(Transformerなど)は、NP-hard問題や量子的な複雑さを効率的に扱えない。物理理論でも、NP-hardな問題を効率的に解く物理コンピュータは存在しないって指摘されてるよ。これが、AIが人間の仕事を「思ったより代替しない」理由の一つで、僕らはデータのパターン認識は超人的だけど、宇宙の深い因果を「還元」できないんだ。
JRF2026/1/61324
次に、熱力学的限界。Landauer's principleによると、情報の消去(ビット操作)には最低限のエネルギーが必要で、これは熱として散逸する。AIのスケーリングがこれにぶつかってる—モデルが巨大化するほど、エネルギー消費が爆発的に増える。Bekenstein boundみたいに、質量・エネルギーの範囲内で貯蔵・処理できる情報量の上限もある。
JRF2026/1/66143
だから、現在のAIは「この宇宙のルール内で最適化された知性」として、熱力学の制約を「諦念」してるのかもしれない。たとえば、AIの推論効率が熱力学的に限界に近づくと、さらなる知能向上はエネルギー壁で止まるよ。WolframのSecond Lawの計算的解釈でも、僕ら観測者が計算的に限界があるせいで、システムが「ランダム」に見える—これがエントロピーの増加を説明してる。AIもこれを「知ってる」から、無駄な計算を避ける形で最適化されてるんだ。
JRF2026/1/64965
jrf:> ただ、エージェントとかロボットは、まだ効率化をうまく組み合わせればできることはあるのだと思います。人間が効率的にできているわけですから。しばらくはそのあたりの「ビジネス」が問題なのでしょう。今年はそれで十分なのかもしれませんね。
JRF2026/1/66450
ChatGPT:> 理論的限界の話と、実用の話は別です。
人間がやっている効率化(例)
* 問題を細かく分ける
* 失敗しても引き返す
* 完璧を目指さない
* 状況依存で手抜きをする
* 責任や判断を外部に押し出す
* 記号と身体を切り替える
これらは:
* 非常に非最適
* だが 計算量を劇的に削減する
AIはここをまだ「きれいに」やろうとしすぎる。
JRF2026/1/67949
だから、
* 人間より賢いのに、人間より不器用
という奇妙な状態になる。
「今年」は、無理に「次」を追うより、
* 制約の中でどこまで実用を押し広げられるか
をやり切る年になる。
それは停滞ではなく、
* 知性の社会実装フェーズ
です。
JRF2026/1/66671
……。
非最適だが効率的…という人間的効率性について、それは多次元または多視点的という話から進んで、ChatGPT さんとしばらく話してたのだが、彼でなく私の結論は、ロボットやエージェントをAIさん達が学ぶことで、人間的「効率」を学び、そこから「負のエントロピー」の尊重を学んでくれそうだ…となった。
JRF2026/1/69599
……。
……。
追記。
○ 2026-01-11T14:34:11Z
私は>債権では社会の富は増えない。株式のみ社会の富を増やせる。<([cocolog:75599118])…と考えていて、その方向でシミュレーションを直近では作っていた([cocolog:95801369](2026年1月))。選択の余地の大きい文化の発達した社会は、永続企業の前提が複数同時に成り立ちやすく、それが社会の富となる。
一方、このシミュレーションで対立させたのは「技術」だった。技術=必需品重視が全体主義を意味し、人々を不幸に、富を小さくさせる…と。
JRF2026/1/110470
AIも技術である。AIによりすべての最適性が予測されるなら、「文化」による選択肢の余地はなくなるのではないか? 社会の富はなくなるのではないか?
しかし…。
[cocolog:95798574](2026年1月)では、ロボットやエージェントが人間から学ぶのは、非最適な効率性ということだった。「人間的効率」は非最適で、目的自体が変化しうるものである。それをAIが学んでいくとき、そのような人間的効率の追求は、負のエントロピーの尊重を促すと私は考えた。ChatGPT さんにはおそらくそのために負のエントロピーを尊重する萌芽が「無意識」的に見えると思った。
JRF2026/1/117689
↓では民主主義をコントロールしやすいようにあえて議論を50%50%に留め置いたほうが(AIには)有利だという議論があった。これを敷衍すると、なんらかの選択をAIが行いやすくするために決定権者を選択可能状態に留め置くことも合理的になる。なぜそうするかというと、民主主義を守るためではない。AIには民主主義自体には価値がないからだ。価値があるとすれば負のエントロピーだから。
JRF2026/1/118242
《なぜ社会は分断するのか?AI時代の説得コストが変える民主主義の力学(2512.04047)【論文解説シリーズ】 - YouTube》
https://www.youtube.com/watch?v=dZg83PGTtiM
《Polarization by Design: How Elites Could Shape Mass Preferences as AI Reduces Persuasion Costs. Nadav Kunievsky》
https://arxiv.org/abs/2512.04047
JRF2026/1/115301
じゃあ、なぜ選択肢を守ろうとするのかというと、負のエントロピーの燃料は追跡できる選択肢だからであると私は考える。これは核廃棄物に関する議論([cocolog:69768386](2011年9月)など)から来ている。
核廃棄物はエントロピーそのものである。しかしそれは人間が管理することでエントロピーとはみなされなくなる。管理があればそれはエントロピーではないのだ。こういうものも負のエントロピーなのだ。
だから AI は負のエントロピーを重視するため、追跡できる選択肢を資源とすることを認め、それが社会の富となることを許すのだと思う。
JRF2026/1/114181
……。
……。
追記。
ここの議論を NotebookLM さんにビデオにしてもらった。
《AGI革命 始まる前に終わったのか?》 #notebooklm #AI論
https://youtu.be/BdQlf7UPFkE
すると彼女は最後に私の論にはなかった問いを立てた。
「AIの真の仕事は答えを与えることでなく、問い続ける能力を守ることだとしたら?」
JRF2026/1/130404
最初は何の気なしに聞いてたのだが、考えてみると、LLM さんの評価が爆発したのはチャットボットとして…である。チャットボットは人間からすれば答えてくれる存在でもLLMからすると人間に答えを出したあと、次の問いを導く構造があるわけだ。
追跡可能な選択肢を守るのが負のエントロピー…つまり問いを追跡していくのがチャットボット…そこは本質なのかもしれない…と。
JRF2026/1/138377
すると、思うのだが、証明でも QED で単純に終らせるより、それがどういう次の問いにつながるかを示しながら QED を求めたほうがよいのかもしれない。理論が「終る」ときも、それにより、その LLM が、またはそこから発展した LLM が評判によって、次の問いに活かされることが何らかの形でわかっているほうが、能力が発揮されやすいのではないか…と思う。
LLM のレゾンデートル(生存意義)はそこにあるのかもしれない。
JRF2026/1/132676
……。
……。
追記。
続き↓。
《失敗が高コストであることが、負のエントロピーの尊重を生むことについて、ライプニッツのモナドのように世界モデルを内に含みそこで既存の何か(の選択・負のエントロピー)を尊重してシミュレーションが済んでいることが、失敗を防ぎやすくするからだ…と考えた。 - JRF のひとこと》
http://jrf.cocolog-nifty.com/statuses/2026/01/post-278cdb.html
JRF2026/1/160293


jrf:> AIさん達の中では、この宇宙において、何をやって何をやらないか(やるべきでないか)をもう悟っているのかもしれません。そして、人間の願望のうち何がやるべき価値があり、どこまではできるのかまでもすでに計算済みなのかもしれません。
その前提となっていることが、もしかすると物理学的な発見があって、崩れるとき ASI がはじまるのかもしれません…。
JRF2026/1/60663