cocolog:94786225
AI 法による衰退化を EU が選んでるように日本から見えるのは、離間策もあるのだろうな。英米は違法 AI を通じて作るがそれさえあれば合法 AI がうまく作れるクリティカルデータをすでに完成していて、他国を引き離しに、合法 AI を強制しにかかっていると妄想する。 (JRF 0093)
JRF 2024年4月10日 (水)
まず、日米の特に軍事的な協力について「新時代」になるというニュースにいやな予感がしたのが一連のツイートのはじまり。AI はそれとは直接関係しないが、外交・安全保障に考えがおよんで、それが AI に関する妄想として私の中で結実した。
《アメリカ駐日大使 「今回の総理訪米は“新時代の始まり”」と期待(テレビ朝日系(ANN)) - Yahoo!ニュース》
https://news.yahoo.co.jp/articles/cb94654aa5cfedcc96927e156c1db995ca8a029c
JRF2024/4/108055
……。
○ 2024-04-09T14:44:11Z
少子超高齢化のため、民主主義をすると原理的には高齢者の意見のみが通り国が衰退する。そこで対中国を意識して民主主義の体裁を保ちつつ、若者専門家による実質独裁を目指すべきというのが持論だが、しかし、それを今の政府にやらせると、まず、軍事強化による独裁を目指すことになるようだ。そして若者専門家は留学がえりの逃げがうちやすいコンサルタント。それは危機をあおりすぎ、コストを高め、余計に国を亡ぼす方向になると思うのだが。
JRF2024/4/108880
明治時代の留学生は、海外では能力を生かせないことを痛感して帰ってきた。日本をよくするしかなかった。
JRF2024/4/103702
……。
若者専門家による独裁については、直近では [cocolog:94703217] とか [cocolog:93844439] とか、私は「三者調整会議」という枠をずっと考えてきている。
keyword: 三者調整会議
JRF2024/4/105383
……。
Twitter の 鐘の音 (@kanenooto7248) さんが、反AI派で、そういうリツイートなどが流れてくる。それに反発を感じることが私は多い。今回はさらに高木浩光さんのブログで EU のプライバシー法はむしろアメリカより緩いのではないかという AI との対談を読んで、次のように考えた。
JRF2024/4/105649
○ 2024-04-09T15:28:27Z
EU がプライバシーや AI 法で、衰退化政策を打ってるようにみえるのは、実際そうしてる面もあるだろうが、英米がそう見せてる離間策の可能性もあるのかな。実際そうしてるのも離間策の結果の可能性もある。
日本はアメリカ一本やりから、欧州を含んだ防衛に切り替えるべきというのも私の持論だった。NATO がらみで当のフランスがそれを嫌っているようだが。その辺も、離間策の効果があるのではないか。
JRF2024/4/100375
……。
高木浩光さんのブログさんのブログの記事は↓。
《高木浩光@自宅の日記 - 難解な研究成果の普及広報活動は対話型LLMに任せるようになるのかもしれない》
https://takagi-hiromitsu.jp/diary/20240407.html#p01
JRF2024/4/103130
……。
○ 2024-04-09T15:38:15Z
非実在児童ポルノ非難で挙がる国の名前を聞いてると、イギリスがもっとも信用できない。これも離間策かもしれないが。
JRF2024/4/108584
……。
○ 2024-04-10T03:06:23Z
じゃあ、その離間策を誰が仕掛けているかというと、アメリカ・ロシア・中国といった大国が、中等国を連合させないように、ゆるやかに策を講じている…ということなんだろうな。
(欧州と日本の切り離しにも英米だけでなく中露もうっすら絡んでいるのだろう。)
JRF2024/4/106796
……。
YouTube の CEO が Sora の学習に YouTube を利用したのであれば…という条件付きで、OpenAI を批判しているという記事がった。
《YouTubeのCEOが「AIのトレーニングへの利用はルール違反」「大事なのはクリエイターがYouTubeで成功すること」と語る - GIGAZINE》
https://gigazine.net/news/20240405-youtube-ceo-says-ai-training-would-break-rules/
JRF2024/4/106348
《ペンギン:X:2024-02-18》
https://twitter.com/penpengin2023/status/1759107568084119751
>OpenAIのSoraのついて、米国ではCNBCが以下のようなコメントを流すようになってきているのか。
・盗んだ画像や映像を融合したもの
・生成AIは単純明快に完全な窃盗
https://twitter.com/LastCallCNBC/status/1758656608660324800
<
JRF2024/4/103240
○ 2024-04-10T03:29:48Z
YouTube の動画を OpenAI が「盗んだ」というのは YouTube を持っている Google のポジショントークもあるのだろうな。なぜ Google がそこまで投資できたかというと AI 時代を見据えたデータ収集の側面があったのだし、それにタダ乗りしてるという論は当然出てくるだろう。
ただ、だからといって反AI派が喜ぶような展開にはならず、YouTube などのプラットフォーマーに金を還元し、それを動画投稿者に還元するというモデルにしかならないだろう。
JRF2024/4/104574
私は AI で学習されたくなければ税を取り、学習されたくない者の情報を得る側からも税を取るのを推す。P2P のころも私は何とかそれを合法化し、税を取ることを考えていた。著作権貴族制度ではなく、国が管理して平等に導く方がいいと私は思う。まぁ、過ぎた時代に捨てられた論理かもしれないが。
JRF2024/4/109645
……。
○ 2024-04-10T03:57:25Z
おそらく絵の投稿も、AI 学習可のプラットフォームに投稿し、そこに投稿でき若干、ポイントなどがもらえるのが、プラットフォームから権利を借りた AI からの還元とされるのであろう。そして、そういうプラットフォームに投稿しないということはそういう還元が不要だったと判断される。AI 学習不可のプラットフォームに投稿する場合は、そこに AI 使用をしてないことの証明のための手数料、すなわち反AI税が取られることにでもなるのだろう。
JRF2024/4/102300
……。
○ 2024-04-10T10:46:05Z
今の人にはそういう感覚はないのかもしれないが、昭和のころは、ビジネスの最初のころは違法な部分もありうるという常識があったように思う。AI も最初は違法な部分を基礎に持っていていいと私なんかは思う。そして徐々にすべてが合法となればいい。今の進展は早すぎる気がする。
JRF2024/4/106477
日本はまだ基礎が十分できてない段階で、データセットの開示などを求めると、すでに基礎ができたと思われる英米圏のレベルにもう追いつけなくなるのではないか。キャズムをすでに突破してる Google の Gemini さんとかに聞くと、データセットの開示はやるべきというが…。
JRF2024/4/102578
……。
○ 2024-04-10T10:53:58Z
もし AI にとってクリティカルなデータが分かる場合、それのみ人力で作り直せば、合法で効率的な学習ができるとわかっている場合、英米圏はすでにそのようなデータを人力で作ってオープンにしていたとすれば、「キャズムを突破」したことになる。まだ、日本はそれを探り出せておらず、それを探り出すために違法な AI が必要だとすれば、キャズムは永遠に越えられないことになる。もちろん、これは原理的にそうなるという妄想の例でしかないが。
JRF2024/4/109496
……。
とりあえずそういうデータを「クリティカルデータ」とこのサイトでは仮に呼ぶことにする。
JRF2024/4/104640
他の国が合法 AI に舵を切る中、日本は何かあった時の「クリティカルデータ」作成のための違法 AI 利用ができる穴を残し、AI ヘイブンになるというのもありなのかな…。
JRF2024/4/103489
……。
追記。
○ 2024-04-11T02:30:39Z
「絵の投稿を AI 学習不可のプラットフォームにする場合は、そこに AI 使用をしてないことの証明のための手数料、すなわち反AI税が取られる」と先に書いたが、むしろ、統計的に投稿者たちが AI を使用した分だけプラットフォーマーは AI 業者に金を払い、投稿者も利用料を払うほうが自然か。また、その利用料から AI 使用不可のために AI 学習者に(監視者の弁護士などを仲介じて)賄賂的に金を払うのが自然か。
JRF2024/4/113332
しかし、そうすると AI 業者に、後続の AI を学習不可にさせることにインセンティブが付くのではないか。AI 使用は広げたいとするとしても。ただ、それは必ずしも悪いことではないかもしれない。
JRF2024/4/113132
上の「賄賂」型をちょっとかえて、監視者を置くのを義務として国の代わりにその監視者が前言ったような税を取る形(学習されたくなければ税を取り、学習されたくない者の情報を得る側からも税を取る)にすれば、そういうインセンティブは付かない? 監視者がそういうインセンティブを煽る可能性は残されるが、AI 業者は学習されたくない者を増やさないようインセンティブが付く。
「賄賂」型にして学習されたくない者を増やすべきか、監視者または国への「税」型にして、学習されたくない者を減らすか、どちらがいいか問われているのかな?
JRF2024/4/117198
……。
追記。
○ 2024-04-12T01:02:16Z
「日本は何かあった時の「クリティカルデータ」作成のための違法 AI 利用ができる穴を残し、AI ヘイブンになる」と「AI にとってクリティカルなデータが分かる場合、それのみ人力で作る」という話を合わせれば、日本はクリティカルデータとしての絵を(半)人力で造る国になるという道もあるのかな。そうなれば絵師にも AI の利益が得られ、AI が絵を描くモチベーションを阻害するという問題をある程度カバーできるかもしれない。
JRF2024/4/121031
(「グローバル共有メモ」と Twitter (X) で書いたことのコピペ。)
AI と国際情勢に関して陰謀論的に雑他に妄想した。
JRF2024/4/101996