AI駆動型国家の夢と、データ主権という現実――「攻め」と「守り」の間で日本は何を選ぶのか
2026/04/30 12時00分公開
0-
0
【人間迷路 Vol.511より】
先日、メルマガでも記事を書きましたが大変なご好評をいただきました。ありがとうございます。
また、JILISコロキウムでも京都大学教授の曽我部真裕先生をお呼びし、データ主権とSNS規制の議論についても詳細にお話をさせていただいております。
ちょっと大枠の話がいま現在始まっていることもあって、私自身の心の中の整理も含めていま与党・自由民主党や高市早苗政権及びその周辺で行っている議論についてまとめていきたいと思います。個人の見解もたぶんに含まれておりますが、まずはお付き合いください。
先般発表になりましたが、自由民主党のデジタル社会推進本部が「AIホワイトペーパー2.0」を取りまとめた2026年4月、そのタイトルに刻まれた「AI駆動型国家への構造転換」という言葉は、政策文書としては異例なほど強い意志を感じさせるものでした。
ただ、まあちょっといろいろありました。最近、私が外でその手の話をしなくなっている理由は皆さん察してください。
で、ここでいう「世界一AIフレンドリーな国」というかつてのスローガンが「外国のAI企業に来てほしい」という受け身の姿勢を滲ませていたのに対し、「駆動型」という言葉には「自分たちがAIを動かす主体になる」という能動的な宣言が込められています。日本が、世界のAIシーンをリードするのだ、と。ええ。で、まあ、この手の政策の言葉は、しばしば現実の課題を先取りして語ります。しかしその言葉が宣言に終わらず実態を伴うためには、問いに正直に向き合わなければならない。その問いとは、「日本は本当に、自分でAIを動かせているのか」という、やや不都合な問いです。
2025年12月に閣議決定された「人工知能基本計画」は、日本のAI開発の現状を「主要国はもちろん、経済規模が小さい国にも後塵を拝し、出遅れが年々顕著になっている」と自己診断しました。これも、まあ、いろいろありました。で、政府の計画文書がこれほど率直に自国の劣後を認めることは珍しく、そこには政権を引き継いだ高市早苗さん官邸の危機感が透けています。同計画は日本の強みとして「質の高いデータ」と「高品質な通信環境」を掲げ、米国や中国とは異なる独自の領域で競争力を高めるとしていますが、肝心のAI基盤モデル開発においては「米中が主導し、日本の存在感は現時点で限定的」という冷厳な分析も付記されています。自己診断と処方箋のあいだにある落差をどう埋めるか、それが問われているのです。
この問いを「データ主権」という軸で捉え直すと、問題の輪郭がより鮮明になります。データ主権とは、端的に言えば「誰のデータを、誰が、どのような目的で使えるか」という問いに対する、国家・社会としての意思決定能力のことです。生成AIが「便利なツール」の段階を超え、社会インフラの基盤として組み込まれていく時代において、この能力を持てるかどうかが、国家の自律性を規定します。それはかつてのインターネット黎明期に、プラットフォームとデータを米国の巨大企業に委ねた結果として日本が経験してきた「後追い」の構造と、本質的に同じ問題です。違いがあるとすれば、今回はその影響が産業競争力にとどまらず、安全保障や民主主義の基盤そのものに及びかねないという点でしょう。
言うに及ばず、まあ私が言うと怒られるのかもしれませんが、この点では日本にまったく当事者能力はなく、また世界に向けてのリーダーシップなんて微塵もないぐらい存在感のない状態になっています。言いたいことはたくさんありますが、まずは大枠で申しますとそういう感じです。
で、OpenAIがデジタル庁の「源内」プロジェクトに入り込み、政府職員が日常業務でChatGPTを使い始めているという現実は、それ自体は業務効率化という観点から合理的な選択です。周辺であれこれ仰る人はいますが、個人的には「導入を決めた当時は他に選択肢がなかったんだからいまあれこれ言っても仕方ないだろう」と思います。しかし同時に、政府の意思決定プロセスや政策立案の過程で生まれる言語データが、外国企業のモデル学習基盤に流れ込むリスクを内包しています。OpenAIはISMAP(政府情報システム向けセキュリティ評価制度)の認証取得を目指すと発表しており、外国企業として初の取得となれば一定のセキュリティ基準はクリアされるでしょう。しかし、CLOUD Act(クラウド法)の問題は依然として残ります。
また、ISMAPがゴミなのはみんなが知っているので、状況が許すならば近い将来きちんと議論して次なる仕組みを用意しないといかんだろという時限爆弾のような宿題を抱えさせられていることは理解しておくべきです。そのうえで、データ法制においては特に米国の法律が、米国企業の保有するデータに対して米政府による開示要求を可能にしている以上、日本の行政データが法的に「日本の管轄外」に置かれるリスクは消えません。これはISMAPが問うセキュリティ技術の問題というよりも、法的管轄権という構造問題です。要は、日本がどう考えようと、日本の中にあるはずのデータにおいてをや、日本政府は必ずしも自由に差配できない、という当事者能力のなさはきちんと理解しておく必要がある、と思うのです。
Palantirの動向は、さらに興味深い示唆を含んでいます。SOMPOホールディングスとの合弁会社を通じて介護・保険分野に食い込み、富士通との戦略パートナーシップで産業データ基盤を握り、能登半島地震の被災者台帳システムで「現場の信頼」を獲得した同社は、表舞台の生成AI競争とは別の次元で日本社会に深く根を張りつつあります。某家電量販店から大手携帯キャリアの子会社まで、かなりの浸透が進んでいるのは良いのか悪いのか微妙なところではあります。
で、Palantirが得意とするのは、散在するデータを統合して意思決定を支援するプラットフォームの構築であり、それは一度導入されると代替が著しく困難になる「ロックイン型」の構造を持っています。もちろん、消極的にはPalantirの対抗がいないというのもありますが、仕組み的に、ベンダーを入れ替えるスイッチングコストがべらぼうに高い性質のものだという点では、やっぱなんかちゃんと考えないとアカンという気はします。
さらに、米軍や諜報機関との深い関係で知られる同社が、将来的に日本の防衛省・自衛隊とも連携を深めた場合、そこで扱われる情報の主権はどこに帰属するのか、かなり深淵な問題と隣り合わせになるのが本件です。そして、防衛費が2026年度で約8.8兆円に達し、防衛テック投資が急加速する今の日本で、この問いにたいして明確に答えを出せている人は少ないのもまた事実でしょう。
振り返りをいまの段階でするのは適切ではないのかもしれませんが、Palantirに限らず日本の先進技術の社会実装においては、Web3.0もNFTも概ねにおいて「それが日本社会の将来において、どういう利益があって、何のリスクを踏み越えていく必要があるのか」という未来絵図と見積もりがうまく定まらないまま、なんとなく必要なものだから導入を検討し、必要かどうかは分からないけどとにかく推進しようという雰囲気すら感じさせます。もちろん、先行者利益を喪失している日本はどのみちどこかで博打を打たないといけないのですが、ステートクラフト論のときもそうでしたが裏口から三河屋のごとく入り込まれてしまうとろくに検証せずすんなり進んでしまうのが我が国の本当の弱点なんじゃねえのという気もしないでもないんです。ケツをいま拭いている私がそう思うんですから間違いありません。
Anthropicが米国防総省との契約を破棄した一件は、この問題の別の側面を照らし出しています。「大規模な国内監視や完全自律型兵器の開発を目的とする利用は認めない」という同社の姿勢に対して、国防総省は「サプライチェーンリスク」という前代未聞の指定で対抗しました。うん。まあ、その。米国内企業に対してこの指定が使われたのは史上初めてのことで、「AIの使い方を決めるのはAI企業か、利用する側か」という問いをめぐる最初の本格的な法的・政治的な衝突として歴史に刻まれるかもしれません。日本にとってこの事例が重要なのは、AIガバナンスの議論が「利用規約」や「倫理指針」の次元を超えて、契約法と安全保障法の交差点に突入しているという現実を示しているからです。日本政府が仮にAI関連の国際調達を進める際、Anthropic問題はひとつの先例として参照されることになるでしょう。
今回、自民党のホワイトペーパー2.0が割とはっきり「信頼の設計」という概念を持ち込んだことは、それ自体は正しい問題設定です。AIが社会インフラになる時代において、信頼はすべての起点になります。ただ、「信頼」の内実をどう定義するかによって、政策の射程は大きく変わります。塩崎彰久さんが主導してきたホワイトペーパーの文脈では、信頼は主として「AI推進法第16条に基づく指導・助言」という形での国家の介入根拠として論じられています。
しかし真の意味でのデータ主権を確立するためには、「信頼できるAI」という命題は「誰が判断基準を持つか」という主権の問いと一体に議論されなければなりません。何らかの法的な背景で、自動的に優先順位が決まって白黒つくものでもありませんし、仕方がない面はあります。世界で誰もが使うAI基盤モデルを米国の民間企業が開発・運営している現状では、よく分からない立場であるはずの日本をして「信頼できる」という形容詞の中身を規定する権限は、事実上その企業(の構成員と倫理観)が握っています。そんなあやふやなもので大事なAI駆動社会の実装までもってっていいのか、という懸念は当然に出されることになりましょう。そして、これは技術的な問題ではなく、立憲主義的な意味での「権力の所在」の問題です。
ここで「デジタル立憲主義」という概念が浮かび上がります。これは国内法における立憲主義の議論を、デジタル空間・AIガバナンスに拡張する考え方で、データと計算資源という「デジタル権力」が特定の国家や企業に集中しないよう制度的に均衡を保つべきだという原則から出発します。
個人的には私人間効力をデジタル時代にどう設計して、憲法に基づいて政府がどう国民を守るため介入するか、って考え方になるのかなと思ってみていますが、戦う民主主義にしてもいまはまだ蛮族の論理なので、これを上手く着地させるためにもう少し国民的議論は必要なんじゃないのかと感じる部分は大きいです。
特に、欧州のAI法はこの立場から構成されており、GDPRの延長線上で「デジタル空間での市民の権利」を実定法化しようとしてきました。日本はGDPRとは異なるアプローチを取り、「広島AIプロセス」を通じた国際的なソフトローの形成を主導してきましたが、その路線の限界も徐々に明らかになっています。ソフトローは合意形成には向いていますが、強制力を持たない。そしてAI企業や国家が自国利益を優先する局面では、ソフトローは形骸化しやすいのは言うまでもありません。困ったもんだなとも思いますが、実際そうなのだから仕方がありません。
そして、そういう日本国内の議論は別として、問題はさらに重層化しています。日本が「守り」の文脈でデータ主権を論じるとき、それは往々にして「外国企業にデータを渡さない」という否定的な方向に向かいがちです。しかし実際には、AIの能力を高めるためにはデータの集積と流通が不可欠であり、孤立した「国産AI」路線が必ずしも競争力をもたらすとは言えません。
「世界一AIフレンドリーな国」というかつての標語が、海外AI企業の誘致によって学習データと技術基盤の国内整備を間接的に促そうとする「攻め」の戦略だったとすれば、「AI駆動型国家」という新しい標語は、その誘致路線を続けながら同時に国家がAIを「使いこなす主体」になるという、二枚腰の戦略です。しかし「フレンドリー」と「駆動型」は、ある意味で矛盾を内包しています。外資を招き入れながら自国の主権を保つというのは、原理的には常にトレードオフだからです。このトレードオフにどう折り合いをつけるか、そこに日本のAI政策の本当の難所があります。
ホワイトペーパー2.0が100名未満の中小企業のAI利用率が1割未満という数字を挙げて問題視しているのは重要な視点です。もちろん、何をもって利用とするのかってのはありますが、むしろAi利用は中小企業にこそ福音であるはずなのに… とはどうしても思ってしまいます。
「AI駆動型国家」という言葉は壮大ですが、その土台となる社会実装が大企業に偏在している限り、ビジョンは宙に浮きます。実際、日本のAI産業政策の弱点のひとつは、国産モデル開発と社会実装推進の両方を同時にやろうとして、どちらも中途半端になりやすいことです。国産基盤モデルの開発には計算資源の大規模投資が必要で、これは米国・中国との差が投資規模で30倍に達するとも言われる現状では、正面からの競争は現実的ではない、でもどうにかキャッチアップしていかないと主導権どころの騒ぎでもないのです。一方で「得意分野に特化する」という方針は正しいとしても、医療・介護・製造など「質の高いデータ」が強みとされる分野で、そのデータが実際に活用可能な形に整備されているかと問われれば、答えはまだ「まだら模様」に留まっています。
今回のように、日本がAIのみならず国家的な技術戦略において「攻め」と「守り」の融合というテーマで考えるとき、ひとつのヒントになるのは、実はAnthropicが国防総省に突きつけた「レッドライン」という考え方かもしれません。完全に市場の論理に身を委ねるのでも、規制で締め上げるのでもなく、「ここまでは許容するが、ここからは譲らない」という境界線を自ら引き、その境界を法的・契約的に担保しようとする姿勢は、企業として批判を浴びながらも一定の倫理的一貫性を体現しています。
日本の政府・与党がAI政策を語るとき、この種の「自分たちのレッドライン」が明確に示されたことはほとんどありません。昔はGoogleさんも「Dont be Evil(邪悪になるな)」とか公言してくれていて、これがGoogleに対する無限の信頼の根拠になっていたわけですが… んで、著作権罰則化の提言はコンテンツ産業の保護として重要ですが、それはAI企業との力関係の中で「守り」の一点を明示したにすぎず、包括的なデータ主権の設計とは呼べません。AI推進法第16条の「指導・助言」根拠も、強制力を持たないソフトローの域を出ていないのもまた現実です。
日本がこれから本当に「攻め」に転じるとすれば、それは量的な追い上げではなく、ルール形成という「規格の戦い」においてであるべきだというのが、多くの識者が共有する認識です。広島AIプロセスで国際的なAIガバナンスの枠組みづくりをリードしてきた実績は、それ自体は評価されるべき資産です。問題は、そのソフトローを実効性のある法的枠組みへと発展させる意志と能力を持てるかどうかです。
EUのAI法は、その強引なアプローチへの批判にもかかわらず、少なくとも「デジタル主権はルールを作る側のものだ」という命題を世界に示しました。そりゃそうだと言える当然のものなんですけど、リアル人生と同じくその当然のことを当たり前にやることのほうが大変だったりするじゃないですか(自戒)。もちろん日本はそういう欧州的なアプローチを丸ごと輸入する必要はありませんが、「デジタル立憲主義」的な観点から、データと計算資源の所在・管理・利用目的について、法的拘束力を持つ国内の枠組みを整備することは急務です。
AIホワイトペーパー2.0が「AX(AIトランスフォーメーション)」というキーワードを前面に出して「AIを前提に業務・組織・意思決定を作り替える」と宣言したことは、表層的には正しいビジョンです。しかし組織の作り替えは、権力の再配置を意味します。既存の省庁縦割りや規制の壁を本当に壊してAIを実装していくためには、政治的な意思決定のスピードと質が問われます。政府の「AI基本計画」が「官民投資ロードマップを2026年春をめどに取りまとめる」と述べていたにもかかわらず、具体的な施策や実行力についての不安が専門家の間で根強いのは、この「政治的意思決定の質」への懐疑でもあるのです。
技術覇権の時代における国家の自律性とは、最強のAIモデルを自国で作ることではないかもしれません。それよりも、自国社会のデータを適切に管理し、その利用目的について民主的な合意形成ができる制度的な基盤を持つこと、そして外国のテクノロジー企業に依存しながらも依存の条件を自分たちで設定できること、そこにこそ「デジタル立憲主義」の本質があります。「駆動型」という言葉が単なる標語に終わらないためには、AIを「動かす主体」になるのと同時に、AIによって動かされてしまうリスクを制度的に食い止める仕組みを、静かに、しかし着実に作り続ける必要があります。それは地味で目立たない作業かもしれませんが、百年後の日本の姿を決める、もっとも重要な政策判断のひとつになるはずです。
▽
「人間迷路 Vol.511 政府・与党が目指すAI政策とデータ主権についてを考察しつつ、中国経済の現状やマスクが仕掛けたOpenAI訴訟の行方を占う回」(2026年4月30日発行)序文より
山本一郎メルマガ『人間迷路』
ネット業界とゲーム業界の投資界隈では知らぬ者のない独特のポジションを築き、国内海外のコンテンツ制作環境に精通。日本のネット社会最強のウォッチャーの一人であり、また誰よりもプロ野球とシミュレーションゲームを愛する、「元・切込隊長」こと山本一郎による産業裏事情、時事解説メルマガの決定版!
山本一郎主催の経営情報グループ「漆黒と灯火」
真っ暗な未来を見据えて一歩を踏み出そうとする人たちが集まり、複数の眼で先を見通すための灯火を点し、未来を拓いていくためのサロン、経営情報グループです。
山本一郎(やまもといちろう)
1973年、東京都生まれ。96年慶應義塾大学法学部政治学科卒業、新潟大学法学部大学院博士後期課程在籍。社会調査を専門とし、東京大学政策ビジョン研究センター(現・未来ビジョン研究センター)客員研究員を経て、一般財団法人情報法制研究所上席研究員・事務局次長、一般社団法人次世代基盤政策研究所研究主幹。著書に『読書で賢く生きる。』(ベスト新書、共著)、『ニッポンの個人情報』(翔泳社、共著)などがある。ブロガーとしても著名。
山本一郎メルマガ「人間迷路」編集部