AI事故の責任は誰か 経産省が既存法での考え方整理

2026年04月09日 19:16

EN-b_064

AI事故「誰の責任?」に経産省が回答 自律型ロボットや生成AIの損害賠償、解釈指針を公表

今回のニュースのポイント

・経産省がAIの民事責任の考え方を整理した手引きを公表

・責任の所在の不明確さを解消し予測可能性を向上

・補助型/代替型の分類で注意義務の考え方を提示

・企業にガバナンスとリスク管理の強化を求める内容

■AI事故の責任所在が現実的課題に

AIが事故を起こした場合、責任は誰が負うのか。AIの活用が爆発的に広がる中で、この問いは事業継続上の重大なリスクとなっています 。これまで責任の所在が不明瞭であることがAIの開発や導入を躊躇させる一因となっていました。この課題に対し、経済産業省は2026年4月、民事責任の考え方を整理した「AI利活用における民事責任の解釈適用に関する手引き」を公表し、既存法の枠組みの中で責任の考え方の方向性を整理しました。

■何が公表されたのか

 今回公表されたのは、AIサービスやシステムが損害に寄与した際、既存の民法(一般不法行為)や製造物責任法(PL法)をどのように適用し得るかを整理した、実務的な指針です。これは新たな法律を創設するものではなく、現在の法体系の中で、AIの開発者、提供者、利用者がそれぞれどのような場合に注意義務違反(過失)を問われるかという考え方を示したものです。

■フィジカル空間への作用拡大

 生成AIの登場以降、AIの利活用は急速に拡大し、近年ではAIを搭載したIoT製品やロボティクスなどの高度なシステムが社会実装されつつあります。AIの高度利用によってサイバー空間のみならず、現実世界であるフィジカル空間へ作用する場面が増大したことで、万が一の損害発生時における円滑な解決に資するルール形成が不可欠となっていました。

■責任の基本は「人」に帰属

 今回の指針の核心は、AIが関与しても、法的責任を負う基本的な主体はAIそのものではなく、人間や企業であるという原則を再確認した点にあります。契約外の第三者に損害が生じた際、重要になるのは過失(注意義務違反)があったかという不法行為法の枠組みです。行為者が損害発生を予見できたか、そして損害回避のための適切な行動(結果回避義務)を取ったかが問われることになります。

■AI特有の性質が判断を難しくする

 しかし、AIには一定の範囲で人間の介入なく動作する自律性や、判断過程が不透明なブラックボックス性という特徴があります。人間が直接判断・行動しているわけではない場面において、誰の過失によるものかを特定することが難しく、これが責任追及における大きな課題となってきました。経産省はこれを踏まえ、AIの利用形態を二つの類型に整理して考え方を示しています。

■AIは「補助型」と「代替型」に分かれる

 今回の整理で最も重要なのが、AIを「補助/支援型」と「依拠/代替型」の二類型に分けた点です。

1.補助/支援型AI AIはあくまで利用者の判断を補助・支援するツールであり、最終的に人間が内容を確認し、判断や行動を介在させることが予定されている類型です 。想定例として、配送ルート最適化AI、弁護士業務支援AI、画像生成AI、取引審査AIなどが挙げられています。この場合、最終判断を下した利用者の注意義務(出力内容の評価・検証)が中心となります。

2.依拠/代替型AI 必ずしも利用者の最終的な判断が介在せず、人の判断や行動の一部を代替する前提でAIの出力に依拠しながら用いる類型です。自律走行ロボット(AMR)や、高精度な自動外観検査システムなどが該当し得ます。人間が個別の挙動を直接管理しないため、注意義務の対象は適切な判断を行うことから、AIシステムを組み入れた業務プロセスの適正な構築および運用へと転換します。

■企業に問われるAIガバナンスの質

 指針が企業に求めているのは、AIの特性に応じた適切なガバナンスの構築です。AI事業者ガイドラインに基づき、リスクの調査・分析や体制構築を行っていた場合、予見困難な特異なリスクが顕在化した際や、合理的な対応策を講じていた場合に、過失責任と評価される可能性を低める事情として斟酌されます。

■影響と今後の展望

 この指針は、IT企業のみならず、ロボットを導入する製造・物流業、AIを審査に使う金融、生成AIを業務に使うあらゆる産業に関係します。中小企業であっても、事業活動においてAIを導入すれば、その適正な利用や管理の責任からは逃れられません。

 日本は新たな包括的な法的規制を設けるのではなく、既存法とソフトローで柔軟に対応する方針です。これはAI専用の包括規制を導入するEU AI規則とはアプローチが異なります。今後の焦点は、実際の紛争を通じてどこまで注意を払えば免責されるかという裁判例の蓄積となります。

 AIは便利なツールである一方、責任の所在を曖昧にするリスクを抱えています。今回の指針は、AIが関与しても責任は消えないという大前提を明確にし、企業に対して高度なリスク管理能力を求めたものです。この整理は、AI導入を進める企業にとって法的リスクの見通しを与える意味も持ちます。今後は、AIをどう構築し、どう使うかというガバナンスそのものが、企業の信用力と法的リスクを左右する時代となります。(編集担当:エコノミックニュース編集部/Editorial Desk: Economic News Japan)