• このエントリーをはてなブックマークに追加
  • Pocket
  • LINEで送る

AIの暴走に誰がどんな法律上の責任を負うのか?弁護士が5分で解説

AI

はじめに

近年、「AIビジネス」がとても流行っていますよね。

AIスピーカー(スマートスピーカー)や自動運転技術を搭載した車など、以前に比べてAIは確実に身近な存在となってきています。

iPhoneに搭載されたAI「siri」は、利用している方も多いのではないでしょうか。

この「AI(人工知能)」は、人間が指示を出さなくても自分の頭で考え行動することができます。

では、仮にAIが暴走して人を傷つけてしまった場合、一体だれが、どういった内容の法律上の責任を負うのでしょうか?

AIの行動に対して、それを作った企業側が何らかの法律上の責任を負う可能性があることは何となく想像できるかもしれません。

ですが、他に責任を負うべき人はいるのか、具体的にどのような法律上の責任を負うのかなど、AIビジネスを始めたい企業の方からすると、よくわからない点も多く、不安に思う方もいるかと思います。
この点については、現在、経済産業省の有識者の中で議論されている最中で、結論が出ていない状況にあります。

そこで今回は、一弁護士の視点から、AIの行為によって他人に損害を与えてしまった場合に、誰が、どのような内容の法律上の責任を負う可能性があるのか、また、責任を回避する方法などを分かりやすく具体的に解説していきます。
※なお、現時点での技術水準では、AIは知識を増やすことができても、自己学習を通じて賢くなっていくというところまでは到達しておりませんが、その点は本記事では考慮しないものとします。

1 AIとは

AI

(1)AIの意味

AI」とは、「Artificial Intelligence」の略で、人工的に作られた人間のような知能(人工知能)をいいます。

AIが搭載されている具体例として、有名なものだとソフトバンクが開発しているロボットの「ペッパー」があります。ソフトバンクショップに限らずいろいろな所に置いてあるので、ご存知の方も多いのではないでしょうか。

ペッパーには「感情エンジン」という人工知能が搭載されていて、人の感情を読み取ることができます。そのため、人間と一緒に喜んだり悲しんだり、怒ったりすることができます。

また、IBMが開発する人工知能「ワトソン」は、コールセンターでの実用化が進んでいます。人工知能がお客さんとの会話を文字で記録したり、会話の内容を分析して必要な情報をオペレーターに提案することまでできます。

(2)AIとロボットの違い

このように、私たちの生活にとって確実に身近な存在となった「AI」ですが、みなさんは「AIとロボットの違い」をご存知でしょうか?

イメージとしては似ていますが、この2つには明らかな違いがあります。

それは、「自分で考える力があるかどうか」という点です。

例えば、工場で稼働しているロボットの場合、ある一定のプログラムを入力されたらそれに従って稼働を続けます。言い換えると、ロボットは、プログラムの中では仕事をこなすことができても、それ以外の仕事はできません。

一方、AIには、「自分で考える力(ディープラーニング)」があります。

ディープラーニングがるため、一度AIを作ってしまえば、人間がいちいち指示を出さなくても自ら発展していき、いろいろなことができるようになります。

(3)問題の所在

さて、AIがもつ「人間に指示を出されなくても自分で考え発展することができる能力(ディープラーニング)」は、とても革新的である一方、人間の手を離れたところで想定外の行動を起こす可能性もあります。

このとき、AIが他人に損害を与えてしまったとしたら、人間はどのように対応すればいいのでしょうか?

その損害に対して、誰が責任をとればいいのでしょうか?次の項目から、順番に確認していきましょう。

2 AIの行為と法律上の責任が問題となる事例

AIと法的責任

AIと法律上の責任が問題となるケースとしては、以下のようなものが考えられます。

  • AIロボットが暴走して、「ヒトは消さなばならない」と独自に判断し、ヒトにケガを負わせたケース
  • AIにより自動生成された Web サイトに、他人の名誉を毀損するような内容のテキストが書かれていたケース
  • AIがネットに転がっている他人の著作物を無断で収集し、それをもとに別のコンテンツを作成したケース

どのケースも、人間の指示によらずにAIが「自らの判断で」行動したケースです。

このときに問題となるのが、「AIの行動に対して誰が法律上責任をとるのか」という点です。

AI自身は「機械」であるため、「人」の行為を規制するために作られた現在の法律では取り締まることができません。そうすると、「人」に責任をとってもらうしかありません。

法律上の責任をとるべき人として考えられるのは、

  • AIの所有者や管理者
  • AIの製造者

となります。

次の項目から、それぞれどのような法律上の責任を負うのかをみていきましょう。

3 AIの所有者(管理者)の責任

AIの所有者の責任

(1)「誰が」法律上の責任を負うのか?

AI自身が責任を負えないのであれば、まずはAIを所有している人(管理している人)が法律上の責任を負うことが考えられます。

例えば、AIが搭載されたドローンがあったとすると、それをメーカーから購入し、使用している人が「所有者(管理者)」となります。

(2)「どんな」法律上の責任を負うのか?〜不法行為〜

所有者(管理者)は、被害者に対し、「不法行為に基づく損害賠償責任」を負わなければならない可能性があります。

被害者との関係において、AIの行動を「所有者自身の行動」とみなして責任を負わせるのです。

不法行為」とは、他人の権利や利益を違法に侵害する行為をいいます。

もし不法行為よって他人に損害を与えてしまったら、それに対する損害賠償責任が発生します。
例えば、Aさんが車を運転しているときに不注意でBさんを轢いてしまい、ケガを負わせてしまった場合、Aさんは不法行為責任を負い、被害者のBさんに与えた損害を賠償する責任を負わなければなりません。

不法行為責任」が認められるためには、行為者に「故意(わざと)」または「過失(不注意)」がなければいけません。

ですが、故意・過失は人間の心理状態のことを指すため、人間ではないAIに、故意・過失といった状態を認めることはできません。

そのため、AIの不法行為について法律上の責任を問う場合には、AIではなく、その所有者に「故意」または「過失」があったことが必要となります。

(3)「故意」と「過失」

故意」とは、ある行為をわざとやることをいいます。

AIの所有者に故意がある場合とは、例えば、所有者が自らAIをけしかけて他人に危害を加えさせたような場合です。
この場合には、所有者について「故意」が認められ、所有者は不法行為責任を負わなければいけません。このパターンについてはみなさんもイメージしやすいかと思います。

では、AIの所有者に故意がなかった場合はどうなるのでしょうか。

この場合には、所有者に「過失」があったかどうかが問題となります。

過失」とは、ちょっと注意すれば行為の結果(損害が発生してしまうようなもの)を予想することができたのに、その注意をせず、その結果を回避することを怠った状態をいいます。

一言でいえば、ある行為をついうっかりやってしまうことが「過失」です。

そして、過失の中身は「予見可能性」と「結果回避義務」に分けることができます。
この2つのうち、AI行動に関して問題となるのは「予見可能性」です。

(4)「予見可能性」とは?

予見可能性」とは、自分の行動によって危険な状態や損害が発生する可能性を、あらかじめ予見(予想)することができたかどうか、をいいます。

例えば、嵐の日に漁船を海に出せば転覆の危険があることや、悪天候の中幼い子供を連れて山登りをすれば遭難してしまうおそれがあることなど、起きたことに対してそれを事前に予測ができたかどうか、ということをいいます。

予見可能性が求められる理由は、「まったく想定できないような事故についてまで法律上の責任を負わせるのは酷すぎる」という考えがあるからです

では、自分で考え行動するAIの行動や、それによって損害が発生したことを所有者が「予見できた」といえるのは、どのような場合でしょうか?

この点については、そもそも他人を攻撃する可能性のあることが初めから予想できるようなAIであれば、過失の認定についてはそれほど問題にはなりません。
例えば、格闘技用に作られたAIロボットが、関係ない人を攻撃してけがをさせてしまった場合などです。
この場合には、AIが他人を攻撃する可能性について、所有者はそれを予見することが十分にできただろうといえます。

一方、通常の作業内容は特に攻撃性の無いものであった場合はどうでしょうか?例えば、AIロボットのペッパーは、通常、店頭や会社の入り口でお客さんの案内をしたり、コミュニケーションをとったりしています。

攻撃的な行動をとるプログラムはされていないペッパーが、自分の頭で考え成長した結果、突然人に危害を加えるような行動をした場合、所有者はそれを予想することができたといえるのでしょうか

このような場合には、もはや所有者に予見可能性はなかったとして、「過失」が否定される可能性は十分にありえます。過失が否定されれば、AIの所有者には、不法行為が成立せず、責任をとる必要はありません。

また、「過失」があったかどうかは、「損害を発生させた本人が属するグループの平均的な人」の能力を基準に判断されます。
例えば、交通事故の場合には一般的なドライバーが、医療過誤の場合には一般的な医師が基準となります。

そうすると、例えばAIの所有者が店頭に売られているAIを買って使用していた場合などは、所有者はAIを製造したわけではなく、プログラムの詳細についても知らないのが普通です。

そのため、AIの想定外な行動について、予見可能性はなかったとして、「過失」が否定される可能性がさらに高まるものと考えられます。

(5)結論

このように考えると、ディープラーニングにより自ら考え成長していく高度なAIで、しかも所有者が「既製品」として購入しただけのような場合、AIの行為について所有者に不法行為責任を追わせることは難しい場合が多いと考えられます。

4 AIを製造した企業の責任

AIの製造者の責任

(1)「誰が」法律上の責任を負うのか?

AIが他人に損害を与えた場合に法律上の責任を負う者としては、所有者のほかに、実際にAIを製造した企業やプログラマーも考えられます。

AI搭載ドローンの例でいうと、そのドローンを作ったメーカー企業やプログラミングをしたプログラマーのことです。

(2)「どんな」法律上の責任を負うのか?〜製造物責任〜

①AIと製造物責任

AIが他人に損害を与えた場合、製造した企業やプログラマーは、不法行為責任はもちろんのこと、さらに「製造物責任」を負う可能性もあります。

製造物責任」とは、製品の欠陥(バグ)によって他人に損害を与えてしまった場合に、製品を作った製造メーカーなどがその損害の賠償をしなければならないことを定めた法律です。

製造物責任は、不法行為責任と違って、製造メーカーの過失(不注意)の有無に関係なく責任を負わせる(無過失責任)のが特徴です。
これは、不法行為における「過失」の立証は、実際上難しいことから、被害者を救済するために無過失責任としたのです。AIの製造メーカーにとっては、厳しい法律といえます。

製造物責任が認められるためには、以下の要件をみたす必要があります。

  1. 製品などの
  2. 欠陥により
  3. 他人の生命・身体または財産を侵害したこと

このうち、特に問題となるのは②欠陥についてです。

欠陥」とは、普通であればその製品が備えているはずの安全性を欠いていることをいいます。

一般的な事例では、テレビが突然爆発して人がけがをしたような場合に、テレビについて「欠陥」が認められます。

②AIにおける「欠陥」の判断基準と結論

製造物の欠陥については、それぞれの事例ごとに判断するので、「どのような場合にAIに欠陥があるといえるのか」に関して一律の基準というものはありません。

ただし、被害者がAIの欠陥について主張する場合、「普通に使っていただけなのに、予想できないような事故が起きたんです!」という主張だけで足りるとされているため、AIの欠陥については比較的認められやすい状況であるといえます。

AIに欠陥が認められた場合には、原則として、AI製造メーカーは、これによって被害者に生じた損害を賠償しなければなりません。

③AIの製造メーカーに酷ではないか?

ここで思い出してほしいのが、「AIは自分で考え学習を繰り返し、成長を続ける」という点です。

そうすると、製造したAIが自分たちの手を離れた後、ディープラーニングにより何を学んでどの程度成長し、どのような振る舞いを見せるようになるのかは、製造者にも分かりません。あらかじめ詳しく予想することは難しいといえます。

企業やプログラマーとしては、AIの学習範囲や動作範囲にあらかじめ一定のリミットを設けて、AIが学習を繰り返し成長を続けても、想定外の行動をとらないように対策をとることはできるでしょう。
それでもやはり、「AIがどのような行動をとる可能性があるか」について具体的な予測をすることは難しい状態です。それなのに、簡単に「欠陥」が認められたとしたら、AI製造メーカーにとって過酷ではないでしょうか。これでは、企業はAIの開発に対し委縮してしまいます

ですが、この点については、次の項目で説明するとおり、AI製造メーカー側に、法律上の反論手段がきちんと与えられています。

(3)AIの製造メーカーからの反論

仮にAIに「欠陥」があると認定された場合でも、AI製造メーカーとしては、以下の2つの抗弁(相手の主張を退けるために別の主張をすること)の主張・立証をすることで、製造物責任を回避でできる可能性があります

    ①開発危険の抗弁
    ②部分製造者の抗弁

順番にみていきましょう。

①開発危険の抗弁

開発危険の抗弁」とは、製品を開発・販売したときの技術水準ではそのAIに欠陥があることを認識(予測)することができなかったといえる場合には、企業は製造物責任を免れられることをいいます。

製品が流通した時点の技術水準では発見することができないような欠陥(開発危険)までも企業の責任にしてしまうと、技術開発を企業がためらってしまいます。

そのため、製品の欠陥が「開発危険」にあたることを企業が証明できた場合には、企業を免責する「開発危険の抗弁」が設けられたのです。

これをAI製造メーカーについてみると、AIを搭載したドローンが暴走したケースでは、仮に搭載したAIに「欠陥」が認められた場合でも、開発危険を証明できれば、AI製造メーカーは、賠償する責任を負いません。

②部品製造者の抗弁

部品製造者の抗弁」とは、製品のうち、他の製造業者からの指示に従って作った「部品」のところに欠陥が生じたときは、過失のない限り、その部品の製造業者は製造物責任を逃れられることをいいます。
例えば、下請け業者が元受け業者の指示に従ってある製品の部品を作った場合に、その部品に欠陥が見つかったとします。

このような場合、部品の欠陥については、指示をだしてその部品を作らせた元受け業者が責任を負うのが望ましいといえます。

そのため、下請け業者が、自分たちが作った部品は元受け業者の指示に基づいて作った物であって、欠陥が生じたことついて過失がないことを証明できたときには、その下請け業者は免責される、というものです。。

AIの製造メーカーが取れる手段としては以上の2つが考えられます。

ただし、部品製造者の抗弁においては、下請け業者が元受け業者の指示に従った場合であっても、欠陥の発生について予見することができて、かつ、それを回避することができたであろう場合には、免責されない可能性があることには注意が必要です。

(4)AIが純粋なプログラムの場合

ここまでは、「何かしらの機械(ドローンやロボット)に搭載されたAI」が他人に損害を与えた場合の責任について解説してきました。

では、「純粋なプログラムとしてのAI」が他人に損害を与えた場合、企業やプログラマーはどのような責任を負うのでしょうか?
順番にみていきましょう。

①不法行為責任

まず、不法行為責任はどうでしょうか。

この場合も、所有者の場合と同様、企業の「過失」をどのように認定するのか?自ら学び成長を続けるAIの行動に対し、「予見可能性」をどのように判断するべきかが問題となります。

この点については、AIが繰り返し学習し成長した結果の行動を開発段階で具体的に予想するのは難しいことから、予見可能性が否定され、多くの場合、企業やプログラマーの「過失」は認められません。

そのため、純粋なプログラムとしてのAI製造メーカーは、不法行為責任を負わなくてすむ可能性があります。

ただし、製品を自ら開発・製造する以上は、企業側には何かあった時のための「結果回避措置」が求められます。
そのため、例えば、AIの問題行動に対する制御プログラムがきちんと組まれておらず、その結果他人に損害を与えてしまったような場合には、企業やプログラマーの「過失」が認定される場合は、通常よりも多くなり、不法行為責任を負う可能性が高くなることには注意が必要です。

②製造物責任

次に、純粋なプログラムとしてのAIと製造物責任についてみてみましょう。

製造物責任の対象となる製造物は、あくまでも「動産」である必要があります。

動産」とは、不動産以外の有体物(一定の形があって、手に取ることができるもの)のことをいいます。

例えば、本やパソコン、文房具やスマホなど、私たちの身の回りにあるものはほとんどが有体物であり、動産です。

ですが、ただのデータであるプログラムは有体物に含まれません。データは「無体物」にすぎないのです。
AIのプログラムを収めた記録媒体(CD-ROMなど)を「動産」ととらえて、AIのプログラムを「製造物」と認める見解もありますが、WEB経由で提供・アップデートされるような場合には記録媒体自体が存在しないため、必ずしも「動産」を観念することができません。

そのため、「純粋なプログラムとしてのAI」が他人に損害を与えたとしても、その製造者である企業は、製造物責任を負う可能性はとても低くなるといえます。

5 小括

まとめ

AIの行動に対する責任については、現状、「AI法」というものはないため、誰がどのような責任を負うのか不明確な部分もたくさんあります。

とはいえ、AIビジネスを始めようと思っているのであれば、これまでに指摘した点については最低限認識しておくことが重要です。

6 まとめ

これまでの解説をまとめると以下のとおりです。

  • 「AI」とは、人工知能のこと
  • AIが問題行動を起こしたとき、法律上責任を負う者として考えられるのは「AIの所有者(管理者)」と「AIの製造者」
  • AIの所有者(管理者)は、被害者に対し、不法行為責任を負う可能性がある
  • 不法行為責任については、過失の認定(予見可能性の有無)がポイント
  • AIを作った企業やプログラマーは、不法行為責任に加えて製造物責任も負う可能性がある
  • 製造物責任については、「欠陥」が認められるかどうかがポイント
  • 「欠陥」が認められてしまったとしても、企業側は、①開発危険の抗弁と②部品製造者の抗弁によって反論することが可能
  • 「純粋なプログラムとしてのAI」が他人に損害を与えた場合には、企業が製造物責任を負う可能性は低いが、不法行為責任を負う可能性が高くなる場合がある

IT企業の法律の悩みを迅速に解決!

1) 過去顧問実績100社以上。
2) 2,000種類以上の契約書雛形を完備。
3) スピーディー・高品質・低価格。費用も明確。
4) アプリ・仮想通貨、著作権、新規事業の法律に精通。
5) 企業の誹謗中傷・風評被害対策にも強い。
6) 安心のアフターフォロー付き。
7) IT企業以外も対応しています。

お電話はこちら:050-5241-6989

メールはこちら

  • このエントリーをはてなブックマークに追加
  • Pocket
  • LINEで送る