AIで
士業は変わるか?
【第14回】
「AIの判断ミスに対する法的責任の所在」
森・濱田松本法律事務所 パートナー
弁護士 岡田 淳
近時、主に機械学習を利用したAI技術が急速に発展し、多くの企業がAI技術を利用したソフトウェアの開発や利用に取り組み始めている。今後もAI技術は社会に広く普及していくことが予想されるが、人間の指示を受けずに自律的な判断を行うAIの行為によって事故等が発生した場合、誰がどのような責任を負うのかといった新しい法律問題には、未解決の点も多い。
例えば、AIのコントロールする自動運転車が判断ミスにより衝突する、AIによるがん早期発見システムが検知ミスにより患者のがんの進行を許してしまう、といった例が典型的である。
AIは「人」に該当しない以上、AIによって発生した事故等についてAI自体に法的責任を問うことはできない。それでは、AIの開発や利用に関係する者(自然人や法人)のうち、誰がどのような場合に責任を負うのか、ということが問題となる。
従来であれば、ロボット等の機械を利用して発生した事故については、操縦者や運転者といった人間が判断して機械に指示するプロセスが介在していたため、それら利用者の故意・過失に基づく不法行為が成立するか否か、という点が争点となることも多かった。
しかし、自律的な判断を行うAIが判断ミスをした場合には、これをコントロールする操縦者や運転者が不在となるため、利用者への責任追及が困難となり、製造者等への製造物責任の追及が問題となる局面が増加することが予測される。
具体的には、運転技術の自動化の進展を例にとると、従来の技術では、自動化の段階があくまで運転者の補助をするというレベルに留まっていた。
例えば、単なる車間距離警報装置やモニターカメラの場合であれば、単に運転手に対して一定の情報を提供する又は警告を発するというものにすぎず、最終的な判断は完全に運転者に委ねられている。
また、自動化の次の段階として、車間距離を保ちつつ一定速度で走行するアダプティブ・クルーズ・コントロールのように、一定の範囲で操作支援制御するというものがあるが、このレベルでもなお運転者の判断は相当程度介在する。
したがって、従来の技術では、仮に機械が一定の判断を行うとしても、それを取捨選択するのは最終的には利用者たる人間であり、事故等が発生しても、機械の「欠陥」を証明し、かつ欠陥と事故の「相当因果関係」を証明することは一般に困難であった。
これに対し、自動化の段階が更に進み、AIのコントロールする自動運転装置というレベルにまで達すると、運転手の判断が介在する局面は減少し、AIの判断ミスが直接的に人の生命や身体に危険をもたらすことになる。
自動車の場合には自賠法という特殊な法的枠組みがあるが、その点を捨象して一般化すると、AIの自律的な判断に起因する事故等の場合には利用者への責任追及が困難となり、被害者としては、製造者等に対して製造物責任等を追及できるか、ということが重要な問題となる。
しかし、事故等がAIの自律的な判断に起因するからといって、AIの製造者等が直ちに法的責任を負うかといえば、そのように単純な問題ではない。
むしろ、製造物責任法における「欠陥」とは、製造物が「通常有すべき安全性」を欠く場合に認められるところ、そもそも100%の安全性を保証することは困難であるし、一定の確率で判断ミスが発生するとしても、人間に比べればその発生確率が低いという場合に果たして「通常有すべき安全性」を欠くといえるのか、という問題もある。他方で、AIの性能には限界があるというディスクレーマーさえ記載しておけばいつでも免責になる、という性質の問題でもない。
また、機械学習したAIが、どのような思考過程を経て特定の入力値から特定の出力値を出すようになったかという点はブラックボックス化しており、具体的にどのような原因で問題が生じ、どうすれば被害を防げたのか、という点を検証することは難しい。
また、自動運転の例では、自動車間通信や自動車-道路インフラ間通信といった技術がさらに進化し、装置の内外で多数のシステムが連携するようになると、原因がどのシステムに所在するのかの切り分けも難しくなる。
同様のことは、AIの開発委託契約を締結する局面でも問題となる。新たに学習済みモデルを開発する場合に、学習用データセット以外の未知の入力に対しての挙動は不明確であり、性能保証は極めて困難である。
また、学習済みモデルによる推論結果が、当初期待された精度を達成しない場合、それは学習用データセットの品質の問題であるのか、人為的に設定されたパラメータの問題であるのか、プログラムにバグがあるのか、といった事後的な原因の切り分けも難しい。
そもそも、学習済みモデルの開発は、学習用データセットの統計的な性質を利用して行われるから、モデルの性能もデータセットの品質に依存する。そのため、学習用データセットに含まれるデータに外れ値が混入していたり、統計的なバイアスが含まれていた場合には、学習用モデルの性能に関する責任を開発ベンダに押し付けることは酷である。
* * *
以上のように、AIの判断によって生じたミスに対する法的責任をめぐっては、これまで以上に複雑な考慮要素が発生することになる。さらに、現行法の解釈という観点からも、また将来の立法可能性の検討という観点からも、AIの製造者等に対してどの程度容易に責任追及できるようにすべきか、ということは、産業政策的な価値判断も念頭に置きつつ判断されることになろう。
あまりに責任追及が困難ということになれば、被害者保護が果たされず、ひいてはAIに対する社会的評価が低下し、技術の進展が阻害される可能性がある。他方で、安易に責任追及を認めてしまうと、AIの製造者等としては過酷な結果責任を負うのに近い状況となり、やはり技術開発のインセンティブを削ぐ可能性がある。
それぞれの観点のバランスも適切に加味しつつ、AIに関する法的責任についての在るべき制度設計を問い直すことが、求められているように思われる。
(了)
この連載の公開日程は、下記の連載目次をご覧ください。