プロフィール
- 2005年東京大学文学部卒
- 2008年
京都大学大学院法学研究科法曹養成専攻修了
京都大学大学院法学研究科助教 - 2011年京都大学大学院法学研究科准教授
- 2021年京都大学大学院法学研究科教授
- 2013-14年パリ政治学院法科大学院客員研究員
- 2014-15年シカゴ大学政治学部客員研究員
専門は刑事学。特にグローバルな企業犯罪法制および先端科学技術法ガバナンスを研究。京都大学大学院法学研究科附属法政策研究センターでは人工知能と法研究ユニットのPI(Principal Investigator)を担当。経産省、デジタル庁などのデジタル関連の法制度やガバナンスの検討会委員等を歴任する。
政府が「society 5.0」を打ち出し、AIやロボットの急速な進化、IoTの普及が進む現代において、新たな科学技術は多様な社会問題を引き起こす要因となっています。科学技術とともに社会が健全に成長していくためには、どのような法制度やガバナンスシステムが新たに必要になるのでしょうか。
稲谷先生は、デジタル社会における刑事司法について、学際的な手法を用いた研究に取り組んでこられました。その成果は学術的な領域だけでなく、法実務にも大きなインパクトを与え、従来の法学の方法論に新たな視点をもたらしています。
法×科学の学際的アプローチ
による刑事学研究
――先生のご研究分野について教えてください。
私の専門は、法学の中でも「刑事学」といわれる分野です。刑事政策、刑事司法、犯罪学など、さまざまな名称がありますが、内容的には犯罪や刑罰に関係する法律の解釈や運用、将来の立法のあり方について、学際的な研究成果を応用して検討するという学問です。
――先生のご研究は、法学だけでなく、社会学、経済学、心理学といった隣接領域の成果も取り入れておられると聞きました。
それには私のバックグラウンドが関係している部分があります。私は東京大学で、認知科学の一分野である「認知意味論」を学びました。人間が「意味」を理解する仕組みを脳神経系の情報処理メカニズムとともに探究するという学問分野です。
その後、京都大学の法科大学院に進み、そこで初めて「法律」に出会った時、大きな衝撃を受けました。というのも、法律の先生方が前提とされている人間観や世界観が、私がそれまで学んでいた知見とはかなり異なっていたからです。
法律には、社会の変化に応じて変わっていく部分と、変わらずに維持される部分があります。なぜ変わる必要があるのか、あるいは、なぜ変わってはいけないのか、その理由を科学的な根拠やさまざまな研究分野の知見や成果によって言語化し、議論していきたいという思いがあります。
――どうして法学の中でも刑事司法に注目されたのですか?
法科大学院で最初に問題意識を持ったのが刑事司法の分野でした。刑法や刑事訴訟法のベースとなっているのは、18世紀の終わり頃から19世紀初め頃にかけてヨーロッパで広まった「啓蒙主義」と呼ばれる思想です。しかし、現代から見れば、その人間観や世界観はすでに大幅に時代遅れのものとなっています。刑事司法は、犯罪や刑罰という最も厳格な権力作用に関わる法ですから、何か対策を講じる必要があると思いました。
また、私を親身にご指導くださっていた先生が刑事訴訟法を専門とされていたのも、刑事司法に関心が向いた理由の一つです。ちょうどその頃、犯罪捜査に新たな科学技術を用いる際の法規制のあり方に関する議論が国内外で起こっていました。刑事司法における、科学技術と法制度との望ましい関係性について考える上でとても良いテーマでしたので、この分野から研究に着手しました。
人を罰する刑法から、
企業の仕組みを変える刑法へ
――刑事学の中でも主に取り組んでおられるテーマ「企業犯罪」「先端科学技術と法」について、どのような内容のものかをお聞かせください。
企業犯罪というと、悪意を持った“悪い人たち”の行為のように感じるかもしれません。しかし、実際に大きな不祥事が起きた際に現場の方から話を伺うと、そのようなことは稀です。人間は一人でいるときと、社会集団と関わるときとで、行動傾向、認知傾向が異なることが珍しくありません。
不正が行われた現場では、「悪いことかもしれないけれど、自分たちが不正を行わなければ納期に間に合わなかった。少し品質を落としても製品自体は問題を起こすほど悪くない。現場の仲間と会社を守るために正しい行為をしたのだ」という認識が共有されていることも少なくないです。また、現在では公益通報者保護法もありますが、それでも「仲間を裏切る」ことに抵抗を感じる人は少なくありません。すると、「誰も困らないし、仲間や会社のためには黙っているほうが望ましい」という意識が働きます。つまり、法的には悪いことかもしれないけれど、実際は望ましいことをしているという認識に基づいて、しばしば問題行動がなされているのです。
では、このような場合にどうすればいいのでしょうか。一般的な刑法の理論では、「人間は理性と自由意志を持った自律的存在である。法を自律的に守れないなら処罰すればいい」と考えます。しかし、たとえ誰か一人を罰したとしても、そもそも間違ったことをしていないと感じている集団が存続する限り、根本的な解決には至りません。解決するには、集団のあり方そのものを変える必要があるのです。
先端科学技術を
今の法制度で取り締まるのは難しい
――もう一つのテーマである「先端科学技術と法」についてもお聞かせください。
先ほど触れたように、もともと刑事司法の中で新しい科学技術をどのように規制することが人々にとって望ましい状態なのかについて、ずっと研究を進めていました。もっとも、AIをはじめとする新しい科学技術のリスクを管理しているのは、実質的には企業ですので、企業におけるリスクガバナンスのあり方が、社会における先端科学技術のリスクガバナンスのあり方に直結します。つまり、刑事司法における科学技術規制の問題と企業犯罪の問題とがクロスしたところに、先端科学技術と法の問題が存在するのです。
AIが潜在的にもたらすリスクをどのようにコントロールするかを議論していくと、結局、AIの開発、利用、提供などを行っている企業に、自分たちでAIのリスクへの対策を講じてもらう必要が出てきます。製品が市場に出たあともモニタリングを行い、問題が発生したら自分たちで対処してもらう。その際、本当に製品を社会的に受容してもらうべく、AIの利用者やAIから影響を受ける人の意見も反映する。このように先端科学に関わるさまざまなステークホルダーが協働し、リスクを低減する仕組みを、私たちは「アジャイルガナバンス」と呼んでいます。
――先端科学技術に対しては、これまでの法制度での対応が難しいということですね?
単純な機械に使われる1つの部品なら、使用に耐えうる強度を計算し、弱い部品で問題が起きないように、あらかじめ「こういう部品を使いなさい」と規制することができます。
一方、AIは大量のデータを統計的に学習し、一番適切なアウトプットを確率的に選んで挙動します。これは、確率的に望ましくないことが起こることを意味します。どこまでいってもリスクがゼロにはならないのです。しかも、いくつもの技術が連携して動くとなると、どこで問題が生じるか予見できません。こうした状況で適切にリスクを管理するのは、垂直的に安全性を規定する既存の法では困難です。
例えば、自動運転システムの場合でも、事故のリスクをゼロにはできません。しかし、「事故が起こる可能性のあるものを走らせた責任を取りなさい」と処罰すれば、皆が萎縮して開発しなくなります。かといって「AIは統計的に学習するものだから、誰にも事故は予見できません」という点を過度に強調すると、今度は誰も処罰できなくなります。処罰されないとなると、悪意ある人が安い粗悪品を市場に出し、きちんと安全性に配慮した商品が負けてしまうかもしれません。
したがって、確率的に挙動するAIを従来の機械部品と同じ方法で規制することは困難です。むしろ、望ましいリスクの範囲内に収まるように、関係者が協働しながら継続的にリスクを管理し続けることが重要になります。法が果たすべき役割は、関係者にこのリスク管理をきちんとやってもらうための仕組みづくりです。そのためには、管轄省庁とさまざまな分野の専門家、実際に製品を製造している企業などが協力して、望ましいリスク管理の方法やそこから逸脱した場合の制裁のあり方などを議論していく必要があるのです。
AIと人間がうまく
つきあえる社会をつくる
――ご研究の今後について目指すところをお聞かせください。
法形成や法解釈、法執行などの問題については、AI裁判官やAI警察官のような話が出てきます。自動運転システムが人に代わって道路交通法を自動執行するように、AI警察官が警察官職務執行法を自動執行するような未来も十分あり得ます。
しかし、自動運転システムとは異なり、AI裁判官やAI医師のような領域では、人の役割が社会的に望まれ続けるかもしれません。そうすると、人とAIの協調領域が残ることになります。しかし、この領域が一番難しい。なぜなら、人間とAIがインタラクションすると、人間の認知・行動が変容することが分かっているからです。
AIあるいはロボットとのインタラクションからは、良い影響も悪い影響も起こり得ます。私たちが行っているロボットの研究では、ロボットの「気ままな振る舞い」が良い影響を与えている可能性が分かってきています。毎日、ロボットと若干すれ違うようなやりとりが起きる。それでいて、ロボットがたまに面白いことをしゃべる。そういう付き合いを続けるうちに、人間側の認知が若干変わってきます。毎日思い通りになる世界に住んでいると、些細な思い通りにいかないことにもイラッとしてしまいますが、普段から「気ままな」ロボットと付き合っていると、自分の思い通りにならないことにも慣れてきます。それが一種の寛容性や幸福感にも繋がっているのかもしれません。
私はもともと「人間が意味を理解するときに、どういう情報処理を行なっているか」に興味をもって研究をスタートしています。これからも、AIやロボットとインタラクションすることで人間の認知がどのように影響を受けるのか、あるいは、そもそも人間はどのように自身や世界を認知しているのかについて掘り下げた研究をしていきたいです。それらを1つ1つ解明していくことで人間とAI /ロボットがうまく協調しながら人間社会をより良いものに変えていく仕組みを考えていきたいと思います。
――AIとつきあっていく上では、ルールづくりも必要になりますね。
本来は、国際的にどこでも通用するようなルールを作り、それをみんなで協力して執行できるようにすることが望ましいです。とはいえ、人間には自分の思い通りにいかないときに、それを受け入れられるか、受け入れられないかの閾値があるようです。この閾値を超えてしまう人たちとどう協力するのかは、非常に難しい問題です。国際的なルール作りという観点からは、日本と欧米では、自己観・世界観もAIの捉え方も異なりますから、完全な合意は難しいでしょう。
そこですべてが一致しなくても、互いに歩み寄り、合意点を見出していく「不完全に理論化された合意」によりルールを作っていくべきだと考えています。合意できない部分はあったとしても、合意できるところはきちんと合意し、なるべく意味のある規制をグローバルに協調しながら作っていけるといいと思っています。
ただ実際には、ますます複雑化する社会で合意に基づくルールを作ろうとすると、閾値など膨大なデータの分析が必要になります。そうすると、やはりAIの力を借りることになるかもしれません。しかし、そこには、AIが人間の認知に与える影響の問題があるわけですから、この影響をきちんと継続的にチェックする必要があります。
法というのは「ノイラートの船」のようなものです。大海原で自分の乗っている船を修理しながら進んでいくように、法に影響を受けながら法を望ましい方向に変えていくという営みをせざるを得ません。法形成過程や解釈・執行にAIが関わってくるという問題は、この船にさらにもう1つの船が乗っているような状態かもしれません。しかし、AIに影響を受けながらAIを設計しているという再帰的なループを意識しながら進んでいくことで、AIやロボットともっとうまく付き合える社会が築けるかもしれません。さらに言えば、人間とAIが互いに学びあい、一緒に新しい可能性を開いていけるような関係性を構築できると良いと思っています。
――最後に、KDDI Foundation Awardを受賞されたご感想をお聞かせください。
KDDI財団が情報通信に関する研究活動を表彰していることは知っていました。これまでにも優れた先輩の法学研究者が受賞されてこられましたので、そこに私を加えていただけたのは大変にうれしく、光栄に思っています。
私の研究は、法学の中では少し変わった分野です。今回の賞をいただいたことが、法学の世界でももっと実証的な研究や、他分野の知見や成果を活かした研究が推進されていくきっかけになればと期待しています。従来の方法に捉われず、「こういう方法論を試してみようか」という人が増えてくれば、法学はより一層良いものになっていくと思います。
また、私が自由に好きなことを研究できる環境を与えてくれた京都大学にもとても感謝しています。先輩・同僚の先生方が私の試行錯誤を温かく見守り、好きなことを自由に研究する環境を維持してくださったおかげで、現在の自分の研究スタイルを確立していくことができました。この場を借りて心からお礼申し上げます。