デジタル時代における刑事司法に関する学術的研究

京都大学 大学院法学研究科

稲谷 龍彦 いなたに たつひこ 教授

プロフィール

  • 2005年東京大学文学部卒
  • 2008年 京都大学大学院法学研究科法曹養成専攻修了
    京都大学大学院法学研究科助教
  • 2011年京都大学大学院法学研究科准教授
  • 2021年京都大学大学院法学研究科教授
  • 2013-14年パリ政治学院法科大学院客員研究員
  • 2014-15年シカゴ大学政治学部客員研究員

専門は刑事学。特にグローバルな企業犯罪法制および先端科学技術法ガバナンスを研究。京都大学大学院法学研究科附属法政策研究センターでは人工知能と法研究ユニットのPI(Principal Investigator)を担当。経産省、デジタル庁などのデジタル関連の法制度やガバナンスの検討会委員等を歴任する。

政府が「society 5.0」を打ち出し、AIやロボットの急速な進化、IoTの普及が進む現代において、新たな科学技術は多様な社会問題を引き起こす要因となっています。科学技術とともに社会が健全に成長していくためには、どのような法制度やガバナンスシステムが新たに必要になるのでしょうか。

稲谷先生は、デジタル社会における刑事司法について、学際的な手法を用いた研究に取り組んでこられました。その成果は学術的な領域だけでなく、法実務にも大きなインパクトを与え、従来の法学の方法論に新たな視点をもたらしています。

法×科学の学際的アプローチ
による刑事学研究

――先生のご研究分野について教えてください。

私の専門は、法学の中でも「刑事学」といわれる分野です。刑事政策、刑事司法、犯罪学など、さまざまな名称がありますが、内容的には犯罪や刑罰に関係する法律の解釈や運用、将来の立法のあり方について、学際的な研究成果を応用して検討するという学問です。

――先生のご研究は、法学だけでなく、社会学、経済学、心理学といった隣接領域の成果も取り入れておられると聞きました。

それには私のバックグラウンドが関係している部分があります。私は東京大学で、認知科学の一分野である「認知意味論」を学びました。人間が「意味」を理解する仕組みを脳神経系の情報処理メカニズムとともに探究するという学問分野です。

その後、京都大学の法科大学院に進み、そこで初めて「法律」に出会った時、大きな衝撃を受けました。というのも、法律の先生方が前提とされている人間観や世界観が、私がそれまで学んでいた知見とはかなり異なっていたからです。

法律には、社会の変化に応じて変わっていく部分と、変わらずに維持される部分があります。なぜ変わる必要があるのか、あるいは、なぜ変わってはいけないのか、その理由を科学的な根拠やさまざまな研究分野の知見や成果によって言語化し、議論していきたいという思いがあります。

――どうして法学の中でも刑事司法に注目されたのですか?

法科大学院で最初に問題意識を持ったのが刑事司法の分野でした。刑法や刑事訴訟法のベースとなっているのは、18世紀の終わり頃から19世紀初め頃にかけてヨーロッパで広まった「啓蒙主義」と呼ばれる思想です。しかし、現代から見れば、その人間観や世界観はすでに大幅に時代遅れのものとなっています。刑事司法は、犯罪や刑罰という最も厳格な権力作用に関わる法ですから、何か対策を講じる必要があると思いました。

また、私を親身にご指導くださっていた先生が刑事訴訟法を専門とされていたのも、刑事司法に関心が向いた理由の一つです。ちょうどその頃、犯罪捜査に新たな科学技術を用いる際の法規制のあり方に関する議論が国内外で起こっていました。刑事司法における、科学技術と法制度との望ましい関係性について考える上でとても良いテーマでしたので、この分野から研究に着手しました。

京都大学 大学院法学研究科 稲谷 龍彦 教授
「現行の刑事司法のベースになっている啓蒙思想は、外的な環境から独立した主体であることが前提となっています。この考え方は、実際の社会のあり方、今の人のあり方とかけ離れていると思います」

人を罰する刑法から、
企業の仕組みを変える刑法へ

――刑事学の中でも主に取り組んでおられるテーマ「企業犯罪」「先端科学技術と法」について、どのような内容のものかをお聞かせください。

企業犯罪というと、悪意を持った“悪い人たち”の行為のように感じるかもしれません。しかし、実際に大きな不祥事が起きた際に現場の方から話を伺うと、そのようなことは稀です。人間は一人でいるときと、社会集団と関わるときとで、行動傾向、認知傾向が異なることが珍しくありません。

不正が行われた現場では、「悪いことかもしれないけれど、自分たちが不正を行わなければ納期に間に合わなかった。少し品質を落としても製品自体は問題を起こすほど悪くない。現場の仲間と会社を守るために正しい行為をしたのだ」という認識が共有されていることも少なくないです。また、現在では公益通報者保護法もありますが、それでも「仲間を裏切る」ことに抵抗を感じる人は少なくありません。すると、「誰も困らないし、仲間や会社のためには黙っているほうが望ましい」という意識が働きます。つまり、法的には悪いことかもしれないけれど、実際は望ましいことをしているという認識に基づいて、しばしば問題行動がなされているのです。

では、このような場合にどうすればいいのでしょうか。一般的な刑法の理論では、「人間は理性と自由意志を持った自律的存在である。法を自律的に守れないなら処罰すればいい」と考えます。しかし、たとえ誰か一人を罰したとしても、そもそも間違ったことをしていないと感じている集団が存続する限り、根本的な解決には至りません。解決するには、集団のあり方そのものを変える必要があるのです。

京都大学 大学院法学研究科 稲谷 龍彦 教授
「2014年、私が留学した頃のアメリカでは、企業のあり方そのものをターゲットにした刑事司法制度が動き始めていました。そのムーブメントに触れたことが企業犯罪への関心に繋がりました」

先端科学技術を
今の法制度で取り締まるのは難しい

――もう一つのテーマである「先端科学技術と法」についてもお聞かせください。

先ほど触れたように、もともと刑事司法の中で新しい科学技術をどのように規制することが人々にとって望ましい状態なのかについて、ずっと研究を進めていました。もっとも、AIをはじめとする新しい科学技術のリスクを管理しているのは、実質的には企業ですので、企業におけるリスクガバナンスのあり方が、社会における先端科学技術のリスクガバナンスのあり方に直結します。つまり、刑事司法における科学技術規制の問題と企業犯罪の問題とがクロスしたところに、先端科学技術と法の問題が存在するのです。

AIが潜在的にもたらすリスクをどのようにコントロールするかを議論していくと、結局、AIの開発、利用、提供などを行っている企業に、自分たちでAIのリスクへの対策を講じてもらう必要が出てきます。製品が市場に出たあともモニタリングを行い、問題が発生したら自分たちで対処してもらう。その際、本当に製品を社会的に受容してもらうべく、AIの利用者やAIから影響を受ける人の意見も反映する。このように先端科学に関わるさまざまなステークホルダーが協働し、リスクを低減する仕組みを、私たちは「アジャイルガナバンス」と呼んでいます。

――先端科学技術に対しては、これまでの法制度での対応が難しいということですね?

単純な機械に使われる1つの部品なら、使用に耐えうる強度を計算し、弱い部品で問題が起きないように、あらかじめ「こういう部品を使いなさい」と規制することができます。

一方、AIは大量のデータを統計的に学習し、一番適切なアウトプットを確率的に選んで挙動します。これは、確率的に望ましくないことが起こることを意味します。どこまでいってもリスクがゼロにはならないのです。しかも、いくつもの技術が連携して動くとなると、どこで問題が生じるか予見できません。こうした状況で適切にリスクを管理するのは、垂直的に安全性を規定する既存の法では困難です。

例えば、自動運転システムの場合でも、事故のリスクをゼロにはできません。しかし、「事故が起こる可能性のあるものを走らせた責任を取りなさい」と処罰すれば、皆が萎縮して開発しなくなります。かといって「AIは統計的に学習するものだから、誰にも事故は予見できません」という点を過度に強調すると、今度は誰も処罰できなくなります。処罰されないとなると、悪意ある人が安い粗悪品を市場に出し、きちんと安全性に配慮した商品が負けてしまうかもしれません。

したがって、確率的に挙動するAIを従来の機械部品と同じ方法で規制することは困難です。むしろ、望ましいリスクの範囲内に収まるように、関係者が協働しながら継続的にリスクを管理し続けることが重要になります。法が果たすべき役割は、関係者にこのリスク管理をきちんとやってもらうための仕組みづくりです。そのためには、管轄省庁とさまざまな分野の専門家、実際に製品を製造している企業などが協力して、望ましいリスク管理の方法やそこから逸脱した場合の制裁のあり方などを議論していく必要があるのです。

京都大学 大学院法学研究科 稲谷 龍彦 教授
「AIのような確率的に挙動するテクノロジーのリスク管理を適切に行うためには、従来型の製品管理を前提に最適化されてきた刑事司法のあり方も変わる必要があるでしょう」

AIと人間がうまく
つきあえる社会をつくる

――ご研究の今後について目指すところをお聞かせください。

法形成や法解釈、法執行などの問題については、AI裁判官やAI警察官のような話が出てきます。自動運転システムが人に代わって道路交通法を自動執行するように、AI警察官が警察官職務執行法を自動執行するような未来も十分あり得ます。

しかし、自動運転システムとは異なり、AI裁判官やAI医師のような領域では、人の役割が社会的に望まれ続けるかもしれません。そうすると、人とAIの協調領域が残ることになります。しかし、この領域が一番難しい。なぜなら、人間とAIがインタラクションすると、人間の認知・行動が変容することが分かっているからです。

AIあるいはロボットとのインタラクションからは、良い影響も悪い影響も起こり得ます。私たちが行っているロボットの研究では、ロボットの「気ままな振る舞い」が良い影響を与えている可能性が分かってきています。毎日、ロボットと若干すれ違うようなやりとりが起きる。それでいて、ロボットがたまに面白いことをしゃべる。そういう付き合いを続けるうちに、人間側の認知が若干変わってきます。毎日思い通りになる世界に住んでいると、些細な思い通りにいかないことにもイラッとしてしまいますが、普段から「気ままな」ロボットと付き合っていると、自分の思い通りにならないことにも慣れてきます。それが一種の寛容性や幸福感にも繋がっているのかもしれません。

私はもともと「人間が意味を理解するときに、どういう情報処理を行なっているか」に興味をもって研究をスタートしています。これからも、AIやロボットとインタラクションすることで人間の認知がどのように影響を受けるのか、あるいは、そもそも人間はどのように自身や世界を認知しているのかについて掘り下げた研究をしていきたいです。それらを1つ1つ解明していくことで人間とAI /ロボットがうまく協調しながら人間社会をより良いものに変えていく仕組みを考えていきたいと思います。

――AIとつきあっていく上では、ルールづくりも必要になりますね。

本来は、国際的にどこでも通用するようなルールを作り、それをみんなで協力して執行できるようにすることが望ましいです。とはいえ、人間には自分の思い通りにいかないときに、それを受け入れられるか、受け入れられないかの閾値があるようです。この閾値を超えてしまう人たちとどう協力するのかは、非常に難しい問題です。国際的なルール作りという観点からは、日本と欧米では、自己観・世界観もAIの捉え方も異なりますから、完全な合意は難しいでしょう。

そこですべてが一致しなくても、互いに歩み寄り、合意点を見出していく「不完全に理論化された合意」によりルールを作っていくべきだと考えています。合意できない部分はあったとしても、合意できるところはきちんと合意し、なるべく意味のある規制をグローバルに協調しながら作っていけるといいと思っています。

ただ実際には、ますます複雑化する社会で合意に基づくルールを作ろうとすると、閾値など膨大なデータの分析が必要になります。そうすると、やはりAIの力を借りることになるかもしれません。しかし、そこには、AIが人間の認知に与える影響の問題があるわけですから、この影響をきちんと継続的にチェックする必要があります。

法というのは「ノイラートの船」のようなものです。大海原で自分の乗っている船を修理しながら進んでいくように、法に影響を受けながら法を望ましい方向に変えていくという営みをせざるを得ません。法形成過程や解釈・執行にAIが関わってくるという問題は、この船にさらにもう1つの船が乗っているような状態かもしれません。しかし、AIに影響を受けながらAIを設計しているという再帰的なループを意識しながら進んでいくことで、AIやロボットともっとうまく付き合える社会が築けるかもしれません。さらに言えば、人間とAIが互いに学びあい、一緒に新しい可能性を開いていけるような関係性を構築できると良いと思っています。

――最後に、KDDI Foundation Awardを受賞されたご感想をお聞かせください。

KDDI財団が情報通信に関する研究活動を表彰していることは知っていました。これまでにも優れた先輩の法学研究者が受賞されてこられましたので、そこに私を加えていただけたのは大変にうれしく、光栄に思っています。

私の研究は、法学の中では少し変わった分野です。今回の賞をいただいたことが、法学の世界でももっと実証的な研究や、他分野の知見や成果を活かした研究が推進されていくきっかけになればと期待しています。従来の方法に捉われず、「こういう方法論を試してみようか」という人が増えてくれば、法学はより一層良いものになっていくと思います。

また、私が自由に好きなことを研究できる環境を与えてくれた京都大学にもとても感謝しています。先輩・同僚の先生方が私の試行錯誤を温かく見守り、好きなことを自由に研究する環境を維持してくださったおかげで、現在の自分の研究スタイルを確立していくことができました。この場を借りて心からお礼申し上げます。

京都大学 大学院法学研究科 稲谷 龍彦 教授
「京都大学の先輩である曽我部 真裕教授も以前にKDDI Foundation Awardを受賞されています。先輩方の築き上げてきた研究に恥じない業績を上げたいという思いで研究を続けて来たこともあり、今回同じ賞をいただけたことで、少し先輩に追いつくことができたのかなとうれしくなりました。」
XfacebookはてなブックマークLINE

OTHER INTERVIEWS

その他のインタビュー

デジタル時代における刑事司法に関する学術的研究

京都大学 大学院法学研究科

稲谷 龍彦 教授

スピントロニクスの省エネ情報技術応用

東北大学 電気通信研究所

深見 俊輔 教授

さまざまな研究分野で人材が育つ助成・表彰事業であってほしい

東京大学 大学院法学政治学研究科 教授
KDDI財団 審査委員

宍戸 常寿 氏

自動運転用オープンソースソフトウェア“Autoware”の開発

株式会社ティアフォー 代表取締役社長 CEO

加藤 真平 氏

COVID-19感染症拡大期における医療と経済活動の両立のためのシミュレーション

東京大学 大学院経済学研究科 公共政策大学院

仲田 泰祐 准教授

情報通信の可能性を広げていく夢のある提案を期待したい

早稲田大学 理工学術院 基幹理工学部教授
KDDI財団 審査委員

戸川 望 氏

海外日本語教材の調査とデータベースの構築

富山大学 教養教育院

ヨフコバ四位エレオノラ 教授

珠算行動の認識による学習者支援システム

奈良先端科学技術大学院大学 先端科学技術研究科 助教
(現)岡山大学 学術研究院 環境生命自然科学学域 講師

松田 裕貴 氏

情報社会のルール形成に関わる国際比較研究

一橋大学大学院 法学研究科ビジネスロー専攻

生貝 直人 教授

量子コンピューティング理論の展開と社会実装

東北大学 大学院情報科学研究科 教授
東京工業大学 理学院 物理学系 教授
株式会社シグマアイ CEO

大関 真之 教授

未来を見据えた「理」の通った調査・研究に期待したい

公立はこだて未来大学 システム情報科学部
情報アーキテクチャ学科 教授
KDDI財団 審査委員

中小路 久美代 氏

ディープフェイク音声の自動判別法

北陸先端科学技術大学院大学
先端科学技術研究科
生体機能・感覚研究センター

鵜木 祐史 教授

ICTを活用した危機に強い地方議会の構築

東北大学大学院 情報科学研究科

河村 和徳 准教授

カメラによる自動運転用三次元地図更新

名城大学 理工学部電気電子工学科

田崎 豪 准教授

深層学習などの最先端技術の開発の先導と現実世界の課題解決

株式会社Preferred Networks
代表取締役 最高研究責任者

岡野原 大輔 氏

助成・表彰事業を通じて研究者の交流が深まり新たなイノベーションの創出へ

慶應義塾大学
理工学部電気情報工学科 教授
KDDI財団 審査委員

眞田 幸俊 氏

5年後、10年後を見据え大きく羽ばたいていく人材発掘の入口にしたい。

相模女子大学人間社会学部 教授
KDDI財団 審査委員

湧口 清隆 氏

アプリを活用した買い物嗜癖の支援的研究

理化学研究所脳神経科学研究センター・親和性社会行動研究チーム 研究員
(現)川村学園女子大学教育学部・幼児教育学科 講師

白石 優子 氏

スマートソフトウェアシステムの部品化再利用と品質保証および人材育成

早稲田大学 理工学術院総合研究所最先端ICT基盤研究所副所長・教授
グローバルソフトウェアエンジニアリング研究所・所長、研究推進部・副部長

鷲崎 弘宜 教授

受賞業績プライバシー権の理論的研究

慶應義塾大学法科大学院 教授
慶應義塾大学グローバルリサーチインスティテュート(KGRI) 副所長

山本 龍彦 教授

KDDI財団と助成対象者・受賞者の化学反応によりICTの利活用を促進し、より良い社会へ

東京大学大学院工学系研究科 教授
KDDI財団 審査委員長

森川 博之 氏

超多素子アンテナによる空間自由度の活用

東京理科大学 工学部 電気工学科

丸田 一輝 准教授

海上における携帯端末通信環境の実態調査

国立情報学研究所
学術ネットワーク研究開発センター

北川 直哉 特任准教授

対災害エッジコンピューティングの研究

室蘭工業大学
情報電子工学系学科

董 冕雄 副学長・教授

タイ王国の薬剤耐性菌問題の解決に向けて

京都大学大学院
医学研究科・医科学専攻
(現)名古屋大学大学院
理学研究科 博士研究員

秤谷 隼世 氏

立方mm級無線送受信・無線給電デバイスの開発

京都大学
大学院情報学研究科

橋本 昌宣 教授

安全・安心とプライバシー保護の両立

群馬大学
大学院理工学部 知能機械創製部門

藤井 雄作 教授