ホワイトハウスによるAI規制等に関するメモランダム

2020年1月7日、米国ホワイトハウスは、AI*1に対する規制の在り方に関する、連邦機関宛のメモランダム(Guidance for Regulation of Artificial Intelligence Applications)のドラフトを公表しました。

 

このメモランダムは、

  • テクノロジーの発展イノベーションを促進させつつも、
  • 米国の技術経済国防プライバシー市民の自由、そして自由原則、人権、法の支配、知的財産に対する尊重その他の米国において重視している価値を保護することが重要とし、

そのために、連邦機関が検討すべき規制又は非規制によるアプローチ(reguatory and non-regulatory approach)を検討したものです*2

 

この記事では、このメモランダムの内容を自分の勉強メモとして簡単にまとめつつ、先日ブログでも触れた英国のAI実務指針(案)と比較してみようと思います。

なお、英国のAI実務指針(案)については、こちらを御参照ください。

keifuruichi.hatenablog.com

Guidnance for Regulation of Artificial Intelligence Applicationsのゴールは?

ガイダンスでまず強調されているのは、Encouraging Innovation and Growth in AIの点です。

つまり、連邦機関が過度な規制等*3をしてしまうことによって、AIイノベーションやAIの成長を阻害することは避けたいという点です。

このガイダンスは、連邦機関が、イノベーション等の促進と、重要な価値の保護との調和点を見つけ出すためにどのようにアプローチしていけばいいのかを示したものというわけです。

 

これに対して、英国実務指針(案)は、民間企業等が、どのようにAIを説明すればいいのかを示したものであり、そもそもの目的が異なることになります。

また、英国実務指針(案)では、個人情報を利用したAIに基づく出力に基づく決定についての「説明」(人間の判断が介在する場合も含みます。)について扱っているのに対して、米国の本ガイダンスは(その文面からは)そういった場面に限られず「AIの開発と利用」に対する規制等のアプローチを扱っています*4

 

Principles for the Stewardship of AI Applications ー 政府が考慮すべき10の原則とは?

では、ゴールは分かったとしても、連邦機関はどのように行動をすべきなのか、考えるべきなのか。ガイダンスでは10の原則を挙げています。

なお、毎度のことですが、原文の英語を翻訳している部分は、私独自の言い回しのことも多いですので「一般的な訳語なのかな」と思われないようにされてください。

第1原則:Public Trust in AI(AIに対する国民からの信頼

まず、第1に、国民のプライバシー等に影響を与えうるAIが今後継続的に受け入れられるためには、国民からの信頼と評価が重要になるとしています。

そして、そのような国民からの信頼・評価を受ける観点から、連邦機関がregulatory and non-regulatory approachを考えるうえでも、reliable, robust and trustworthyなAIを促進(promote)することが重要であるとしています。

 

英国実務指針案(案)でも、国民からの信頼の重要性については、「AIの説明によって得られるメリット」(AIの理解向上と建設的な議論の促進)として挙げられていますし、逆に「AIの説明をしないことによるリスク」(AIに対する国民からの信頼喪失)という形でも指摘されています。

また、Safety and performance explanationとして、AIに基づく決定等の正確性信頼性安全性及び頑強性(accuracy, reliability security and robustness)が確保されているかがカバーされていました。

 

第2原則:Public Participation(国民参加

 第2に、実現可能な範囲で、かつ法令が許す範囲で、国民がルールメイキングプロセスのすべてのステージにおいて参加できる豊富な機会を提供すべきであるとしています。

そうすることで、規制等に関する連邦機関側の説明責任の観点や規制等の質の向上が期待されるとしています。

 

冒頭で挙げた目的・宛名の点で異なる英国実務指針案(案)では、挙げられていない視点です。

第3原則:Scientific Integrity and Information Quality(科学的公正性情報品質

第3に、連邦機関が規制等を検討するにあたっては、公共や民間に重大な影響を与えうる技術的・科学的な情報を適切に集める必要があるとしています。

また、その規制等は、政策決定が何であるかを国民に情報提供するだけではなく、AIに対する信頼向上をもたらすものである必要があるとしています。

 

第4原則:Risk Assessment and Management(リスク評価管理

第4に、リスク・ベースのアプローチを強調しています。つまり、あらゆるリスクを避けようとするのではなく、どんなリスクなら受け入れ可能なのか(逆に、受け入れ不可能なのか)、リスクが得られるメリットを超過するのはどういった場面なのか、AIが「しくじった」ときの影響の規模と性質は何か、ということを検討すべきとしています。

 

英国実務指針案(案)でも、 Impact explanationとして個人・社会に与える影響を考慮した説明が必要としています。

第5原則:Benefits and Costs(効果費用

第5に、連邦機関は、社会的なコスト・メリット・拡散的な効果を考慮すべきとしています。既存の非AIシステムとの比較において、AIシステムを導入することによるメリットとコストが何かなどを検討することなどが含まれます。

更には、各考慮要素間の依存関係(critical dependency)についても考慮に入れるべきとしています。

つまり、AI導入時の技術的な要素(例えば、データの質が高いとか低いとか)やAI導入による人間行動の変化などによって、コストとメリットの規模と性質が変わってくるという点を指摘しています。

一律で画一的な規制等が難しいという点を指摘するものとも言えます。

 

第6原則:Flexibility(柔軟性

第6に、パフォーマンス・ベース柔軟なアプローチの重要性が指摘されています。

AI技術の急速な発展を踏まえると、どんな技術を使うべきかといった硬直的な規制は実際的ではないし実効性もないとします。

その代わりに、安全やプライバシー等の価値を守るような「目標の設定された適合性評価」(targeted agency conformity assessment schemes)によって、柔軟なアプローチを実現すべきとしています。

 

第7原則:Fainess and Non-Discrimination(公平性差別禁止

第7に、差別的効果について考慮すべきとしています。

各所で言われていることですが、ガイダンスでも、AIの導入によって、人間の主観に起因する差別が減少する可能性を指摘しつつ、時に、現実世界のバイアスが持ち込まれて差別的結果をAIが生み出す可能性も指摘しています。

そのことから、ガイダンスでは、AIの利用による差別的結果に加えて、既存の非AIシステムによって存在していた差別が、そのAIシステムの利用によってどの程度削減されたのかも検討すべきとしています。

 

英国実務指針案(案)でも、Fairness explanationの重要性を指摘していますが、「AIを利用しない旧来システムにおいて発生する差別」と「AIの利用による差別」との比較という視点は、同指針(案)では必ずしも強調されていない点であります。

 

第8原則:Disclosure and Transperency(開示透明性

第8に、AIがエンドユーザーに対してどういった影響を与えるか等の開示の重要性を指摘しています。

その際、既存の法令や政策等によって十分な開示が実現できているか否かを十分検討したうえで、新たな開示規制の導入が必要かを考えるべきとしています。

ここでは、適切な開示とはcontext-specificであるとし、以下のような要素が考慮されるとしています。

  • 潜在的な危害(potential harm)
  • 危害の規模(magnitude of those harms)
  • 技術の現状(最新技術)(technical state of art)
  • 潜在的なメリット(potential benefits)

英国実務指針(案)でも、「説明原則」として"Consider context"というのを挙げておりますが、ドメイン、影響力、データ、緊急性、聴衆という要素を挙げています。

もちろん、目的が違うので比較できるものではありませんが、状況・文脈に応じてあるべき開示又は説明が異なりうるというのは共通しているようです。

 

第9原則:Safety and Security(安全性

第9に、連邦機関は「安全で意図した通りに運用されるAIシステムの開発を促進(promote)し、かつAIの設計・開発・実装・運用を通して安全性の問題を十分考慮するように奨励(encourage)」すべきとしています。

 

英国実務指針(案)におけるSafety and performance explanationData explanationと共通する点がありますし、AIの設計から運用までを一貫して捉えるという視点も共通しているように思います。

 

第10原則:Interagency Coordination(連邦機関同士の協調

最後に、連邦機関同士が協調し、経験を共有するなどを通じて、一貫した政府一体のアプローチを実現すべきとしています。

 

当然ながら、目的の異なる英国実務指針(案)には無かった視点です。

 

Non-Regulatory Approaches to AI ー 法令規制ではないアプローチの可能性って具体的には?

今回のホワイトハウスのガイダンスの特徴の一つとして、法令等による規制ではないアプローチの可能性を正面からとらえ、ある程度しっかり触れているという点が挙げられます。

その方法としては、3つ挙げています。

  • セクター毎のガイダンス・フレームワーク(Sector-Specific Policy Guidance or Frameworks)
    イノベーションを阻害することとなる「規制の不透明性」を解消するため、法令規制ではないガイダンス等を制定すること。(日本の金融規制分野でも定番ですよね。)

  • パイロットプログラムや実証実験(Pilot Programs and Experiments)
    HackathonやTech sprintsなどで、特定のAI利用に関して規制免除等を与えて実験的に実施させることを通じて、連邦機関自身もAIに対する理解を高め、得られたデータやその影響等を踏まえて将来の政策に生かすこと。(いわゆる「規制のサンドボックス」に似ているように思います。)

  • 民間による自主基準(Voluntary Consensus Standards)
    :民間による自主基準の可能性を視野に入れるとともに、独立した標準策定機関(independent standards-setting organizations)なども検討すること。(これも、日本の金融規制分野では定番ですね。)

 

これらの方法も、連邦機関としては選択肢に入れて検討することになります。

Reducing Barriers to the Deployment and Use of AI ー ルール策定以外に政府が出来ることは?

このガイダンスは、冒頭でも説明したとおり、Encouraging Innovation and Growth in AIが狙いなわけですが、連邦機関がなし得ることとして、上記で触れたルール(非規制を含む)策定以外に、以下が考えられるとしています。

①政府保有データ・モデルへのアクセス向上Access to Federal Data and Models for AI R&D)

 いわゆる米国OPEN Government Data ActやOMB(米国行政管理予算局)が出すガイダンスに従って、政府が保有するデータやモデルを広く国民に開示し利用可能にすることが挙げられています。

こうすることで、それらデータやモデルを活用したイノベーションを促進することが出来るとしています。

②国民とのコミュニケーション(Communication to the Public)

 AIに対する適切な信頼と理解を国民が持てるように、国民と十分にコミュニケーションをとることが必要としています。

連邦機関がcontext-specificで十分な証拠に基づくリスク・アセスメントを実施し、それを透明性をもって国民に伝えることなどが含まれます。

③自主基準の策定等における政府関与や適合性評価の実施(Agency Participation in the Development and Use of Voluntary Consensus Standards and Conformity Assessment Activities)

民間による自主基準に政府が関与することで、政府としてもAI専門能力を培い、実務的なスタンダードを理解することが出来るとしています。

また、AIに対する適合性評価の実施も選択肢の一つであると指摘しています。

 

この点、英国実務指針(案)は、政府系機関であるICOアラン・チューリング研究所との共同作成によるものであり、民間の自主的な基準策定を促すような内容になっていました。

 

④規制における国際協力(International Regulatory Cooperation)

AI分野における一貫性のある規制の在り方を促すように、国際的な協力を行うことも必要であるとしています。そうすることで、米国がAI開発における最先端であり続けようとのことです。

 

おわりに

以上、米国ホワイトハウスが公表した メモランダム "Guidance for Regulation of Artificial Intelligence Application"をざっと見てきました。

イノベーションの促進を阻害しない規制の在り方、あるいは規制ではない方法が示された点が特徴的であり、英国実務指針(案)が民間の「AIの説明」行動指針を示していることと通底しているように思います。

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

*1:なお、今回のテーマとするガイダンスは、連邦機関『外』で開発・利用されている、いわゆる『弱いAI』を対象範囲としており、連邦機関『内』で利用等されているものや、『強いAI』については対象外とされています。

*2:ここで「非規制」(non-regulatory)としているのは、法令上の拘束力を有しない「ルール」を含む意図です。

*3:以下では、regulationとnon-regulationを合わせて「規制等」としています。

*4:したがって、米国ホワイトハウスの本原則と、英国実務指針とを比較する価値がどれだけあるのか、という点はありますが、僕自身の頭の整理として比較も交えていきたいと思います。

Project ExplAIn: 英国におけるAIの説明可能性の取り組み

2019年12月2日、英国のInformation Commissioner's Office(ICOは、アラン・チューリング研究所と共同で、説明可能なAI(explainable AI / XAI)に関する ”Explaining decisions made with AI”と題する実務指針(案)を公表しました。

XAIに関しては、技術面からの論文や記事が近年増加しており、国内外におけるガイドライン等でも扱われるホットなトピックなのですが、その流れの中で、英国が実務運用に即した「AIの説明」のあり方についてまとめたのが、この実務指針(案)です。

 

この記事は、この実務指針(案)の内容を(公表から1か月も経っちゃいましたが)年末年始に自分の勉強として簡単にまとめたものとなります。

但し、割愛している部分も多くあり、原文もわかりやすい英語で書かれており、具体例も豊富なので、(英語が読める方は)ぜひとも原文にあたっていただければと思います。*1

Explaining decisions made with AIとは?

この実務指針(案)が出されるに至った経緯をまず簡単に説明したいと思います。

2017年10月、Professor Dame Wendy Hallと Jérôme Pesentiが発表したindependent reviewのなかで、AIに基づく決定・判断を説明するためのフレームワークの構築をする必要性が示されていました。

また、2018年4月には、英国政府は、AI Sector Dealという産業戦略計画のなかで、ICOアラン・チューリング研究所が共同で、AIに基づく決定の説明を助けるガイダンスを作成するように求めていました。

これらのindependent review及びSector Dealの求めに応じて開始されたのがProject ExplAInと呼ばれる、ICOアラン・チューリング研究所協働のプロジェクトで、今回の実務指針(案)はその成果物というわけです*2

また、この実務指針(案)は、法的拘束力のある規則ではなく、パーソナルデータを処理・利用するAIシステムに基づく行われた決定に関して、「説明」を行うためのGood Practiceを示した実務指針(practical guidance)であるとされています。

 

この実務指針(案)は、以下のとおり、3つのパートで構成されています。

実務指針(案)については、現在意見公募を2020年2月24日まで行っており、最終的な実務指針は2020年の後半に公表されるとされています。

それでは、早速、それぞれのPartの内容についてみていきましょう。

Part 1: The basics of explaining AI

「何について」説明するのか?AI decision(AIに基づく決定)とは?

「説明可能なAI」「AIの説明」という場合、より具体的には、何を対象とする説明のことを指すのでしょうか?

この実務指針(案)では、現実のAIの利用の方法として、AIの出力結果が直接「決定」(当該出力結果に基づきとられた行動を指します。decision)が行われる場合もあれば、AIの出力の後、他の情報等を踏まえて人間の判断が介在し「決定」が下される場合があることを紹介しています。

そのうえで、実務指針(案)で使用されている 'AI decision'(AIに基づく決定)という言葉には、AIに基づく出力結果やそれに基づく(人間の判断の介在後の)「決定」を両方含むものとしています。

説明することのメリットとデメリットは?*3

 AIに基づく決定を説明することで、会社には以下のメリットがあるとしています。

  • 法令順守
  • 顧客からの信頼獲得
  • 内部統制

また、個人・社会には以下のメリットがあるとしています

  • AIの理解向上と建設的な議論の促進
  • AI決定の改善(公平性等の向上など)
  • 人間中心の実現

他方で、以下のデメリット(リスク)もあるとしていますが、適切な「説明」を実現することで回避できるとしています。

  • 過度な情報による不信
  • AIシステムの内部構造など企業秘密の漏洩
  • 三者のパーソナルデータの漏洩
  • AIシステムの内部構造を把握したうえでの悪用

それどころか、AIに基づく説明をしないことによるリスクとしては、以下のものがあるとしています。

  • 規制の強化・行政介入
  • レピュテーションリスク
  • AIに対する国民からの信頼喪失

以上のような、説明によるメリットと説明しないことによるデメリット・リスクを踏まえて、この実務指針(案)は策定されたというわけです。

AIに基づく決定についての「何を」説明するのか?6つの「説明類型」とは?

AIに基づく決定を「説明する」というとき、どういう場面を想像するでしょうか?どういう内容の説明を求めるでしょうか?

実はこれまで「説明する」ってなんだっけ?ということが各所で議論されてくる中で、結構いろんなパターン(類型)があるのでは、ということが言われています。

実務指針(案)では、主要な「説明類型」として以下の6つを挙げています。なお、各項目の後ろに記載している日本語やその説明は、私が訳したものなので(かなり)不正確な点があるのはご留意ください。 

  1. Rationale explanation(「根拠」の説明)
    特定の決定に至った理由・ロジックを、把握できる形で、かつ非技術的な方法で説明すること。また、AIシステムのどの構成要素が、特定の決定に至る重要な要素となったかを説明すること。

  2. Responsibility explanation(「責任所在」の説明)
    AIの開発・管理・実行において誰が関与しているか、及び当該決定に対して誰がレビューをするのかなど責任の所在について説明すること。

  3. Data explanation(「データ」の説明)
    AIモデルの開発に際しての学習データ及びテストデータとして、どんなデータがどんなふうに利用されたかについて説明すること。また、特定の決定において、どんなデータがどんなふうに利用されたかについて説明すること。

  4. Fairness explanation(「公平性」の説明)
    その決定が一般的に不偏で公平となるように、AIの設計及び実装において、どのようなステップが踏まれたかを説明すること。そして、各個人が公平に扱われているかどうかを説明すること。(データセットの公平性、設計の公平性、結果の公平性)

  5. Safety and performance explanation(「安全性・性能」の説明)
    その決定等の正確性信頼性安全性及び頑強性が確保されるように、AIの設計及び実装において、どのようなステップが踏まれたかを説明すること。

  6. Impact explanation(「影響」の説明)
    AIの利用が個人・社会に与える影響が何か、そしてそれらを十分に考慮したこと等を説明すること。

以上が、実務指針(案)で示されている「説明類型」ですが、そこでも書かれている通り、これは網羅的なリストではありません。事業領域やAIシステムの内容などによって、「利用者たる個人が求める説明」の内容は異なりうることを意識する必要があります。

4つの「説明原則」とは?

実務指針(案)では、(ルール・ベースではなく)プリンシプル・ベースのアプローチをとるべきとしています。つまり、「ああしろ、こうしろ」と詳細・個別に規定するのではなく、「原則を示してその中でベストなプラクティスを探していくべし」というスタンスをとっています。

具体的には次の4つの原則です。これらの原則は、この後で説明するPart 2やPart 3でも度々参照される原則です。

  1. Be trasparent
    AIに基づく決定を行っている事実、その場面と理由についてオープンで率直(candid)であること、そして偽りのない意味のある説明(truthful and meaningful explanation)を適切な方法で適切なタイミングですること

  2. Be accountable
    AIの説明可能性について誰が管理・監督するのか、最終的な責任の所在はどこか、個人が説明可能性を問える人間を配置すること、AIの設計からデプロイに至る各過程において説明可能性について十分な検討を行うこと

  3. Consider context
    どんな事業にも適用できるような説明方法はないということを念頭に、当該事業が行われる文脈(事業分野、利用シーン、決定を受ける個人の状況など)を考慮すること

  4. Reflect on impacts
    AIの設計からデプロイに至るまで、AIが個人及び社会に対して与える影響を顧慮すること

 

Part 2: Explaining AI in practice

「説明」の類型や原則はわかったとして、実務指針(案)は結局何を事業者に求めているのでしょうか。それは、AIに基づく決定を受ける個人に対して意味のある説明をするということです。

そのために、事業の中で決定プロセスにある全ての者が、AIに基づく決定に対して説明ができるようにあらかじめ準備すべきとしています。例えば、AIの設計及び実装の背後にあるプロセスをドキュメント化することに加えて、その出てきた結果(出力)について実際に説明することも含まれています。これらの具体的な内容はPart 3で触れることになります。

事業者は何から手を付けたらいいの?7つの「ステップ」とは?

でもそうだとしても、実際にAIを「説明」するには事業者は何から手を付けたらいいのか?どういう手順で考えていけばいいのか?そのような疑問に答えるために、事業者が参考としうる7つのステップがPart2において示されています。

ステップ1:Select priority explanations by considering the domain, use case and impact on the individual(取り組むべき「説明類型」に優先順位をつけよう

Part 1で見たとおり、「説明」にはいくつかの類型が存在します。そこで、それらの類型の中から、「利用者たる個人が説明してほしいと思う類型の説明とはなんだろうか」と考えてみます。

 

一般的には、Rationale explanation(「根拠」の説明)とResponsibility explanation(「責任所在」の説明)の重要性が高いことが多いだろうとしていますが、自分たちの事業領域・ユースケース(利用シーン)や個人への影響度等を踏まえた検討をすることが重要としています。

例えば、実務指針(案)では以下のような具体例を挙げています。*4

  • 医療分野のような安全性が重要な分野では、Safety and performance explanation(「安全性・性能」の説明)が、既存の医療分野における安全基準等に合致していることが重要となる
  • 刑事司法分野のような公平性が重要な分野では、Fairness explanation(「公平性」の説明)が重要となる
  • 商品のクレーマーを分類するAIシステムと、医療機関の集中治療室の患者を分類するAIシステムとでは、個人への影響度が異なり、優先順位も変わりうる

いずれにせよ、このように優先順位をつけることで、何から手を付けたらいいのか、各類型ごとにどういった情報を準備すべきか、どの程度カバーすべきかなどが見えてくるでしょう。 

 

ステップ2:Collect the information you need for each explanation type(各説明類型ごとに必要な情報を集めよう

説明類型に優先順位をつけることが出来たら、それぞれの説明類型について説明に必要な情報を集めましょう。

その際に、実務指針(案)では、プロセス・ベースの説明とアウトカム・ベースの説明の二つの説明があるとしたうえで、それぞれの説明ができることが重要としています。

  • Process-based explanation
    AIシステムの設計及び利用の場面において、適切なガバナンスプロセスとベスト・プラクティスに従ったことを説明すること
  • Outcome-based explanation
    AIに基づく特定の決定が出された場面において、その決定に至った理由を平易で理解しやすい、日常用語で説明すること

実務指針(案)では、ステップ1でみた「説明類型」ごとに、

  • 「何を示す必要があるのか(What you need to show)
  • 「どんな情報で説明することができるのか(What information goes into this explanation)(Process basedとOutcome basedごとに)

を整理して示してくれていて、とても参考になると思います*5

 

ステップ3:Build your rationale explanation to provide meaningful information about the underlying logic of your AI system(AIシステムの「論拠」の説明を考えよう

AIシステムの内部ではどのようなことが行われているのか、というRationale explanation(「根拠」の説明)を理解することは、次のステップ以降の重要な要素となります。また、そもそもステップ1見た通り、一般的には優先順位が高い説明類型になりますので、これを解明することはとても大切なことです。

 

その際に注意すべきことは、そのシステムの利用シーン・業務分野や影響の度合いを踏まえて、適切な水準の説明になっている(理解が可能であること)ようにすることです。

実務指針(案)では、以下のような具体例を示しています。

  • 金融サービス部門の与信判断においては、その判断を厳格に正当化しうる、完全に透明で、容易に理解可能なモデルを使用する必要があるだろう
  • 医療分野においては、厳格な安全性基準を満たすために、性能に関する高水準の説明が可能なモデルを採用する必要があるだろう
  • 従業員の手書きフィードバックを読み取る画像認識システムと、保安検査場で危険を判別する画像認識システムとでは、その影響度が異なる結果、採用すべきモデルも異なりうるだろう

 

AI開発においてモデルの選択を説明可能性の観点から検討するにあたって、実務指針(案)では、 15のアルゴリズムを一覧化して、それぞれの概要や想定される利用シーン、そして解釈可能性について示しています。このうち、最初の11のアルゴリズム*6については、基本的には解釈可能性が高く、最後の4つのモデル*7については(程度の差はあれど)解釈可能性が低い、いわゆるブラックボックス型のモデルだとしています。

 

ここで実務指針(案)が示す重要なポイントの一つは、ブラックボックス型のAI*8を利用する場合の取り扱いです。

実務指針(案)においても、一定の分野においては、分かりやすく解釈が可能なAIシステムを利用できない場合があることには理解を示しています。

しかしながら、このブラックボックス型のAIモデルを利用するのは、

  • 潜在的影響リスクを予め徹底的に検討し、
  • AIシステムの想定利用シーン組織としての能力・資源ならば、責任ある設計と実装が可能であると判断し、かつ
  • 補助的な解釈ツール(supplemental interpretability tools)を使うことで、事業領域に適したレベルの説明可能性が実現でき、これによって、合理的に十分な水準で、潜在的リスクを軽減し、AIが出した結果の根拠について意味のある情報を示すことのできる確固たる基盤を提供できる場合に限り

認められるとしています。

実務指針(案)では、ここでいうsupplemental interpretability toolsとして、例えば、Surrogate models、PDP、LIMEやSHAPなどを一覧化したうえで、それぞれの内容及び限界も示していますので、技術者も参考にすることができる内容になっているのではないでしょうか。*9

ステップ4:Translate the rationale of your system's results into useable and easily understandable reasons(AIが出す結果の論拠を理解しやすい言葉での説明に言い換えよう

一般的にステップ3を経ることで、どんな入力・特徴量や関係が、特定の出力結果に影響を与えたのかという統計的関連性(statistical association)がわかってくるわけですが、次はその説明を、技術者ではない利用者等が理解できるような日常用語に翻訳することが必要になります。

その際に注意しなければならないこととして実務指針(案)が指摘するのは、「相関関係は因果関係を含意しない (Correlation does not imply causation)」という点です。

つまり、ステップ3で把握できることは、特定の入力・特徴量等(X)がある特定の出力結果(Y)と強い相関関係があることまでであり、XとYに因果関係があるとまでは言えない場合があるという点に留意すべきとしています。

 

この点を留意したうえで、ここに、ドメイン知識決定を受けた者の個別具体的な状況に関する知識を動員していきます。

そうすることで、どの統計的関連性(相関関係)が「正当で(legitimate)合理的に説明してくれている(reasonably explanatory)」か否かを分析・検討して、それが「説明」に関連性があるかの理解・納得できるかチェック(Sense check)することになります。

 

実務指針(案)では、以下のような具体例として挙げています。

  • 家族の看病・介護のために数年間仕事を離れていた者が、求人・採用AIにはじかれてしまった原因が、「失業期間の長さと職務能力の低さ」という統計的相関関係に基づくとステップ3で把握できた場合、Sense checkの結果、本件では当てはまらない(家族の看病のために離れていただけなのだから、今回の例にとっては正当で合理的な説明ではない)と考える

 

ステップ5:Prepare implementers to deploy your AI system(実装者・介在者(implementer)がAIをデプロイできるように準備をしよう

また、完全自動型のAI*10ではなく、判断権限を持つ人間が決定に関与するAIの場合、その人間(implementer)がAIに関して適切な理解を持ち、それを責任をもって公平に利用するためにトレーニングをあらかじめ受けていることが必要です。

そうでなければ、最終的に適切な説明が可能な決定が出来ない可能性が出てきてしまいます。

例えば、機械学習の性質や、AIの限界等(上記の「相関関係は因果関係を含意しない 」を含みます。)に関する基礎的な知識を適切に持つこと、そして認知バイアスにどう対処するかを理解することが必要です。

また、AIシステムが、人間による判断を助けるものであって、人間の判断に代替するものではないと理解することも必要です。

 

ステップ6:Consider contextual factors when you deliver your explanation(文脈や状況を踏まえて説明を考えよう

ステップ6では、説明の内容をよりブラッシュアップしていきます。

具体的には、ドメイン、影響力、データ、緊急性及び聴衆などを考慮したうえで、人々(利用者)が欲しい・必要と思う情報が何か、その情報で人々はどうしたいと思うのか、を考えることが必要になってきます。具体的には、以下のとおりです。

  • ドメイン
    例えば、刑事司法分野のAIの場合に重要となる「公平性」の説明については、Eコマース分野のレコメンドAIの場合にはそれほど重要とはならないことが多い
  • 影響力:
    例えば、個人に強い影響を与えるAIの場合には、一般的には「公平性」や「安全性・性能」の説明が重要になることが多い
  • データ:
    例えば、生物的・身体的データを利用して診療するAIの場合には「影響」や「安全性・性能」の説明が重要でありうるのに対して、社会的・主観的データを利用されたAIの場合には「公平性」の説明の重要性が高まりうる
  • 緊急性:
    例えば、緊急性の高い決定を行うAIの場合には、その決定を受けた個人が速やかに受け入れるための「安全性・性能」の説明の重要性が高くなることが多い
  • 聴衆:
    例えば、聴衆(説明すべき相手)が一定のドメイン知識を持っているならば「根拠」の説明だけで事足りる(全部を理解してくれる)ことがあるかもしれないが、そのような知識がない聴衆には「安全性・性能」の説明に加えて、「責任所在」の説明によって「AIの決定に疑問があった場合に誰に聞けばいいか把握」できるようにした方がいいこともあるでしょう

 

ステップ7:Consider how to present your explanation(どうように説明するか考えよう)

そして最後に、どうように説明を伝えるのかを考える必要があります。

実務指針では、説明の方法としては、Layered approachという方法が提案されています。つまり、ステップ1で優先順位が高いとしたもの第一Layerとして、順にLayerを変えながら、説明を加えていくという手法です。

By layered we mean proactively providing individuals with the prioritised
explanations (the first layer), and making the additional explanations
available on a second, and possibly third, layer. If you deliver your
explanation on a website, you can use expanding sections, tabs, or simply
link to webpages with the additional explanations.

 こうすることで、利用者が知りたい情報や説明を探すのに負担をかけなくて済み、関係する重要情報に速やかにアクセスすることができる(さらに詳細を知りたければ、知ることもできる)ことを実現できるとされています。

もっとも、実務指針(案)が強調するのは、こういった情報・説明は「一方的」なものではなく「会話的」なものであるべきという点です。単にウェブサイトに掲載するだけではなく、AIの行った決定に関して、人間と議論をすることができるようにすべきとしています。

 

また、説明の方法に加えて、説明のタイミングも重要な検討事項です。

ステップ2で示した、Process-based explanationならば事前に情報提供することができるはずですし、Outcome-based explanationも「責任所在」、「影響」、「データ」の説明の一部は事前に示すことができるでしょう。

そして、決定がなされた後は、全ての説明を提供できるはずです。

 

これでPart2は終わりです。これで「説明」の在り方についてはおさえました。 

Part 3: What explaining AI means for your organisation

Part3では、Part2でみた「意味のある説明」を実現するためにどうしたらいいのか、採用しうる役割分担、方針及び手続き等の規定、並びに記録・文書管理等のあり方について触れています。

①組織内での役割分担のあり方

実務指針(案)では、AIの結果に基づき決定・判断を行うプロセスにいる全ての者*11が、「説明」のために担うべき役割があるとしています。

 

例えば、AI開発チームであれば、AIに入力するデータが信頼性・関連性があり、かつ最新であるように確保すること、データ・アーキテクチャーやインフラが意図したとおりに機能し、かつ必要な「説明」が取り出せるように構築・整備すること、AIシステムに利用するモデルを構築・学習・最適化し、解釈可能なメソッドを優先することなどが期待されています。 

他方で、DPO*12及びコンプラチームは、AI開発及び利用が、法令、社内規則、ガバナンス指針等を遵守している状況を確保することが求められており、

マネジメントは、AIに基づく決定が適切な水準で説明可能であることを確保する責任を負うことが役割とされています。

 

 なお、AI開発自体は外部のベンダーに委託する場合でも、実務指針(案)では、事業者(委託者)が、AIに基づく決定に関する説明の第一義的責任を負うとしています。もしも、外部ベンダーから供給を受けたAIについて、それ単体では「意味のある説明」ができないのであれば、補助的なモデル等の利用が必要になる場合もあることが示されています。

②方針及び手続を定めた規則のあり方

実務指針(案)では、以下の観点から、AIに基づく決定の「説明」に関して方針及び手続を規定した規則を作成することが望ましいとしています。

  • 運営と手続の一貫性を確保し、標準化を図る
  • ルールと責任を明確化する
  • 組織のカルチャーを育て広めることを支える

そのうえで、規則には、「どういう規則なのか」「なぜそういう規則なのか」「誰に適用される規則なのか」「それを実現するための具体的な手順は何か」を規定する必要があるとしています。

実務指針(案)では、具体例として、以下の各項目を挙げています。

  • Policy Objective
    「AIに基づく決定についての適切な説明の実現」という目的の明確化
  • Policy Rationale:
    なぜこの規則が必要なのか(法令上の要請に加えて、順守することによる会社のメリットや会社のビジョン・価値との関連性)
  • Policy Scope:
    どんなAIに適用されるのか、どの部署に適用されるのかなど
  • Policy Ownership:
    この規則が順守されているかの管理監督を行うのはどの部署かなど
  • Roles:
    役職・部署ごとに「AIの説明可能性」にどういう役割を担っているのか
  • Impact Assessment:
    AIに基づく決定による影響度評価の必要性とその方法について
  • Awareness Raising:
    AIを利用する理由、どこで使用しているのか等の意識の向上の重要性について
  • Data Collection:
    説明可能性の向上のためにどのようにデータを収集・評価・構造化・ラベリング等するかについて
  • Model Selection:
    「説明可能性」を支える要素がどのようにAIモデルの選択に際して考慮されるのか、AIシステムの利用シーンや潜在的な影響の観点からの適切性などについて
  • Explanation Extraction:
    「説明」にはいくつかの類型が存在すること、そして各類型の説明を抽出するための必要な要素が何かについて
  • Explanation Delivery:
    個人(利用者)にとって意味のある説明を実現するためにどうするか(説明類型の優先順位のつけ方、技術用語を日常用語に翻訳する方法、説明フォーマットなど)
  • Documentation:
    AIシステムの開発から利用に至るまでの記録・文書管理のあり方について
  • Training:
    説明の重要性とその方法に関しての一般従業員に対する教育などについて

 

③記録・文書管理のあり方

 AIに基づき決定がなされたとき、その説明を行うためには、プロセスの各ステージにおいて適切な記録・文書管理が必要になってきます。その際

  • AIシステムの設計及び実装の過程での記録・文書管理
  • AIシステムを利用して特定の決定がなされた過程での記録・文書管理

の両方をカバーすることが重要とされています。

そして、何よりも、技術的知識のレベルが多用な人々に対して理解可能な記録・文書を作成・管理することが重要だと、実務指針(案)は示しています。

 

実務指針(案)の当該節は、GDPRにおいてどのような記録・文書が必要なのかを、各条項ごとにおさらいしてくれています。

また、以下の各段階において、具体的にどういった記録・文書を作成・管理しておく必要があるのか(望ましいのか)についても、詳細に記載してくれていますので、ぜひ原文をご参照ください。

  • Decision to use an AI system(AIシステムを利用することとした経緯)
  • Scoping and selecting explanation types(説明類型の選択と範囲)
  • Data collection and procurement(データの収集)
  • Data pre-processing(データの前処理)
  • Model selection(モデルの選択)
  • Model building, testing and monitoring(モデル構築・テスト・モニタリング)
  • Tools for extracting an explanation(説明抽出ツール)
  • Explanation delivery(説明の提供)

 

おわりに

以上、ICOアラン・チューリング研究所が共同で公表した ”Explaining decisions made with AI”をざっと見てきました。

何度も言いますが、原文はとても分かりやすい英語で書いてくれるので、英語を読める方はぜひ原文にあたっていただければと思います。

今後、日本での議論においても参考にできるものもあるのではないかと思います。

 

 

 

 

 

 

 

 

 

 

 

 

 

*1:なお、筆者は技術的知識面では素人ですので、記事中に誤訳等があるだろうと思います。その場合には、コメント欄でご指摘いただければ幸いです。

*2:より詳細に関しては、アラン・チューリング研究所のウェブページ(https://www.turing.ac.uk/research/research-programmes/public-policy/programme-articles/project-explain)等をご参照ください。

*3:ここでは項目を挙げるだけにしておりますが、具体的な内容に関しては原文をご参照ください。

*4:この他にも、コラムのような形で、リクルーティング分野でのAIや医療診断分野でのAIではどう考えたらいいかを説明してくれています。

*5:その他、Part 2の26ページから30ページにかけて、データの収集と前処理の仕方が、各類型の説明方法・内容にどう影響・方法してくるのかについて分析しており、とても面白いと思ったのですが、今回は割愛しています。

*6:Linear regression, Logistic regression, Regularised regression(LASSO and Ridge), GLM, GAM, Decision tree, Rule /  decision lists and sets, Case-based reasoningなど

*7:Support vector machines, Artificial neural net, Random Forest, Ensemble methods

*8:実務指針(案)では、'Black box' AI systemについて、以下のとおり定義しています。"we define a ‘black box’ model as any AI system whose inner workings and rationale are opaque or inaccessible to human understanding. These systems may include neural networks (including recurrent and convolutional neural nets), ensemble methods (an algorithmic technique such as the random forest method that strengthens an overall prediction by combining and aggregating the results of several or many different base models), and support vector machines (a classifier that uses a special type of mapping function to build a divider between two sets of features in a high dimensional space). "

*9:その他、解釈可能性の高いモデルを対顧客では利用しつつ、それと並行してブラックボックス型AIモデル―いわば「チャレンジャー」モデルを走らせ、特徴量エンジニアリング等に活用し、次元削減等を通じて解釈可能性を向上させるという、ハイブリッドモデルの可能性についても触れています。

*10:AIが出す結論が直接提供されるものであって、人間の判断が介在しないものを指します。

*11:具体的には、一番最初にAIを使って問題解決をしようと決定した担当者・チーム、AIシステムを開発する担当者・チーム、AIの出した結論に基づき最終的な決定を行う担当者・チーム、そしてその決定の管理監督を行う担当者・チームなどが含まれます。

*12:GDPRに基づくData Protection Officerを意味します。

海外法律事務所におけるリーガルテックの取り組み

2019年は、日本のリーガルテックにとって大きな動きがあった年といえるのではないでしょうか。
そのなかでも2019年に新たな動きとして顕在化したのは、大手法律事務所によるリーガルテック参入です。

その動きは、海外における法律事務所の動向に一部追随しつつ、一部独自の路線を進んでいるようにも見えます。
そこで、2020年における日本のリーガルテックの動向を考える上で、海外のリーガルテックの動向、特に海外法律事務所の動きをここで一旦整理しておきたいと思います。

なお、この記事のベースは、1年半ほど前に私が個人的に作成したレポート(の抜粋)です。
今回少しだけ追記・修正したものの、内容は2018年末頃のものがほとんどで結構古かったりしています。特に2019年は海外でも諸々リーガルテック関連ニュースがあり躍動の年でしたが、そういったニュースは反映できておりませんので、その点はご了承ください(ここで書かれたことを最新のものとしてそのまま鵜呑みにされないようにしてください)。*1

リーガルテック概論

リーガルテックの定義

リーガルテック*2とは、「リーガル」と「テクノロジー」を組み合わせた造語であり、「IT(情報技術)を利用した法律関連サービスやシステムの総称」と定義されていることが一般的です。
但し、それが内包する技術及びサービスは多様であり、その分類方法にも統一的見解は存在しません。

リーガルテックの潮流

海外におけるリーガルテックの動き

海外ではリーガルテック関連のスタートアップ企業は年々増加しており、the Stanford Center for Legal InformaticsによるCODEXによれば世界に1267社あるとされています(2020年1月現在)*3*4

このようなスタートアップ企業の増加に伴い、米国におけるTECHSHOW*5(ABA主催)、ILTACON*6、Legalweekshow*7、英国におけるLegal Geek Conference*8など、リーガルテックに特化したイベント・展示会も数多く開催されています。

法務サービス市場に目を向けると、多くの変化のなかでリーガルテックへの潮流が生まれていることが分かります。
特に海外では、弁護士としての働き方の柔軟性及び多様性への興味・関心が高まってきている中で、クライアントはインハウス(企業内法務)にリソースを注力してきている一方で、AI、自動化、データ分析などの技術向上が従前の業務方法に変化をもたらしつつあります。また、法律事務所間の競争は年々激化しており、クライアントサービスの向上や業務効率化などが、これまで以上に求められている状況が存在します。

英国における弁護士業務の規制緩和

特に英国では、2007年Legal Services Act*9に基づくAlternative Business Structures(ABS)制度の導入による弁護士業務の規制緩和を契機としてリーガルテックへの動きは加速化しています。

法的サービス提供に関する競争の促進等を目的として施行された本法は、the exercise of a right of audienceやthe conduct of litigationを含む規制6分野(reserved legal activities)を除き、旧来の法律事務所でなくとも、ABSを設立することで法的サービスを提供することができるようになりました*10

会計事務所による法務サービス市場への進出*11

また、英国では、会計事務所のBig Fourと言われるDeloitte、PwC、KPMG及びEYが法務サービスの提供を開始しており、2017年時点ではBig Four合計で約8,500名の弁護士を抱え、租税法、(一部の)労働法や移民法、(小規模の)M&Aの分野でマーケットシェアを拡大させています。

特に、PwCは、2014年にAlternative Business Structure (ABS)のライセンスを取得して以来、Big Fourのなかでも最多の約2,500名(当時)の弁護士を抱え、2017年にはGeneral Electric(GE)の税務チーム600名以上(会計士、弁護士、税理士など。42以上の法域をカバー。)とその税務関連技術を引き継ぐ*12など、その市場拡大を積極的に行っています。

PwCはWashington DCにおいてもILC Legalという法律事務所を開設しています。もっとも、同事務所では、米国における弁護士業規制の関係で、米国法アドバイスは提供せず、米国所在のクライアントに対して他法域のリーガルアドバイスを提供しているようです*13

同様に、EYは、2018年に英国に本拠地を置くRiverview Lawを買収しました*14。Riverview Law(買収後はEY Riverview Law)は、ヴァーチャルアシスタントを活用して、インハウス法務チーム向けに、固定価格で日常的な法的業務に係るサービスを提供してきたリーガルテック企業でした。

また、Deloitteは、2019年2月から、Allen & OveryのパートナーであったMichael Castleを新しいマネジメントパートナーとしてDeloitte Legalに招き入れることとしました*15

このような法務サービス市場への進出の結果、各Big Fourにおける法的サービス部門は(当時)2桁台の売り上げ上昇率を記録しています*16

海外法律事務所の動向

概要

テック投資に関するアンケート調査結果(英国)

リーガルテックの潮流に対して海外法律事務所は、どのように対応し、又は対応する予定でいるのでしょうか。
トップ50の英国法律事務所に対して行った2018年の調査によれば、75%の事務所が今後5年間に業務マネジメントシステムの新規構築又は大規模更新を行うと回答しています(2年以内が55%、3年以上5年以内が20%を占める。)*17 。程度の差はあれど、リーガルテックは無視できない「トピック」となっているようです。

海外法律事務所の動向としては大きく分けて2つの動きがみられます。具体的には、①所内におけるテック専門人材・チームの構築と技術開発と、②外部技術チーム・企業とのコラボレーション(投資を含む。)です。
以下では、それぞれについて具体的に見ていくことにします。

テック専門人材・チームの構築 & 技術開発①(技術者の人数及び割合)(英国・2017年)*18

法律事務所がどの程度テック専門人材を雇用しているのでしょうか。
弁護士(fee earners)あたりの技術者(technology specialists)の割合に関する調査によれば、その1位と2位を占めたのはリーガルテック系法律事務所であるBott & CoとDrydensfairfaxでしたが、3位以下にはSlaughter and MayやMishcon de Reya、Ashurstなどの既存の大規模法律事務所が名を連ねています。技術者人数においても、近年は増加傾向にあり、テック専門人材の雇用を通じて、事務所内の技術水準の向上に力を入れていることがうかがわれます。

事務所名 技術者1人あたり弁護士数
Bott & Co 2.5人
Drydensfairfax 4.4人
Slaughter and May 8.9人
Mishcon de Reya 9.3人
Ashurst 9.5人
Berwin Leighton Paisner 10.0人
Addleshaw Goddard 14.9人
DAC Beachcroft 15.6人
順位 事務所名 技術者数
1 Ashurst 172
2 Pinsent Masons 127
3 Gowling WLG 125
4 DAC Beachcroft 98
5 Eversheds Sutherlands 89
6 Slaughter and May 84
7 Berwin Leighton Paisner 78
テック専門人材・チームの構築 & 技術開発②(外部からのテック人材採用)

人材の流動性という観点からはどうでしょうか。
2018年から2019年はじめの間におこった、法律事務所でのテック専門人材のハイレベルでの採用などの動き(一部)だけでも、以下のものが挙げられます。大手事務所間でのテック専門人材の移動が発生しているなど、リーガルテック分野における人材確保を各法律事務所が重要視していること、そしてその市場が比較的大きなものになりつつあることがわかります。

事務所名 内容
Linklaters Shilpa Bhandarkarを事務所初のhead of innovationに任命(2018年7月)*19 。Bhandarkar氏は、プロジェクトファイナンスチームの元アソシエイトで、その後にモバイルアプリ会社を設立・売却するなどの経歴を持つ。また、Bruna Pellicci(元Ashurstのglobal IT director)を雇用。
Travers Smith 元Freshfieldsのinterim chief technology officer Oliver Bethellを雇用(2018年7月)*20
Ashurst 元Fieldfisherでalternative legal solutions platoformを構築したChristopher Georgiouをglobal Advvance teamのco-headとして雇用(2018年9月)*21
Eversheds Sutherland Darren Jones(Barclaysの元law tech strategy adviser兼head of legal automation)をhead of service excellenceに任命(2018年10月)*22
Mishcon de Reya University College Londonのcomputer scientistであるDr Alastair Mooreをhead of analytics and machine learningに任命*23
DWF 元Freshfieldsのsenior manager of legal technology operationsであったJamie Whaleboneをhead of legal service delivery and transformationとして雇用(2019年2月)*24
外部技術チーム・企業とのコラボレーション①(LegalTech Incubator)

法律事務所がリーガルテックのスタートアップを育ている、というシーンも増えてきています。
法律事務所が主催するリーガルテック分野のインキュベータとしては、以下のものが挙げられます*25

Nextlaw Labs*26 Dentons法律事務所が2015年5月に創設した「グローバルイノベーションプラットフォーム」*27。- Dentonsの弁護士が、選抜されたスタートアップ企業のプロダクトアイディアの考案・洗練化を支援し、Nextlaw Labsとパートナーシップ関係にあるテック企業・スタートアップ企業・法的サービスプロバイダーなどの支援のもとに実現化する。
MDR LAB*28 Mishcon de Reya法律事務所(MDR)が[2018年5月]に創設した、イギリス・ロンドンにおける10週間の「インキュベータプログラム」。MDR弁護士、起業家や外部専門家によるメンターシップ、MDRと共同でのピッチ、教育プログラムの提供、MDRからの資金調達(出資受入)機会を提供する。
Fuse*29 Allen & Overy法律事務所(A&O)が2017年9月に創設した「テックイノベーションスペース」。事務所プラクティスと関係性の強いLegal Tech, Reg Tech 及びDeal Techの3領域に絞り、複数のスタートアップを選抜、A&Oの弁護士及びそのクライアントが当該スタートアップの技術開発等を支援。
Create+65*30 Clifford Chance法律事務所(CC)が2018年12月にシンガポールに創設した「リーガルテックイノベーションラボ」。Singapore Economic Development Board (EDB)の後援、及びSingapore Academy of LawのFuture Innovation Programme (FLIP)とのコラボレーションのもとでのプロジェクト。
Collaborate*31 Slaughter and May法律事務所が2019年中旬に創設予定の、リーガルテックに特化したインキュベーションプログラム。2019年5月に最初のCohortを選抜した。

ところで、法律事務所が積極的にリーガルテックのインキュベーションに取り組むことには、どのようなメリットがあるのでしょうか。
FuseのHeadであるShruti Ajitsariaによれば、このようなインキュベーターの設立は、直接スタートアップを支援することを通じて、所属する弁護士が最新のテクノロジーをよりよく理解するのに役立つとともに、技術によって何が可能なのかの感覚を養うことができるとしています *32Fuseにはすでに8,000以上のもの弁護士による訪問があったとのことです。
また、FintechやGreentech等のインキュベータであるFast Forward(Slaughter and May)のCo-HeadであるBen Kingsleyによれば、巨大M&Aなどとともにスタートアップ分野にも興味のある若手弁護士をリクルートする上でのメリットもあると語っています。

外部技術チーム・企業とのコラボレーション②(出資)

技術やノウハウを提供するだけではなく、法律事務所がリーガルテック企業に資金も投入する例は海外では増加しています。
法律事務所が外部企業に出資する近年の例としては、以下のものが挙げられます。

年/月 出資金額 事務所名 内容
2017/11 $10Mラウンドのうちの一部 Slaughter and May LuminanceへのシリーズA出資(約5%のエクイティを取得したとの報道)。その後、2019年2月にも追加出資*33
2018/12 各$2M超 Clifford Chance, Latham & Watkins Reynen CourtへのシリーズA出資。それぞれ7.5%から25%のエクイティを取得した計算。(なお、累積資金調達額約$7Mで、うち初回資金調達額は$1.5M)*34 CCのCIO Paul Greenwood及びLathamのCIO Kenneth HeapsがReynen Courtのdirectorに就任
2018/09 ”low six-figure sums” Mishcon de Reya MDR Labの参加企業であったThirdfortへ出資。出資額は、典型的には”low six-figure sums”(数十万ポンド単位)に留まっているとのこと。

以上が全体的な動向ということになりますが、では海外の各法律事務所はどういう方策をとっているのでしょうか。
次の節以下では、もう少し個別にみていきたいと思います。

ケーススタディ> Clifford Chance

Clifford Chanceは、”Innovation & Best Delivery”戦略*35のもとで、2018年7月には、Clifford Chance Applied Solutions及びClifford Chance Createの2つのユニットを、法律事務所としてのClifford Chanceとは別に組成しました*36

Clifford Chance Applied Solutions *37では、最新技術を利用した商品開発を行っています。法律事務所としてのClifford Chanceとは別組織とすることにより、より柔軟なビジネスモデルの採用やより効果的な市場展開を実現することができるとしています。

Clifford Chance Createでは、イノベーションに関連するコラボレーションに力を入れており、Barclays Eagle Lab等のクライアントとのパートナーシップ、UCLからのデータサイエンティストの出向プログラム、リーガルテックインキュベーションプログラムCreate+65の創設、Legal GeekやSingularity University等のシンクタンクとの協力を行っています。また、シンガポールにはBest Delivery and Innovation Hubが開設されています。
Global Head of Innovation and BusinessであるBas Boris Visser(Finance & Capital Markets Parter)によれば、テクノロジーに関連する新しい役職として、Head of Legal Project Management、Transaction Managers、Resource Managers、Data Science Analysts、Coding Expertsなどを新設しており、さらに、テクノロジーベースのクライアントソリューションに重点を置く独立のチームを構築しているようです*38

ケーススタディ> Herbert Smith Freehills

Herbert Smith Freehillsは、”Beyond 2020”戦略のもとで、innovation and technologyを事務所として重点的に取り組むべき主要5分野 の一つと位置付けています。また、2018年10月には、”Global Legal Operations Function”を組織し、イノベーションやオートメーションなどを利活用して、伝統的なサービス提供の在り方を超えた新しいソリューションを提供することを目指しています*39

2019年1月には、紛争の潜在的リスク査定を支援する、”decision tree”分析支援の所内ソフトウェアを開発しており*40、商事訴訟パートナーのAlexander Oddy及び商事・金融紛争パートナーのDonny Surtaniなどを含めた7名の弁護士が当該ソフトウェアを使用したサービスを提供しています。

さらに、HSFでは、2011年から各地事務所にlegal technology unitを設置しており、2019年1月には、New Yorkにe-discovery等を行うalternative legal services centreを設置することを発表しました。データアナリストや技術者、訴訟担当のシニアパートナーなどで構成されるチームが担当し、現在新たな採用を行っているようです。HSFにおけるlegal technology unitは、(当時)全世界で350名以上のメンバーで構成され、£40M以上の売り上げを生んでいるとのことです*41

ケーススタディ> Freshfields Bruckhaus Deringer

Freshfields Bruckhaus Deringerでは、弁護士も技術的な知識を持つことに積極的であり、イノベーションにフォーカスした所内ハブの必要性を強調しており、Buy vs Buildのどちらか一方ではなくその中庸を目指すべきとしているようです。具体的には、市場差別化要素となる分野においては自ら開発し、カスタマイズの必要性が低い分野に関しては標準的な市販ソフトウェアを購入するべきとしています*42

例えば、プロセス重視型の業務に関して、費用対効果の高いリーガルサービスを提供するため、Freshfields Hub(創設時の名称はLegal Services Centre(LSC))をマンチェスターに設置しています。2019年5月にはFreshfields Labというテックと法務を融合したサービスを提供するグループをベルリンに組成しています*43

外部団体とのコラボレーションとしては、University of Manchesterのthe School of Computer Scienceといくつもの共同プロジェクトを実施しており、例えば、セマンティックWebテクノロジーを活用した所内データ・ノウハウの効率的な検索に関するプロジェクトや、テクノロジーがリーガルサービスの提供にどのような影響を与えるかの分析に関するプロジェクト(the School of Law及びManchester Business Schoolとも協同)などがあります*44

ケーススタディ> Slaughter and May

Slaughter and Mayは、前述のとおり、Collaborateというリーガルテックに特化したプログラムを開始したり、Luminanceへの出資を行うとするなど、リーガルテック分野との積極的な関係性構築を図っています。

また、2018年12月に、所属弁護士に対して8週間のプログラミングトレーニング(プログラミング言語Python)を試験的に実施する旨発表しました*45。所属弁護士のcreativityとproductivityを向上させることを目的とすると報じられています。プログラミングトレーニングを含むテックトレーニングを実施している法律事務所としては、すでにLinklaters*46、Clifford Chance*47、そしてAddleshaw Goddard*48があります。

おわりに

以上、ざっと(2019年初頭までの)海外法律事務所のリーガルテック動向を中心に見てきました。
ここで挙げたもの以外にも、もっともっと面白い動きをしている法律事務所は存在します。
法律事務所がやれることというのは、想像以上に広いのだと思っていただけたら幸いです。

*1:なお、ここで言及している事柄は所属事務所の見解とは全く無関係ですし、何かを示唆するものでも全くありません。というか、何もない時代に作った古臭いレポートでして、そうではあるものの、皆様にお目通し頂くことで「供養」できるのではないかと思い、公開させて頂きました。

*2:「ローテック」と表現されることもあります。

*3:https://techindex.law.stanford.edu/

*4:このサイトでは米国のみならず英国・欧州のスタートアップも列挙されているものの、アジア圏のリーガルテックスタートアップは必ずしも網羅できていないようですので、実際にはスタートアップ数は多いはずです。

*5: https://www.techshow.com/

*6:https://www.iltacon.org/

*7:https://www.legalweekshow.com/legaltech/east/

*8:https://www.legalgeek.co/conference/

*9:https://www.legislation.gov.uk/ukpga/2007/29/contents

*10:規制6分野についても、有資格者が所属していること等の条件を満たし、かつ適格団体の承認を得るなど一定の要件を満たすことによって、旧来の法律事務所以外によるサービス提供が認められているようです。

*11:https://www.consultancy.uk/news/14142/big-four-eye-potential-30-billion-boost-via-legal-market-expansion, https://www.law.com/legal-week/2017/09/14/do-the-big-four-accounting-firms-pose-a-big-threat-to-big-law/

*12:http://www.internationaltaxreview.com/Article/3775137/Global-Tax-50-2017-The-GEPwC-outsourcing-deal.html

*13:https://www.ilclegal.com/

*14:https://www.ey.com/en_gl/news/2018/09/ey-announces-completion-riverview-law-acquisition

*15:https://www.legaltechnology.com/latest-news/deloitte-legal-appoints-magic-circle-veteran-as-managing-partner-to-head-tech-focused-legal-offering/

*16:https://www.law.com/legal-week/sites/legalweek/2016/09/13/pwc-legal-posts-24-revenue-increase-to-59-9m/

*17: https://www.thelawyer.com/legal-tech-top-50-law-firms-hsbc/

*18:https://www.thelawyer.com/legal-tech-professionals-uk200/

*19:https://www.linklaters.com/en/about-us/news-and-deals/news/2018/july/linklaters-hires-new-head-of-innovation

*20:https://www.traverssmith.com/news-publications/press-releases/travers-smith-hires-new-chief-technology-officer/

*21:https://www.ashurst.com/en/news-and-insights/news-deals-and-awards/ashurst-strengthens-alternative-legal-services-capability-with-the-appointment-of-chris-georgiou/

*22:https://www.eversheds-sutherland.com/global/en/what/publications/shownews.page?News=en/uk/Bringing-enhanced-technology-to-client-service-excellence

*23:https://www.thelawyer.com/mishcon-raids-ucl-for-latest-push-into-tech-delivery/

*24:https://legaltechnology.com/latest-news/dwf-hires-freshfields-jamie-whalebone-as-ipo-becomes-official/

*25:法律事務所以外が主催するものとしては、国際金融グループBarclaysが2016年3月に創設した「インキュベーションラボ」であるEagle Lab、Thomson Reutersが2017年7月に創設した、スイス・チューリッヒにおける6 – 12か月間のプログラムであるThomson Reuters Labs – The Incubator、LexisNexisが2016年12月に創設した、Lex Machinaオフィスの所在するアメリカ・カリフォルニアにおける3か月間のプログラムであるLegal Tech Acceleratorなどがあります。

*26:http://www.nextlawlabs.com/#about-nextlaw-labs

*27:https://www.dentons.com/en/whats-different-about-dentons/connecting-you-to-talented-lawyers-around-the-globe/news/2015/may/dentons-launches-nextlaw-labs-creates-legal-business-accelerator

*28:https://lab.mdr.london/

*29:http://www.allenovery.com/advanceddelivery/fuse/Pages/default.aspx

*30:https://www.cliffordchance.com/hubs/innovation-and-best-delivery-hub/createplus65.html

*31:https://www.slaughterandmay.com/media/2537335/legal_tech_incubator_sm_collaborate.pdf

*32:https://www.law.com/legal-week/2018/12/12/law-firms-and-startups-how-closer-ties-are-benefiting-all-sides/

*33:https://www.law.com/legal-week/2019/02/07/slaughter-and-may-adds-clout-to-10m-luminance-fundraise/

*34:https://www.cliffordchance.com/news/news/2018/12/clifford-chance-invests-in-reynen-court.html

*35:https://www.cliffordchance.com/hubs/innovation-and-best-delivery-hub/innovation-and-best-delivery.html

*36:https://www.cliffordchance.com/news/news/2018/07/clifford-chance-launches-two-new-innovation-units--the-next-stag.html

*37:https://www.cliffordchance.com/hubs/innovation-and-best-delivery-hub/applied-solutions.html

*38:https://www.thelawyer.com/legal-tech-professionals-uk200/

*39:https://www.herbertsmithfreehills.com/news/herbert-smith-freehills-launches-global-legal-operations-function

*40:https://www.thelawyer.com/hsf-develops-in-house-tech-tool-to-calculate-risks-in-disputes/

*41:https://www.thelawyer.com/hsf-expands-global-alternative-legal-services-centre-in-new-york/

*42:https://www.thelawyer.com/buy-vs-build-law-firm-tech-debate/

*43:https://legaltechnology.com/latest-news/freshfields-lab-the-team-behind-the-initiative-share-their-plans-for-a-dedicated-client-experience-space/

*44:https://ssl.freshfields.com/ukgraduates/innovative-and-creative.html

*45:https://www.legalcheek.com/2018/10/slaughter-and-may-lawyers-to-be-offered-coding-classes-as-part-of-new-training-pilot/

*46:https://www.thelawyer.com/linklaters-ideas-pathway/

*47:https://www.legaltechnology.com/latest-news/clifford-chance-to-teach-coding-as-part-of-client-focussed-tech-academy/

*48:https://www.lawcareers.net/Information/News/Addleshaw-Goddard-creates-new-role-of-legal-technology-associate-03042018