2024 Volume 8 Issue 1 Pages 47-57
特定の目的に限定されず、あたかも人間と同様にあらゆることがらについて対応する能力を持った汎用人工知能(AGI)が実現すると、社会のさまざまな規制のあり方が大きく問われることになると予想される。とりわけ、アクチュエータが存在せず、AGIが人間の行動に対して直接働きかけるような場合は、AGIそれ自体を規律することによって、既存の規制が実現しようとしていた法目的(公益)を確保しなければならない。リーガルサービス(法務)は、そうした事例の一つである。弁護士法は、資格を持たない者が紛争に介入し、社会の法律秩序を乱すことの防止を目的としている。将来、AGIに対して法律問題を問いかけて回答を得るというシステムが実現したとき、この規制目的を担保するためにはどのようにすればよいかという点が大きな問題となる。
AGIも人工知能である以上、原理としては、データを検索して相関の高いものを呼び出すというシステムである。すると、AGIが法律問題に「回答」を示したとしても、それはきわめて高度な法律情報検索システムにすぎないのではないかと思われる。そして、弁護士法の規制において、検索システムは、あくまでもユーザー本人のためのツールにすぎないと考えられており、非弁活動として禁止されてはいない。このことは、一般化すると、AGIが一般的に普及する時代には、弁護士法のようにサービス提供主体を有資格者に限定する規制では対応が難しいことを示唆している。
そこで、AGIの開発におけるガバナンスが重要になると考えられる。現在でも、Open AIなどAGIの開発を目指す事業者は公益への考慮を取り込んだガバナンス構造を工夫しているが、リーガルサービスのような特定分野の規制にかかわる用途にAGIが利用されるときには、公益を担保するため、法律の専門家が関与する必要があろう(ガバナンスにおけるlawyer-in-the-loopの仕組みともいえる)。このように、行為規制からガバナンスによる公益性の担保へという規制の変革が、AGIの発展とともに求められると予想される。
人工知能の研究開発に世界の企業がしのぎを削る中で、汎用人工知能(AGI)の実現も近いと予想されている。AGIという用語は、文字どおりには特定の目的に限定されず、広くさまざまな用途に利用することができる人工知能を意味するが、(その結果として)自ら「考え」「表現する」など人間と同等以上の知能を持ち、あらかじめ学習していないタスクにも対応する能力を有する高度な人工知能の意味で用いられることもある2。
AGIがさまざまな用途に用いられると、それぞれの分野に適用される規制との関係が問題となりうる。たとえば自動運転車にAGIが組み込まれれば、自動運転に関する規制をAGIに適用しなければならない場面が出現する。もっとも、AGIが、自動運転車のように物理的な動作を行う装置(アクチュエータ)を動かす目的で用いられる場合には、アクチュエータに対して規制を適用すればよいので、問題が大きく顕在化することはない。AGIを利用した自動運転車の例では、そのような自動運転車が自動車の保安基準に適合するか否かを問題とすれば足りるであろう。ところが、そうしたアクチュエータが存在せず、人間の行動に対してAGIが直接働きかける場合には、状況が大きく異なる。AGIと人間社会の関係を規律するものは、AGIそのものに適用されるルールのほかに存在しないからである。
本稿で取り上げるリーガルサービス(法務)は、そうした問題が典型的に表れる場面の一つである。法律学は伝統的に、言語の論理によって組み立てられてきた。少なくとも近代法を西洋から受容した社会では、法律専門職がリーガルサービスの提供者とされてきたが、その専門性は、法律知識と法的論理という言語的な能力に支えられたものであり、物理的な技能を伴うものではない。そのため、人工知能が言語的な能力を発達させると、それだけで法律専門職に代わるシステムを実現する可能性が生まれることになる。すると、近い将来には、汎用的な人工知能であるAGIが法律問題についても判断する能力を持ち、かつ、生成AIによってそれに言語表現を与えてリーガルサービスを提供するということが現実になる可能性は十分にある。
法律専門業務に関して各国は、業務の提供主体を有資格者に限定するという形で規制を及ぼしている。法曹資格を持たない者が法律業務を行うことは、非資格者の法律実務(unauthorized practice of law: UPL)とされ(日本では「非弁行為」)、基本的に禁止される。日本であれば、詳細は後述するが、弁護士法72条により非弁行為の要件が規定されている。テクノロジーの発展とこの規制の関係は、すでに問題となりつつあり、令和5年には、AIを利用した契約書等関連業務支援サービスと同条の関係が問題とされた結果、法務省から一定の見解が公表された3。なお、海外では、英国やオーストラリア、米国の一部の州など、テクノロジーの発展に対応して、法曹有資格者以外の主体が法律事務所を所有したり、経営に参加したりするABS (Alternative Business Structure) を許容するようになった例もある4。
こうした問題意識の下で、本稿は、「AGIの普及と個別分野の規制」という問題を考える材料としてリーガルサービスにおけるAGIの利用を考える。リーガルサービスにAGIが用いられる場合に、どのような規律が求められるか、既存の制度枠組はそのために有効であるか、という点を検討することで、より一般的に、AGIの普及に対して社会はどのように備えるべきかを知ることができるであろう。具体的には、まず、リーガルサービスに対して人工知能技術がどのような影響をもたらすかについて考えた上で(Ⅱ)、現在の法制度はそれに対してどのような規制を課しているのかを明らかにする(Ⅲ)。次いで、AGIが適切に利用されるために求められる規律として、開発に公益を反映するガバナンスの必要性を提唱する(Ⅳ)。リーガルサービスを素材とした以上の検討は、AGIの開発が実現し、広く社会で利用されるようになる時代に必要な制度として一般化できることを指摘して、本稿の結論とする(Ⅴ)。
AGIもAIの一種である以上、基本的には、複数の情報の間に相関を発見し、最も相関が大きい結果を提示するものである。AGIが将来、リーガルサービスを提供するようになると言っても、それは、法律情報の膨大なデータを検索し、相関の高いものを呼び出すというシステムでしかない。しかし、このように言うことは、AGIが検索システムにすぎず、人間には永遠に近づくことができないという意味ではない。人間はAIとは異なり自己の意思にもとづいて判断すると一般的に思われているが、実は、人間の判断も過去の経験や学習によって得られた情報を呼び出し(頭の中で「検索」し)、その中で最も適切である(相関が大きい)と考えるものを選択して行動に移しているようにも思われるからである。仮にそうだとすれば、AGIが学習によりウェイトづけの精度を高めていくなどの方法で検索を高度化した結果、人間(である法律家)の判断をほぼ忠実に再現することもあり得ると考えられる。
ところで、法律文献や判例の検索システムは各国で提供されて久しいが、それらが非弁行為に当たるとは解されていない。また、近年ではGoogleなどの一般的な検索エンジンでウェブ上を検索するだけでも相当な量の情報が入手できるが、そうした検索エンジンの提供者に対して、違法な弁護士業務(非弁行為)に当たると指摘する見解は、どこの国にも見られない。これは、「法律情報の提供」は「法的な判断」と区別されるという考え方を前提として、「検索」はあくまでも法律情報の参照行為であり、法律的な判断を示すものではないと解されているためである5。法律情報の提供と法的な判断を区別する理由は、従来あまり明確に論じられていないが、法律情報は当事者が自己のために行う判断を支援するシステムにすぎず、当事者とは別の主体が法的サービスを提供する行為ではないと考えられるからではないかと思われる。
問題を整理するため、〔設例1〕法律的な問題(事件性のある法律上の争訟)に直面したAが、友人に教えられて、企業実務家Bが執筆した法律実務書を読み、解決策を知った、という事例を考えよう。そのような法律実務書を出版することは、弁護士資格のない者による弁護士業務の提供を禁じた弁護士法72条に違反するとは考えられておらず、実際にも、弁護士ではない企業実務家や法律学者が執筆した実務書は多い。法的な判断を行った主体はAであり、法律実務書の執筆者は具体的な事案に関して判断を示したわけではないと考えられているのである。
このような考え方は、〔設例2〕法律的な問題(事件性のある法律上の争訟)に直面したAが、検索システムを利用して法律実務の解説にたどり着き、それを読んで解決策を知った、という事例においても同様であろう。そのような検索システムの提供企業Cが弁護士法72条に違反する行為を行ったことになるとは考えられていない。その理由は、やはり、検索システムの支援を得たとしても、Aが自ら法的な判断を行ったと解されるからであろう。
ところが、上記のとおり人工知能技術の発展は、検索の精度を高め、高度化すると「判断」に等しくなること、言い換えれば人間の判断は検索の延長線上にあること、を示唆するのである。すると、従来の考え方に何らかの変更を加えない限り、AGIによるリーガルサービスの提供は、およそ規制できないことになるのではないかと思われる。
ここで改めて、法律にかかわる知識や判断の提供に関する現行の制度を検討しよう。日本では弁護士法等にもとづいて、法律専門職による独占が制度的に保障されている(ここにいう「法律専門職」は弁護士に限らず、制度上認められる限りで、司法書士や行政書士なども含まれる)。すなわち、関連業務を提供する主体を限定し、その主体の専門性を資格制度によって担保する制度がとられている。
より具体的に見ると、日本の現行法では、他の法律(例えば司法書士法)で許容されている場合を除き、「訴訟事件、非訟事件及び審査請求、再調査の請求、再審査請求等行政庁に対する不服申立事件その他一般の法律事件」に関して、「鑑定、代理、仲裁若しくは和解その他の法律事務」を取り扱い、またはこれらの周旋をすることを「業とすること」は、弁護士または弁護士法人にしか認められない。「業」要件を除くと、①法律事件と②法律事務の取扱いが主要な要件である。
このような規制の目的について最高裁は、「〔弁護士の〕資格もなく、なんらの規律にも服しない者が、みずからの利益のため、みだりに他人の法律事務に介入するような例……を放置するときは、当事者その他の関係人らの利益をそこね、法律生活の公正かつ円滑ないとなみを妨げ、ひいては法律秩序を害することになる〔ためである〕」と述べた6。すなわち、弁護士という職能集団の職域を保護したわけではなく、社会の法律秩序を維持するために必要な規制であると解している。
これまで、弁護士による業務独占の範囲をめぐって弁護士法72条の解釈が問題となった際には、とりわけ①「法律事件」の要件が争われてきた。この要件をめぐっては、具体的な争訟に至っていること(いわゆる事件性)を必要とするか否かについて、見解が対立していると言われる7。そして、法務省は事件性を必要とする見解に立ち、たとえば、グループ会社の法務を持株会社等グループ内の1社に委託できるか否かが問題とされた際には、通常の業務に伴う契約の締結に向けての通常の話し合いや法的問題点の検討は事件性がなく、持株会社等が法律業務を受託しても違法ではないという見解が示された8。
しかし、AI(AGI)を用いたリーガルテックが検索ツールの延長線上にあるとすれば、その場合には論点がやや異なるのではないかとも思われる。前記の〔設例1〕に戻ると、書籍の執筆は、②「法律事務」の要件に当たらない(「法律的情報の提供」にすぎない)が、その本質は、書籍によって提供される情報が具体的な「法律事件」に関する行為ではなく、その点で弁護士法72条に該当しないと考えられているのではないか。そうだとすれば、②「法律事務」の要件の中には、従来の解釈では着目されてこなかった「法律事件と法律事務の関連性」という要素が存在するということになる9。文言上、弁護士法72条は禁止行為を、訴訟事件…その他一般の法律事件「に関して」鑑定…その他の法律事務を取り扱うことと記述しており、この「関連性」が「法律事務」要件の重要な要素になると解されるのである。法務省の担当官はこれを、「法律事件」性が認められる事案と「法律事務」に該当する行為の間の結びつきが前提となっていると説明している10。
具体的には、前記の〔設例2〕において、検索により発見された法律実務の解説が、Aの直面する事案に適切な(最適な)ものであることを検索システムは保証しないということである。その点はAがみずから判断するのであり、必要があれば、Aは検索語等をさまざまに工夫しながら複数の検索結果を得て比較することになる。その意味で、検索システムによる結果の表示は、法律事件との間に関連性を欠くのである。
このように考えると、AGIが実用的な水準に達し、とくに法律問題の解決に有用なものとなった暁には、法律情報の提供と法的判断を意味のある形で区別することは困難になりそうである。AGIは法律情報の検索をきわめて高度な水準で実現してしまうため、ユーザーはほぼそれだけで法律判断が得られてしまうが、AGI自体は具体的な法律事件に関連して判断を行っているわけではなく、(人工知能の本質上)あくまでも入力された情報(検索キー)との相関が大きい情報を表示しているにすぎないからである。そうなると、当事者自身の判断を支援する法律情報の検索ツールと、当事者に代わって法的な判断を行うシステムとを区別して、後者の提供主体を法曹資格者に限定するという現在の弁護士法の規制は、実質的な意味を失うことになろう。
しかし、そのときにも、社会における法律秩序を維持するという弁護士法の立法目的を放棄してよいわけではない。むしろ、行為主体の限定が有効な規制とはならないのであれば、AGIが生み出す法律情報の内容や提供の態様について、社会の法律秩序を害するものとならないように、一定の質を担保するための制度的な保障が求められるのではないか11。この問題は、AGIの開発一般について、人類にとって有害なAGIを生み出すことがないように求められている問題と対応する(それを法律分野に特化して表現した課題である)と言える。
AGIを利用したリーガルサービスの提供に関して弁護士法の行為規制(サービス提供主体の限定)が有効な規制として機能しないとすれば、AGIの開発体制の中に弁護士法が実現しようとした目的を反映させることが考えられる。すなわち、AGIシステム開発のガバナンスを問題としなければならない。
Open AIやAnthropicなどAGIの開発にしのぎを削る各社は、AGIが人間社会に対して決定的な影響を及ぼす可能性について、十分に自覚的である。そのため、それらの会社は、利益のみを追求して人間社会に対する大きな悪影響を容認してしまうことがないようにガバナンス構造を工夫している。
最もよく知られた事例は、Chat GPTを開発するOpen AI社である12。2024年に組織が再編されるまで、同社は、非営利組織によって支配される営利企業という構造をとっていた。開発主体であるOpen AI Global, LLCはデラウェア州法上のLLC (Limited Liability Company)であるが、その多数株主は持株会社である(出資を行ったMicrosoftが少数株主)。この持株会社は、デラウェア州法上の非株式法人として設立されたOpen AI Nonprofitと従業員その他の利害関係者によって支配され、前者のOpen AI Nonprofitは「全人類(humanity)」に対して信認義務を負う取締役会によって支配されていた。そうした複雑なグループ構造は、Open AIによるAGIの開発が人類に対する脅威とならないことを担保するために設計されたものであった。すなわち、仮に会社の業績を向上させ、株主利益を最大化する観点からは、AGIが人類に脅威を与えるか否かを顧慮することなく、そのためのコストをかけない方が効率的であるとしても、それに対して公益的な観点から牽制が働く仕組みとされていたのである。
ところが、2023年に取締役会が現実にこの権限を発動し、開発を推進していたCEOのSam Altman氏を解任したところ、従業員の反発等があってAltman氏が短期間で復帰し、逆に、解任に賛成した取締役が退任するという結末になった。取締役会によるAltman氏の解任が会社の経営上、適切であったか否かなどさまざまな論点はあるが、ガラス細工のように工夫されたガバナンス構造にもかかわらず、「全人類」に対する責任を負った取締役会が開発を進める事業会社をコントロールできないことが明らかになってしまった。
そこで、2024年10月に、Open AI社は、デラウェア州法上の公益会社(public benefit corporation: PBC)へと改組されることになった。デラウェア州のPBCは、経営者が株主利益を最大化する義務を負わず、所定の公益を追求する責任を負うという会社である13。言い換えれば、株主利益(企業収益)と公益のバランスは、外部的な取締役による支配権を通じて確保されるのではなく、経営者自身の裁量によって担保されることになる。理論的には、経営者によるバランスの確保が不適切であるとして責任を追及される可能性があるものの、事実上、どのような判断をするとしても、経営者の裁量の範囲内として許容されるであろう14。
デラウェア州法上のPBCという企業形態は、AGIの開発においてOpen AIの競争相手となるAnthropic社が当初から採用していたものである15。そして、同社はClass T common stockという種類株式を発行している。この種類株式は、経済的な利害を持たない独立のメンバーによって構成されたLong Term Benefit Trust (LTBT)という信託が全株式を保有しており、一定数(会社の発展に応じて1人~3人)の取締役を選任する権限を有する。このように、Anthropic社は種類株式によって設計された議決権構造を通じて公益の観点から利益追求に歯止めをかけようとするのである。
実効性については議論があり得るものの、AGIの開発を進める各社はガバナンス構造を通じて、AGIの開発を公益的な観点から牽制しようとしていることが窺われる。しかし同時に、これらの企業は、少なくとも持株会社と区別された開発主体のレベルでは、出資者に利益を還元(配当)する営利企業の形態をとっている。その理由は、AI(AGI)の開発に必要となる莫大な資金を調達するために、出資者への還元を制度的に保障しないわけにはいかないためであろう。
出資者への還元が可能な営利企業の形態をとらなければ開発資金が確保できず、AGIの開発自体が進まないとすれば、AGIの開発が基本的に人類社会の発展に貢献すると考える限り、それは望ましい状態ではない。他方で、その開発が無軌道に進められ、人類の利益を脅かすような事態に陥ることは避けなければならず、そのために公益性を担保したガバナンス構造が必要となる。つまり、開発資金の出資者に還元するための利益追求と、人類社会に対する脅威の排除という公益は、AGIの開発企業において、対立する要因としてではなく、むしろ相互に補い合う要素と考えられているのである。
2.AGIを組み込んだリーガルテックと社会的公益AGIの開発一般に関する以上の議論を、リーガルテックに適用してみよう。リーガルテックは、人々が法律問題について情報を得て自ら対処するためのハードルを下げるという意味で、社会に法の支配を浸透させることに寄与すると期待される。
AIを実用化する以前の原初的なシステムではあったが、米国でUPLに関する訴訟をたびたび惹き起こしてきたLegalZoom社のサービスも、社会的に大きな意味を持っていたと評価されている。同社が創業した1999年当初のサービスは、会社の設立や遺言など簡易な法律文書のひな形を用意し、当事者名等の情報をネット上で質問して、その回答をひな型に挿入することにより法律文書として完成させるというものであった16。このような法務サービスは、法律専門家として高い技能を必要とするものではないが、弁護士が提供しようとすればそれなりの対価を要求することになり、米国でも、低所得者層に対しては、弁護士がサービスとして十分に提供していなかったと言われる17。その意味で、これらの領域は法の支配から取り残されていたと言え、LegalZoom社のシステムは、そこにリーガルサービスをいきわたらせる意味を持っていたのである。
このように、一般論として、リーガルテックの開発(あるいはAGIのリーガルテックへの応用)が進められることは、社会にとって望ましいと考えられる。そうしたリーガルテックの開発は、弁護士法人という非営利組織がみずから行うことも考えられないわけではないが、開発費用の調達を考えれば、営利企業が開発主体となる方が現実的であろう。他方で、リーガルテックが不適切な法律情報を導き出し、社会における法律秩序を阻害することは排除されなければならない。このように、開発の推進と公益の担保を両立させるためには、現在のAGI開発企業と同じように、ガバナンス構造を工夫する必要があると思われる。
ガバナンス構造によって実現しようとする公益が法の支配の貫徹であるとすれば、そこには、法律の専門家、すなわち資格を有する法曹が関与する必要があるのではないか。AIガバナンスの分野では、AIシステムの開発や利用を「人間中心」のものとするために、何らかの形で人間の関与を要求するhuman-in-the-loopの原則が提唱されている。そのことにならうならば、リーガルテックの開発については、lawyer-in-the-loopとして法律専門家が関与することが求められるのではないか18。
リーガルテック開発企業のガバナンスに関与する法律専門家は、どのような役割を果たすのであろうか。一つには、学習するデータの品質が大きな問題である。一般的に、誤ったデータを学習したAGIは、誤った判断を提示する危険性が大きい。そこで、たとえば裁判例や法学の文献、実務解説などの法律テキストをAGIに学習させる際に、教師データを作成するのであれば、テキストのクレンジングやアノテーションなどが必要になる。その方法について、法律専門家が関与して、法的に誤ったデータとならないように担保することが必要であろう19。教師データのない学習を行う場合であっても、学習するデータの選択など、学習結果の質にかかわるデータのバイアスに関しては専門家の関与が必要であると思われる。たとえば、日本の裁判所では平成初年に判決の書き方が大きく変化しているが(いわゆる新様式判決の導入)、そうした時系列上の変化を無視したまま単純に過去のテキストをすべて学習させてしまうと、現在の法律論の水準に合致しないシステムが作られてしまう可能性があるのではないか(一般的なAIについて、過去に行われていた差別などが「学習」され、差別的な結論が導き出されてしまうと指摘されていることと同質の問題である)。
さらに進んで、法律テキスト自体もAGIによる学習に適した形に変えていくことが考えられ、その場合にも法律専門家の関与が求められる。自然言語で書かれた従来の法律テキストは、論理が曖昧であったり、用語の定義が不明瞭な場合もあるため、AGIによる学習を効率的にするためには、テキストを加工して構造化されたデータにする必要がある20。そうした加工は、法的な論理に従って行われなければならず、法律の専門家が関与することが望ましいであろう。
法律専門家の関与が必要とされるいま一つの点は、システムの使われ方である。前述のように、AI(AGI)を利用したシステムは、専門家に代わって法的な判断を提供するものではなく、ユーザーがみずから判断を行うための検索ツールが発展したものと見ることができる。ユーザーは、そうした特性を理解して適切にシステムを利用しなければならない21。開発者は、仮に不適切な利用の仕方が想定される場合にはあらかじめそれを排除するようにシステムを設計する責任を負うというべきであろう。ここにも、開発者のガバナンスに関与する法律専門家に期待される役割があると考えられる。
3.開発者のガバナンスに対する規律の形式以上に見たとおり、AGIに対する規律としては、開発者のガバナンスを通じてAGIやそれを組み入れたシステムと社会的な公益との両立性を担保することが求められる。そのような規律は、現在の弁護士法の枠組みを維持したまま部分的に修正することでは実現できないと考えられる。その理由は、第一に、AGIを用いたシステムに対する規律としては、法律判断にかかわる一定の行為(現行の弁護士法でいえば「法律事務」)が現に行われる段階を規制することではなく、具体的な法律事件との関連性を持たないシステムの開発段階において、公益を反映することが求められるからである。また第二に、AGIの開発においては、開発資金を調達する必要性から、営利の追求をおよそ排除するのではなく、営利企業の形式をとって必要な開発資金の調達を可能にしつつ公益代表者をガバナンスの中に組み入れるという形式が採用されており、行為主体を非営利主体に限定するという伝統的な法律業務の規制が適合的ではないためである。
他方で、特定のガバナンス構造を法規制によってAI(AGI)開発者に義務づけるという規制も、世界的に見て現在まで採用されたことはない。日本でいえば、AIガバナンスについては「AI事業者ガイドライン」の形で基本的な考え方が示されているだけであり22、特定のガバナンス構造を義務づける規制を求める声は聞かれない。それはおそらく、AI(AGI)開発のガバナンスについては、それぞれの企業が置かれた状況の中で最適な構造が異なりうるのであって、絶対的にとられるべき構造(いわゆるone-size-fits-all)は存在しないためであろう。
このように考えられるとすれば、AGIを用いたリーガルテックについては、開発者の間で、望ましいガバナンスについて議論する場(フォーラム)を形成し、そこで得られた共通の知見をいわゆるソフトローとして社会に呈示していくという規律の手法がふさわしいと考えられる。そのようなソフトローとしての自主規律に自発的にコミットする開発主体は、エンドユーザーとしての一般企業や消費者、あるいは職能集団としての法曹から、「法の支配の貫徹」という社会的な利益に対して高い意識を持つ優れた事業者と認識されることになるであろう。このような自主規律の枠組を構築することが、AGIによるリーガルテックの時代を迎えるにあたって、決定的に重要なことであると考えられる。
人工知能(AI)が、今後、司法やリーガルサービスに対して急速に影響を与えていくことは疑う余地がない。そうした影響は司法作用ないしリーガルサービスのほぼすべての分野にわたって想定され23、AIが訴訟事件を判断するという「AI裁判官」の可能性なども早くから議論されてきた。技術面では、過去の判例データを学習させたAIによって判決の結論を予測するシステムの開発事例が報告されている24。とはいえ、現実にAI裁判官を導入するためには、判決予測システムの正解率を高めるという技術的な課題の面でも、また人々がそれを受け入れるかという社会的な受容性の面でも、まだかなりの時間を要すると思われる25。
当面は、リーガルサービスを効率化するためにAIを活用することが進行していくであろう。米国では、ロースクールの学生にGPT-4を使用させて業務効率がどの程度向上するかを実験した結果が報告されている。この実験では、訴状、契約書、従業員向けハンドブック、クライアントメモの4種類の文書を作成する業務を対象として設定し、GPT-4の使用による質の向上と所要時間の短縮を測定した。結果は、GPT-4を用いても作業(法的分析)の質には大きく影響しなかった反面で、所要時間は大きく短縮され、しかもスキルの低い作業者ほど時間短縮の効果が大きかったという26。そうした弁護士業務の効率化におけるAIの活用には、日本をはじめ各国で、弁護士業界からの期待が高いと思われる。
一般にあまり意識されていない点は、「AI裁判官」を含む本格的なリーガルテックが、実は、そうした業務効率化の先にあるということである。将来のいつかの時点でAGIが実現し、リーガルテックに応用されるとしても、それは(AIの本質上)情報検索システムを高度化したものにすぎず、その意味で、情報処理事務の効率化を窮極まで進めた結果でしかないからである。すると、既存の検索システムがユーザー自身による判断を支援するために法律情報を提供するツールとみなされている以上、リーガルテックシステムも、ユーザーがみずからのために使用する業務効率化ツールであると位置づけられよう(ここにいうユーザーには弁護士も含まれる)。AGIが開発され、リーガルテックに組み込まれていくと、法律情報の提供がきわめて高度化し、結果的には、法的な判断と同等の帰結が実現するようになる。そうだとしても、それはあくまでも、法的な判断と「同等な」法律情報の検索にすぎないので、弁護士法による法律関連業務の提供主体の限定という規制は有効性を持ちえないと予想される。
そこで本稿は、弁護士法による非弁行為の規制が目的とするところを実質的に確保するために、AGI(ないしそれを利用したリーガルテックシステム)の開発者が適切なガバナンス体制を構築することを提唱した。それは、すでに世界でAGIの開発を先導する事業者が模索している途をリーガルテックの規律に応用することである。具体的な実施方法としては、法律による直接的な規制ではなく、事業者間で望ましいプラクティスを検討し、自主規範として提示していくというソフトローのアプローチが適合的であると考える。
こうした「ガバナンスによる規律」は、AGIが発展し、さまざまな個別分野の規制との関係で問題を生じた際に有意義であると考えられる。汎用的なAIであるAGIに対して、個別分野の規制を直接に適用することは困難であるが、反面で、そうした規制の目的が損なわれないようにすることには、社会全体としての利益が認められるからである。リーガルテックの規律についての考察は、そうしたAGIがもたらしうる規制上の問題点について考える契機として、有用であろう。
※ 本稿は、科学研究費による研究「人工知能によるオンライン紛争解決(ODR)システムの構築」(課題番号22H00543)の研究成果に属する。
1 学習院大学法学部教授
2 この二つの概念の相違については、ベン・ゲーツェル「汎用人工知能概観」人工知能29巻3号〔2014年〕228頁。
3 法務省大臣官房司法法制部「AI等を用いた契約書等関連業務支援サービスの提供と弁護士法第72条との関係について」(令和5年8月1日)。この解説として、加藤経将=中野浩一「『AI等を用いた契約書等関連業務支援サービスの提供と弁護士法第72条との関係について』の公表」NBL1248号〔2023年〕60頁。これを契機とした筆者の検討は、小塚荘一郎「AIを用いたリーガルテックと契約法務」学習院大学法学会雑誌59巻1号〔2023年〕227頁。
4 山田八千子「イギリスの司法制度改革におけるABSの導入」中央ロー・ジャーナル15巻3号〔2018年〕177頁。
5 Michael Legg and Felicity Bell, Artificial Intelligence and the Legal Profession (Hart, 2020) 69.
6 最判昭和46・7・14刑集25巻5号690頁。
7 両説については、小塚・前掲論文〔注3〕・234頁参照。
8 法務省「グループ企業間の法律事務の取扱いと弁護士法第72条の関係について」(平成15年12月8日)。
9 この点の指摘は、角田望弁護士に負う。
10 加藤=中野・前掲論文〔注3〕・65頁脚注13。
11 石田京子「リーガルサービスの規制と技術革新」慶應法学52号〔2024年〕39頁。
12 以下の記述は、Paul Oudin and Theodora Groza, ‘The Governance of AI Companies: Reconciling Purpose with Profits’ (2024), available at SSRN: https://ssrn.com/abstract=4972751, at 6-13による。
13 澤口実=中尾匡利「上場ベネフィット・コーポレーションの増加と日本法への示唆」商事法務2310号〔2022年〕4頁。
14 木ノ内敏久「オープンAI、最後の『ブレーキ役』はだれか 営利企業に転換へ」日経電子版2024年11月16日公開。
15 以下の記述も、Oudin and Groza (n 12), 13-16による。
16 Caroline Shipman, ‘Unauthorized Practice of Law Claims Against LegalZoom – Who Do These Lawsuits Protect, and is the Rule Outdated?’, (2019) The Georgetown Journal of Legal Ethics 939; 石田・前掲論文〔注11〕・42頁参照。
17 Matthew T. Ciulla, ‘Mapping LegalZoom’s Disruptive Innovation’, (2018) 11(1) Journal of Business Entrepreneurship and Law 53, 55; 石田・前掲論文〔注11〕・48頁。
18 小塚・前掲論文〔注3〕・244頁
19 法律テキストのアノテーションについては、佐藤健=新田克己編著『人工知能と法律』〔近代科学社、2022年〕83~84頁参照。
20 Christy Ng, ‘AI in the Legal Profession’, in: Larry A. DiMatteo, Cristina Poncibò and Michel Cannarsa (eds), The Cambridge Handbook of Artificial Intelligence (Cambridge University Press, 2022) 35, at 39.
21 石田・前掲論文〔注11〕・39~40頁参照。
22 『AI事業者ガイドライン(第1.01版)』(令和6年11月22日)。
23 Xavier Rodriguez, ‘Artificial Intelligence (AI) and the Practice of Law in Texas’, (2023) 63 South Texas Law Review 1.
24 レビューとして、Florence G’sell, ‘AI Judges’, in DiMatteo, Poncibò and Cannarsa (n 20), 347.
25 AIによる裁判が社会でどのように受け止められているかの実態調査として、佐藤=新田・前掲書〔注19〕・163頁以下。
26 Jonathan H. Choi, Amy B. Monahan and Daniel Schwartz, ‘Lawyering in the age of AI’, (2024) 109 Minnesota Law Review (forthcoming), available at SSRN: https://ssrn.com/abstract=4626276, pp.5-6.