INSIGHTS | ARTICLES

AI支援法務の新たな時代:倫理的考察と課題

6月 21, 2024

2024年6月21日金曜日 by KLDチーム

最近の進歩により、一般的なプロセスを自動化し、効率性を高め、文書作成を支援する法律分野におけるAIの大きな可能性が浮き彫りになっている。しかし、考慮すべき倫理的問題や克服すべき課題もある。AIツールはバイアスのない判断を下せるのか?規制機関はどう対応するのか?法律専門家にはどのような倫理的責任があるのか?AIが法曹界に与える影響を詳しく見てみよう。

法務におけるAIの歴史

AIは1950年代に機械学習の概念が導入されたことに端を発する。

法律分野は、アルゴリズム計算によるデータ分析能力を活用し、電子証拠開示、コンプライアンス、規制調査、分析における予測コーディングなどの分野で機械学習を導入した。今日、予測コーディングは、電子メールのスレッディング、ニアダプリケート分析、コンセプト検索/クラスタリング、自然言語処理など、法務業務において標準となった数多くのAIベースのツールの1つである。また、AIベースのツールは、コンプライアンス監視/監督や契約ライフサイクル管理などの専門分野の基礎も形成している。

近年、新しいタイプのAIが人気を博し、受け入れられている。その代表例が自然言語処理NLP)で、数学的アルゴリズムを超えた言語分析を取り入れている。NLPは辞書と機械学習を活用し、人間の言語に含まれる文脈上の意味を理解・分析する。

AIの最新の反復は、ジェネレーティブAI(GenAI)である。GenAI自体は「新しい」ものではないが、法的枠組みへの応用は新しい。法務におけるGenAIは、あっという間に法務界全体で多くの議論、論争、変化を引き起こした。

 

法務におけるGenAIの倫理的考察

GenAIは、人間のプロンプトに基づいて全く新しい資料を生成する人工知能の一形態である。言い換えれば、GenAIは、提供されたクエリとそこから引き出すデータに基づいて「考え」、「オリジナルの」コンテンツを生成する。その結果、法律専門家にとって、これまで人間が行ってきた意思決定やコンテンツ生成のプロセスをテクノロジーに頼ることには倫理的な意味合いがある。

「KLDiscoveryのグローバル・アドバイザリー・サービス&ストラテジック・クライアント・ソリューション担当バイス・プレジデントであるエリック・ロビンソン氏は、AIとそのeディスカバリーへの影響に関するウェビナーで、「ジェネレーティブAIツールの主な懸念事項の1つは、バイアスの概念を防ぐことです。「モデルに投入されるデータが本質的にある方向、意見、文脈、または概念に傾いている場合、そこから生成されるコンテンツはすべて、その同じバイアスを反映することになります」。

バイアスの問題は、正確性やプライバシーに関する他の根本的な懸念とともに、AI規制の必要性を求める声につながり、すでに施行され始めている。

AI規制の枠組み

地方、国、国際的なレベルで、より包括的なAI規制を求める声は勢いを増している。イタリアはパイオニアとして台頭し、EU内で最初のAI規制を発表した。同様に、米国でも各州がAI規制を起草・制定している。

米国では、連邦取引委員会(FTC)や証券取引委員会(SEC)などの規制機関が、企業領域におけるAIの導入を監督するための規則を積極的に提案している。また、連邦議会では人工知能法(Artificial Intelligence Act)を通じてAIに関する国家法案が提出され、ホワイトハウスは大統領令13859号を発布し、AIの信頼できる利用に関する基準の策定を求めている。

法律業界に特化すると、ロビンソン氏は、今後3~5年の間にAI技術が法律実務にどのように組み込まれるかに大きな変化が生じると考えている。州、国、国際的なレベルで規制の監視が強化され、その後、AIの開発と実装を管理する重要な国内法が成立する可能性がある。実際、米国国立標準技術研究所(NIST)や国際標準化機構(ISO)のような主導的な組織は、国家標準や国際標準につながる可能性のある標準化された試験・監査手順の確立に取り組んでいる。

長期的には、AIに特化した規制が広く採用され、責任と説明責任に関する法律が正式に制定される可能性が高い。自動化されたコンプライアンス・ツールの開発は、AI技術がどのように機能し、規制基準を遵守するかをサポートし、法律専門家がAIやGenAIが意図された通り、および/または所定の境界内で機能しているかどうかを検証するのに役立つだろう。

法律専門家の倫理的要件

AIが支援する法律業務において倫理的な問題が生じるもう一つの領域は、専門家としての行動基準である。AIを法律業務に活用する弁護士はもちろん、そうでない弁護士であっても、正確で偏りのない業務を確保するために一定の基準を守らなければならない。

能力、特に技術的能力については、米国法曹協会(ABA)の「職務上の行為に関するモデル規則」の規則1.1で取り上げられている。2012年、ABAは規則1. 1の コメント8を修正し、「弁護士は法律とその実務の変化を常に把握する」べきであり、そのコメントには「関連する技術に関連する利益とリスクを含む」という文言が追加された。注意すべき点は、規則1.1とコメント8は「専門知識」を要求していないことである。むしろ、この文言の意図は、法律顧問がテクノロジーの使用に関連する利益とリスクについて認識し、基本的な理解を持っていることを保証することにある。一般的に、ベストプラクティスは、法律専門家が個人的な専門知識を身につけるか、関連するリスクおよび/または利益を解析し説明できる専門家にアクセスできるようにすることである。

現在までに、40の州がこの技術的能力の義務をローカル・ルールに採用している。この転換は、弁護士がテクノロジーとAIをよりよく理解することを促す大きな一歩となる。しかし、技術的能力は倫理的責任とイコールではなく、法律専門家の倫理的義務は能力を超えて及ぶものである。

「この話の中には、倫理規定上、クライアントに伝えるべき要件が含まれています」とロビンソン弁護士は言う。「テクノロジーが活用されている場合、弁護士にはそれをクライアントに伝える義務があります。

依頼者と弁護士の関係における コミュニケーションに関する モデル規則1.4では、弁護士は次のように規定されている:

  • 「依頼者の目的を達成する手段について、依頼者と協議すること」(1.4.a.2)

  • 「依頼者が代理に関して十分な情報を得た上で意思決定できるよう、合理的に必要な範囲で案件を説明すること」(1.4.b)

ロビンソンによれば、弁護士は、AIの関与によって達成されるであろう目的、予想される費用、AIを使用することの利益、リスク、欠点を説明すべきである。

 


 

エリック・ロビンソン主催のeDiscoveryにおけるAIの影響に関するウェビナーの録音をお聴きになり、このトピックについてさらに深く掘り下げてください。

AIはどこまで進歩したのか、AIはどのようにリーガル・ディスカバリーを変革しつつあるのか、そして法務およびリーガル・テクノロジーの専門家にとって近い将来どのようなことが起こり得るのかについて、洞察を深めてください。

録画を見る