LexisNexisは、法律文書の作成と調査を容易にするために生成AIを採用しています。

LexisNexisは、法律文書の作成と調査を容易にするために生成AIを採用しています。

昨年6月、OpenAIがChatGPTをリリースしてからわずか数か月後、ニューヨーク市の弁護士2名がこのツールを使って非常に質の低い弁論要旨を作成したという悪名高い事件が発生しました。AIは偽の判例を引用したため、大騒動となり、裁判官は怒り、弁護士2名はひどく当惑しました。これは、ChatGPTのようなボットは確かに役立つものの、特に法的な文脈においては、その成果を慎重に検証する必要があることを如実に示しています。

この事件は、弁護士が法的主張を行う上で適切な判例を見つけるためのツールを提供する法律ソフトウェア企業、LexisNexisの目に留まりました。同社は、弁護士が日常的に行う法務業務の多くをAIが軽減する可能性を認識していますが、生成型AIの取り組みを始めるにあたり、こうした非常に現実的な問題も認識しています。

LexisNexisの最高技術責任者であるジェフ・レイル氏は、AIの価値を理解しています。実際、同社はすでにこの技術をプラットフォームに組み込んでいます。しかし、ChatGPTのような機能を法律ツールボックスに追加できれば、弁護士の業務効率が向上し、要約の作成や引用文献の迅速な検索が可能になります。

「私たちは組織として長年AI技術に取り組んできました。11月にChatGPTがリリースされて以来、本当に大きく変わったのは、この技術によってテキスト生成が可能になり、会話の要素も加わったことです」と、レイル氏はTechCrunch+に語った。

彼は、これがLexisNexisの法律関連ソフトウェアファミリーの強力なレイヤーになり得ると考えている一方で、リスクも伴うと指摘する。「生成型AIによって、私たちはこの技術の力と限界、何が得意で何が不得意かという本質を目の当たりにしていると思います」と彼は述べた。「そして、私たちが持つ能力とデータ、そしてこれらの大規模言語モデルの能力を結集することで、法律業界に根本的な変革をもたらす何かを実現できると考えています。」

調査によれば…

LexisNexisは最近、弁護士1,000人を対象に、生成型AIが弁護士の職業にもたらす可能性について調査を実施しました。調査結果によると、回答者の大半は前向きな姿勢を示していましたが、同時に、弁護士がこの技術の弱点を認識していることも明らかになりました。これが、AIに対する熱意をいくらか冷ましている要因となっています。

例えば、生成AIが自身の職業に与える影響について尋ねたところ、46%が「ある程度の影響」というやや控えめな回答をしました。しかし、次に多かったのは「大きな影響」で、38%でした。これらは、まだ評価段階にあり、過剰な宣伝によって高められている技術をどのように活用するかという主観的な見解ですが、調査対象となった弁護士の大多数が、少なくとも生成AIが業務に役立つ可能性を認識していることが結果から示されています。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

ベンダー主導の調査では、質問の種類やデータの解釈に関して常に偏りが生じる余地があることに留意してください。しかし、このデータは、弁護士がテクノロジーについてどのように考えているかを一般的に把握するのに役立ちます。

LexisNexis attorney survey question looking at the perceived impact of AI on the practice of law.
画像クレジット: LexisNexis

ここでの主な問題の一つは、ボットから得られる情報を信頼できるかどうかであり、LexisNexis は結果に対するユーザーの信頼を構築するためのさまざまな方法に取り組んでいます。

AIの既知の問題への対処

信頼の問題は、少なくとも当面は、すべての生成 AI ユーザーが直面することになる問題だが、Reihl 氏は、自社は顧客にとって何が危険にさらされているかを認識していると言う。

「彼らの役割と職業上の業務を考えると、彼らの行為は100%正確でなければなりません」と彼は述べた。「判例を引用する場合には、それが実際に有効な法律であり、依頼人を適切に代理しているかどうかを確かめなければなりません。」

「クライアントを最善の方法で代理できなければ、弁護士資格を剥奪される可能性があります。私たちは、お客様に信頼できる情報を提供してきた実績があります。」

ロンドン大学クイーン・メアリー校の博士研究員セバスチャン・バーンズ氏は、TechCrunchとの最近のインタビューで、配備された法学修士課程の学生は幻覚症状を起こすだろうと述べた。そこから逃れることはできない。

「LLMは通常、入力がトレーニングデータと大きく異なる場合でも、常に出力を生成するようにトレーニングされます」と彼は述べた。「標準的なLLMには、クエリに確実に答えられるか、予測できるかを判断する手段がありません。」

AI モデルは常に幻覚を起こす運命にあるのでしょうか?

LexisNexisは、この問題を様々な方法で軽減しようと試みています。まず、基礎モデルで見られた信頼性の問題の一部を補うため、独自の膨大な法務データセットを用いてモデルを学習させています。Reihl氏によると、同社はデータベース内の最新の判例も活用しているため、2021年までオープンウェブの情報のみで学習しているChatGPTのようなタイミングの問題は発生しないとのこと。

同社は、より関連性の高いタイムリーなトレーニングデータを使用することで、より良い結果が得られると考えています。「(結果に)参照される事例はすべて当社のデータベースに登録されているため、実際の事例ではない引用文を記載することはありません。なぜなら、それらの事例は既に当社のデータベースに登録されているからです。」

幻覚を完全に排除できる企業があるかどうかは明らかではないが、レクシスネクシスは、ソースへの参照を提供することで、ソフトウェアを使用する弁護士がボットがどのようにして答えを導き出したかを確認できるようにしている。

「大規模言語モデルの持つパワーと当社の技術を組み合わせることで、大規模言語モデルが抱える限界に対処し、ユーザーに事例への参照を提供して、ユーザーが自ら検証できるようにすることができます」とライル氏は述べた。

なお、これは現在進行中のプロジェクトであり、LexisNexisは現在6社の顧客と協力し、フィードバックに基づいてアプローチを改良中です。今後数ヶ月以内にAIを活用したツールをリリースする予定です。