最近、チャットGPTなど、生成AIの活用が各分野で求められています。
しかし、弁護士としてこのような生成AIを用いることは何か問題がないのでしょうか。
そこで、当のチャットGPTに対して、「弁護士が生成AIを用いることは何か問題がありませんか」と尋ねたところ、以下のような回答がありました。
このページの目次
⚖️ 問題点・リスク
1. 機密情報の漏洩
- 弁護士は職務上、クライアントの秘密を厳格に守る義務(守秘義務)があります。
- 公開型AIにクライアント情報を入力すると、外部のサーバーに送信され、情報が第三者に漏れるリスクがあります。
対策:
- クライアントに関する情報や案件詳細を入力しない。
- 機密性の高い内容にはローカルで動作するAIや企業向けのセキュアなAIツール(例:法務特化型のAI)を使用。
2. 誤情報のリスク(ハルシネーション)
- 生成AIは、もっともらしいが誤った情報(例:架空の判例や法律条文)を出力することがあります。
対策:
- 生成AIが出力した内容を必ず弁護士自身が確認・検証する。
- 出力された法的な主張や引用が正しいかどうか、元の条文や判例を調べて裏付けを取る。
3. 倫理規定との整合性
- 日本弁護士連合会(日弁連)や各弁護士会には職業倫理が定められており、技術利用においてもそれに反しないように注意が必要です。
対策:
- 倫理規定(特に守秘義務、職務遂行の独立性)に抵触しないように運用ルールを明確化。
- 弁護士会の指針や通知を常に確認。
4. 説明責任の所在
- クライアントに対して法的助言を行う場合、責任は弁護士にあります。AIが出力した内容をそのまま使うと責任の所在が曖昧になります。
対策:
- AIは補助ツールとして使い、最終的な判断・助言は弁護士自身が行う。
5. 著作権・プライバシーに関する問題
- AIが学習したデータに関して著作権侵害やプライバシー侵害の問題が指摘される場合があります。
対策:
- AIの出力内容が第三者の著作権を侵害していないかの確認。
- 特に契約書や意見書のテンプレート生成などでは注意が必要。
✅ 適切な使い方(活用例)
- 法令や判例のリサーチの補助
- 契約書のたたき台(ドラフト)の作成
- 簡易な法律Q&Aの作成(ただし要確認)
- 文書の要約、言い換え、校正などの事務作業の効率化
🔚 結論
弁護士が生成AIを使うこと自体は違法ではありませんし、適切に使えば業務効率を高める強力なツールになり得ます。しかし、守秘義務・誤情報・責任所在・倫理的懸念などの問題を十分に理解し、リスクを回避するための運用体制が求められます。
さて、この回答はいかがでしょうか。
まず、機密性の高い情報を、法務特化の生成AIであったとしても、これに入力することはやはり一定のリスクがあります。情報を学習し、次の回答へ反映させるような場合には、守秘義務違反となる可能性が極めて高いといえます。もちろん、外部と通信されず、自分しか使用しないAIというのがあれば別なのかもしれませんが、そうであるならばむしろAIとしての利点を失っていると言えますので、今後はどれほど役に立つのかという問題があります。
次に、ハルシネーションの問題については、他国では既に弁護士が架空の裁判例を引用したとの報道がなされています。このようなことは絶対に許されませんので、十分に注意をする必要があります。
依頼者への説明としてこれを用いることも相当危険です。そもそも、依頼者の個人情報を入力することは許されませんから、適切な回答が返ってくるとはいいがたいですし、条文等の簡易な内容であっても、最終的にはソースを確認することになります(反対に、生成AIに尋ねなければ分からないようなものを、生成AIの回答だけで答えることは相当危険です)。
最後に、著作権・プライバシーの問題が記載されています。第三者の著作権を侵害しているかどうかはよく確認する必要があります。生成AIでは、他のインターネット上のサイトをそのままコピーして回答している場合があるため、それをそのまま転載することは危険です。なお、上記のコピーした回答については、出典の記載はなく、出典を尋ねても特定のインターネット上のサイトなどは提示されませんでした。
このように、生成AIの利用には、弁護士として十分注意する点がありますので、基本的には時間を惜しまず、従来の手法で調べるべきところは調べ、回答することが専門家として求められます。
なお、現時点では弁護士会として明示的な生成AI利用についての規制はないものと思われます。しかし、今後規定ができた場合には、それに従う必要がありますので、十分にご注意ください。