要約
この研究では、大規模言語モデルを法的領域に適用し、現在の欠点を回避する方法について説明します。
彼らは大きな成功を収め、受け入れられているにもかかわらず、説明可能性の欠如により、法律専門家が彼らの成果を信頼することが妨げられており、これは当然のことです。
ただし、この論文では、説明可能な人工知能に焦点を当てるのではなく、正当化可能な人工知能という新しい見解を支持します。
この論文では、大規模言語モデルの出力に対する賛否両論の証拠を獲得することで、生成されたテキストの信頼性がどのように高まるのか、あるいは誤った情報に対する責任が問われるのかについて説明します。
要約(オリジナル)
In this work, I discuss how Large Language Models can be applied in the legal domain, circumventing their current drawbacks. Despite their large success and acceptance, their lack of explainability hinders legal experts to trust in their output, and this happens rightfully so. However, in this paper, I argue in favor of a new view, Justifiable Artificial Intelligence, instead of focusing on Explainable Artificial Intelligence. I discuss in this paper how gaining evidence for and against a Large Language Model’s output may make their generated texts more trustworthy – or hold them accountable for misinformation.
arxiv情報
著者 | Sabine Wehnert |
発行日 | 2023-11-27 10:59:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google