Explainable Moral Values: a neuro-symbolic approach to value classification

要約

この研究では、説明可能な値の分類のためのオントロジーベースの推論と機械学習技術の統合を検討します。
道徳基礎理論のような道徳的価値の存在論的形式化に依存し、DnS オントロジー設計パターンに依存することにより、\textit{サンドラ} 神経記号推論器を使用して、\emph{満足される値 (説明として形式化された) を推論します。
by} ある文。
文は、構造化された表現とともに、オープンソースの大規模言語モデルを使用して自動的に生成されます。
推論された説明は、文に関連付けられた値を自動的に検出するために使用されます。
推論者の推論のみに依存すると、他のより複雑なアプローチと同等の説明可能な分類が得られることを示します。
推論器の推論と分布セマンティクス手法を組み合わせると、ニューラル ネットワーク アーキテクチャに基づく複雑なモデルを含むすべてのベースラインを大幅に上回るパフォーマンスが得られることを示します。
最後に、理論ベースの値分類の可能性を探るための視覚化ツールを構築します。このツールは http://xmv.geomeaning.com/ で公開されています。

要約(オリジナル)

This work explores the integration of ontology-based reasoning and Machine Learning techniques for explainable value classification. By relying on an ontological formalization of moral values as in the Moral Foundations Theory, relying on the DnS Ontology Design Pattern, the \textit{sandra} neuro-symbolic reasoner is used to infer values (fomalized as descriptions) that are \emph{satisfied by} a certain sentence. Sentences, alongside their structured representation, are automatically generated using an open-source Large Language Model. The inferred descriptions are used to automatically detect the value associated with a sentence. We show that only relying on the reasoner’s inference results in explainable classification comparable to other more complex approaches. We show that combining the reasoner’s inferences with distributional semantics methods largely outperforms all the baselines, including complex models based on neural network architectures. Finally, we build a visualization tool to explore the potential of theory-based values classification, which is publicly available at http://xmv.geomeaning.com/.

arxiv情報

著者 Nicolas Lazzari,Stefano De Giorgis,Aldo Gangemi,Valentina Presutti
発行日 2024-10-16 14:53:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク