Iffy-Or-Not: Extending the Web to Support the Critical Evaluation of Fallacious Texts

要約

ソーシャルプラットフォームは、意見を伝えるために使用されているコメントで、審議の機会を拡大しました。
ただし、そのような情報を使用して意見を形成することは、根拠のないコンテンツまたは誤ったコンテンツによって挑戦されます。
意見の形成の質を高め、誤った情報に対する抵抗を潜在的にもたらすために、テキストを読むときに批判的思考を呼び起こすブラウザの拡張機能であるIffy-or-not(Ion)を開発しました。
3つの機能が議論理論に導かれる機能により、Ionは誤ったコンテンツを強調し、それらを調査するための多様なクエリを提案し、他の人と考慮してチャットするためのより深い質問を提供します。
ユーザー調査(n = 18)から、Ionはユーザーがコンテンツにもっと注意を払うことを奨励し、自分のものと一致する、または独自に好ましいクエリを提案し、視点を拡大する考えさせられる質問を提案することを発見しました。
ただし、一部の参加者は、情報の目標との誤った整列と考えの素因を考えるため、イオンに対する嫌悪感を表明しました。
イオンによる潜在的なバックファイアリング効果について説明します。

要約(オリジナル)

Social platforms have expanded opportunities for deliberation with the comments being used to inform one’s opinion. However, using such information to form opinions is challenged by unsubstantiated or false content. To enhance the quality of opinion formation and potentially confer resistance to misinformation, we developed Iffy-Or-Not (ION), a browser extension that seeks to invoke critical thinking when reading texts. With three features guided by argumentation theory, ION highlights fallacious content, suggests diverse queries to probe them with, and offers deeper questions to consider and chat with others about. From a user study (N=18), we found that ION encourages users to be more attentive to the content, suggests queries that align with or are preferable to their own, and poses thought-provoking questions that expands their perspectives. However, some participants expressed aversion to ION due to misalignments with their information goals and thinking predispositions. Potential backfiring effects with ION are discussed.

arxiv情報

著者 Gionnieve Lim,Juho Kim,Simon T. Perrault
発行日 2025-03-18 16:50:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC | Iffy-Or-Not: Extending the Web to Support the Critical Evaluation of Fallacious Texts はコメントを受け付けていません

Navigating LLM Ethics: Advancements, Challenges, and Future Directions

要約

この研究では、人工知能の分野内の大規模な言語モデル(LLM)を取り巻く倫理的問題に対処しています。
プライバシーや公平性など、LLMSと他のAIシステムの両方によってもたらされる一般的な倫理的課題、およびLLMSから一意に生じる倫理的課題を探ります。
幻覚、検証可能な説明責任、LLMSに固有の検閲の複雑さなどの課題を強調し、従来のAIシステムで遭遇したものとは異なります。
この研究では、説明責任を確保し、バイアスを減らし、LLMSが情報の普及において演じる影響力のある役割の透明性を高めるために、これらの複雑さに取り組む必要性を強調しています。
学際的なコラボレーションを提唱するLLM倫理の緩和戦略と将来の方向性を提案しています。
特定のドメインに合わせて調整された倫理的フレームワークと、多様なコンテキストに適合した動的監査システムを推奨しています。
このロードマップは、LLMの責任ある発展と統合を導くことを目的としており、倫理的な考慮事項が社会のAIの進歩を支配する未来を想定しています。

要約(オリジナル)

This study addresses ethical issues surrounding Large Language Models (LLMs) within the field of artificial intelligence. It explores the common ethical challenges posed by both LLMs and other AI systems, such as privacy and fairness, as well as ethical challenges uniquely arising from LLMs. It highlights challenges such as hallucination, verifiable accountability, and decoding censorship complexity, which are unique to LLMs and distinct from those encountered in traditional AI systems. The study underscores the need to tackle these complexities to ensure accountability, reduce biases, and enhance transparency in the influential role that LLMs play in shaping information dissemination. It proposes mitigation strategies and future directions for LLM ethics, advocating for interdisciplinary collaboration. It recommends ethical frameworks tailored to specific domains and dynamic auditing systems adapted to diverse contexts. This roadmap aims to guide responsible development and integration of LLMs, envisioning a future where ethical considerations govern AI advancements in society.

arxiv情報

著者 Junfeng Jiao,Saleh Afroogh,Yiming Xu,Connor Phillips
発行日 2025-03-18 16:57:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CY | Navigating LLM Ethics: Advancements, Challenges, and Future Directions はコメントを受け付けていません

VisEscape: A Benchmark for Evaluating Exploration-driven Decision-making in Virtual Escape Rooms

要約

エスケープルームは、探査主導の計画を要求するユニークな認知的課題を提示します。プレイヤーは環境を積極的に検索し、新しい発見に基づいて知識を継続的に更新し、異なる手がかりをつなぎ、どの要素が目標に関連しているかを判断する必要があります。
これに動機付けられているため、これらの困難な条件下でAIモデルを評価するために特別に設計された20の仮想エスケープルームのベンチマークであるVisescapeを紹介します。成功は、孤立したパズルの解決に依存するだけでなく、動的に変化する環境の空間的知識を繰り返し構築および改良することにも依存します。
Visescapeでは、最先端のマルチモーダルモデルでさえ、一般に部屋から逃げられず、進捗状況と軌跡のレベルにかなりのばらつきを示すことが観察されました。
この問題に対処するために、viseScaperを提案します。これは、メモリ、フィードバック、およびReactモジュールを効果的に統合し、平均で3.7倍の効果的なパフォーマンスと5.0倍効率を上げることで大幅な改善を実証します。

要約(オリジナル)

Escape rooms present a unique cognitive challenge that demands exploration-driven planning: players should actively search their environment, continuously update their knowledge based on new discoveries, and connect disparate clues to determine which elements are relevant to their objectives. Motivated by this, we introduce VisEscape, a benchmark of 20 virtual escape rooms specifically designed to evaluate AI models under these challenging conditions, where success depends not only on solving isolated puzzles but also on iteratively constructing and refining spatial-temporal knowledge of a dynamically changing environment. On VisEscape, we observed that even state-of-the-art multimodal models generally fail to escape the rooms, showing considerable variation in their levels of progress and trajectories. To address this issue, we propose VisEscaper, which effectively integrates Memory, Feedback, and ReAct modules, demonstrating significant improvements by performing 3.7 times more effectively and 5.0 times more efficiently on average.

arxiv情報

著者 Seungwon Lim,Sungwoong Kim,Jihwan Yu,Sungjae Lee,Jiwan Chung,Youngjae Yu
発行日 2025-03-18 16:59:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI | VisEscape: A Benchmark for Evaluating Exploration-driven Decision-making in Virtual Escape Rooms はコメントを受け付けていません

PLAY2PROMPT: Zero-shot Tool Instruction Optimization for LLM Agents via Tool Play

要約

大規模な言語モデル(LLM)は、特殊な外部ツールとますます統合されていますが、多くのタスクでは、最小限またはうるさいドキュメントでゼロショットツールの使用が必要です。
既存のソリューションは、検証のために手動の書き換えまたはラベル付きデータに依存しているため、真のゼロショット設定では適用できなくなります。
これらの課題に対処するために、各ツールで体系的に「再生」する自動化されたフレームワークであるPlay2Promptを提案します。
この反復的な試行用と誤差プロセスを通じて、Play2Promptはツールドキュメントを改良し、ラベル付きデータなしで使用例を生成します。
これらの例は、LLM推論をガイドするだけでなく、ツールの利用をさらに強化するための検証としても機能します。
現実世界のタスクに関する広範な実験は、Play2promptがオープンモデルと閉じたモデルの両方でゼロショットツールのパフォーマンスを大幅に改善し、ドメイン固有のツール統合にスケーラブルで効果的なソリューションを提供することを示しています。

要約(オリジナル)

Large language models (LLMs) are increasingly integrated with specialized external tools, yet many tasks demand zero-shot tool usage with minimal or noisy documentation. Existing solutions rely on manual rewriting or labeled data for validation, making them inapplicable in true zero-shot settings. To address these challenges, we propose PLAY2PROMPT, an automated framework that systematically ‘plays’ with each tool to explore its input-output behaviors. Through this iterative trial-and-error process, PLAY2PROMPT refines tool documentation and generates usage examples without any labeled data. These examples not only guide LLM inference but also serve as validation to further enhance tool utilization. Extensive experiments on real-world tasks demonstrate that PLAY2PROMPT significantly improves zero-shot tool performance across both open and closed models, offering a scalable and effective solution for domain-specific tool integration.

arxiv情報

著者 Wei Fang,Yang Zhang,Kaizhi Qian,James Glass,Yada Zhu
発行日 2025-03-18 17:09:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | PLAY2PROMPT: Zero-shot Tool Instruction Optimization for LLM Agents via Tool Play はコメントを受け付けていません

LLM-FE: Automated Feature Engineering for Tabular Data with LLMs as Evolutionary Optimizers

要約

自動機能エンジニアリングは、表形式学習タスクの予測モデルパフォーマンスを改善する上で重要な役割を果たします。
従来の自動機能エンジニアリング方法は、固定された手動で設計された検索スペース内の事前定義された変換に依存することにより制限され、ドメインの知識を無視することがよくあります。
大規模な言語モデル(LLM)を使用した最近の進歩により、ドメインの知識を機能エンジニアリングプロセスに統合することができました。
ただし、既存のLLMベースのアプローチは、機能選択のために直接プロンプトを使用したり、機能選択のために検証スコアのみに依存したり、機能の生成とデータ駆動型のパフォーマンスの間の有意義な推論を確立したり、機能したり、重要な推論を確立したりしません。
これらの課題に対処するために、LLM-FEを提案します。LLM-FEは、LLMのドメインの知識と推論能力を組み合わせた新しいフレームワークであるLLM-FEを提案し、表の学習タスクの効果的な機能を自動的に発見します。
LLM-FEは、フィーチャエンジニアリングをプログラム検索の問題として定式化します。ここで、LLMSは新機能変換プログラムを繰り返し提案し、データ駆動型のフィードバックは検索プロセスをガイドします。
我々の結果は、LLM-FEが一貫して最先端のベースラインを上回り、多様な分類および回帰ベンチマーク全体で表形式予測モデルのパフォーマンスを大幅に向上させることを示しています。

要約(オリジナル)

Automated feature engineering plays a critical role in improving predictive model performance for tabular learning tasks. Traditional automated feature engineering methods are limited by their reliance on pre-defined transformations within fixed, manually designed search spaces, often neglecting domain knowledge. Recent advances using Large Language Models (LLMs) have enabled the integration of domain knowledge into the feature engineering process. However, existing LLM-based approaches use direct prompting or rely solely on validation scores for feature selection, failing to leverage insights from prior feature discovery experiments or establish meaningful reasoning between feature generation and data-driven performance. To address these challenges, we propose LLM-FE, a novel framework that combines evolutionary search with the domain knowledge and reasoning capabilities of LLMs to automatically discover effective features for tabular learning tasks. LLM-FE formulates feature engineering as a program search problem, where LLMs propose new feature transformation programs iteratively, and data-driven feedback guides the search process. Our results demonstrate that LLM-FE consistently outperforms state-of-the-art baselines, significantly enhancing the performance of tabular prediction models across diverse classification and regression benchmarks.

arxiv情報

著者 Nikhil Abhyankar,Parshin Shojaee,Chandan K. Reddy
発行日 2025-03-18 17:11:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG, cs.NE | LLM-FE: Automated Feature Engineering for Tabular Data with LLMs as Evolutionary Optimizers はコメントを受け付けていません

A RAG-based Question Answering System Proposal for Understanding Islam: MufassirQAS LLM

要約

宗教の教義や教えの複雑さや深さなど、宗教を学び、理解することには課題が存在します。
質問をするシステムとしてのチャットボットは、これらの課題を解決するのに役立ちます。
LLMチャットボットは、NLPテクニックを使用してトピック間のつながりを確立し、複雑な質問に正確に応答します。
これらの能力により、宗教への啓発には、質問をするチャットボットとしての啓発に最適です。
ただし、LLMSは幻覚として知られる誤った情報を生成する傾向もあります。
また、チャットボットの回答には、個人的な宗教的信念、異教徒間の対立、物議を醸すまたは繊細なトピックをs辱するコンテンツが含まれます。
それは、ヘイトスピーチを促進せず、または特定の人々のグループやその信念を怒らせることなく、そのようなケースを避けなければなりません。
この研究では、ベクターデータベースベースの検索拡張生成(RAG)アプローチを使用して、LLMの精度と透明性を高めます。
私たちの質問回答システムは「Mufassirqas」と呼ばれます。
トルコの文脈を含むいくつかのオープンアクセス本で構成されるデータベースを作成しました。
これらの本には、トルコの翻訳とイスラム教の解釈が含まれています。
このデータベースは、宗教関連の質問に答え、答えが信頼できることを確認するために利用されています。
LLMが使用するデータセットの関連部分は、答えとともに提示されます。
私たちは、人々の価値を尊重し、信頼できる結果を提供するために、有害、攻撃的、または無礼な反応を防ぐための指示を与えるシステムプロンプトを作成するために慎重に努力しました。
システムは、それぞれの本のページ番号や情報を入手するために参照される記事など、追加情報に答えて共有しています。
MufassirqasとChatGptも、デリケートな質問でテストされています。
システムでパフォーマンスが向上しました。
研究と強化はまだ進行中です。
結果と将来の作品が与えられます。

要約(オリジナル)

Challenges exist in learning and understanding religions, such as the complexity and depth of religious doctrines and teachings. Chatbots as question-answering systems can help in solving these challenges. LLM chatbots use NLP techniques to establish connections between topics and accurately respond to complex questions. These capabilities make it perfect for enlightenment on religion as a question-answering chatbot. However, LLMs also tend to generate false information, known as hallucination. Also, the chatbots’ responses can include content that insults personal religious beliefs, interfaith conflicts, and controversial or sensitive topics. It must avoid such cases without promoting hate speech or offending certain groups of people or their beliefs. This study uses a vector database-based Retrieval Augmented Generation (RAG) approach to enhance the accuracy and transparency of LLMs. Our question-answering system is called ‘MufassirQAS’. We created a database consisting of several open-access books that include Turkish context. These books contain Turkish translations and interpretations of Islam. This database is utilized to answer religion-related questions and ensure our answers are trustworthy. The relevant part of the dataset, which LLM also uses, is presented along with the answer. We have put careful effort into creating system prompts that give instructions to prevent harmful, offensive, or disrespectful responses to respect people’s values and provide reliable results. The system answers and shares additional information, such as the page number from the respective book and the articles referenced for obtaining the information. MufassirQAS and ChatGPT are also tested with sensitive questions. We got better performance with our system. Study and enhancements are still in progress. Results and future works are given.

arxiv情報

著者 Ahmet Yusuf Alan,Enis Karaarslan,Ömer Aydin
発行日 2025-03-18 17:14:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | A RAG-based Question Answering System Proposal for Understanding Islam: MufassirQAS LLM はコメントを受け付けていません

Pauli Network Circuit Synthesis with Reinforcement Learning

要約

Clifford Operationsとともに、任意のPauli回転を含む量子回路の再合成のための強化学習(RL)ベースの方法を導入します。
各サブブロックをコンパクトな表現に倒し、学習したヒューリスティックを介して段階的に合成することにより、より短く、ハードウェア接続の制約に準拠した回路を取得します。
この方法は、最適化手順として機能するのに十分な速さで十分に優れていることがわかりました。最先端のヒューリスティックな方法との6 Qubitランダムパウリネットワークの直接的な比較では、RLアプローチは、回路あたり10ミリ秒未満で実行されながら、2キュービットゲートカウントで2倍以上の減少をもたらします。
さらに、この方法をQiskit Transpiler Passとして適用するコレクトアンドレシデスのパイプラインに統合します。ここでは、2回のゲート数と深さで20%の平均改善が観察され、多くの場合、ベンチプレスベンチマーク全体で最大60%に達します。
これらの結果は、RL駆動型の合成の可能性を強調し、現実的で大規模な量子輸送ワークロードの回路の品質を大幅に向上させます。

要約(オリジナル)

We introduce a Reinforcement Learning (RL)-based method for re-synthesis of quantum circuits containing arbitrary Pauli rotations alongside Clifford operations. By collapsing each sub-block to a compact representation and then synthesizing it step-by-step through a learned heuristic, we obtain circuits that are both shorter and compliant with hardware connectivity constraints. We find that the method is fast enough and good enough to work as an optimization procedure: in direct comparisons on 6-qubit random Pauli Networks against state-of-the-art heuristic methods, our RL approach yields over 2x reduction in two-qubit gate count, while executing in under 10 milliseconds per circuit. We further integrate the method into a collect-and-re-synthesize pipeline, applied as a Qiskit transpiler pass, where we observe average improvements of 20% in two-qubit gate count and depth, reaching up to 60% for many instances, across the Benchpress benchmark. These results highlight the potential of RL-driven synthesis to significantly improve circuit quality in realistic, large-scale quantum transpilation workloads.

arxiv情報

著者 Ayushi Dubal,David Kremer,Simon Martiel,Victor Villar,Derek Wang,Juan Cruz-Benito
発行日 2025-03-18 17:27:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, quant-ph | Pauli Network Circuit Synthesis with Reinforcement Learning はコメントを受け付けていません

RWKV-7 ‘Goose’ with Expressive Dynamic State Evolution

要約

新しいシーケンスモデリングアーキテクチャであるRWKV-7「Goose」と、多言語タスクの30億パラメータースケールで下流のパフォーマンスで新しい最先端のパフォーマンスを確立し、他のトップ3Bモデルよりも劇的に少ないトークンでトレーニングされているにもかかわらず、現在のSOTA英語のパフォーマンスを一致させます。
それにもかかわらず、RWKV-7モデルでは、トークンあたりの一定のメモリ使用と一定の推論時間のみが必要です。
RWKV-7は、ベクトル値のゲーティングおよびコンテキスト内学習率を備えたデルタルールの新たに一般化された定式化、およびリラックスした価値交換ルールを導入します。
RWKV-7が状態追跡を実行し、すべての通常の言語を認識しながら、トレーニングの並列性を保持できることを示します。
これは、標準の複雑さの推測下での変圧器の機能を超えており、$ \ mathsf {tc}^0 $に制限されています。
RWKV-7の言語モデリング機能を実証するために、拡張オープンソース3.1兆トークン多言語コーパスも紹介し、このデータセットで0.190億から29億パラメーターの範囲の4つのRWKV-7モデルを訓練します。
オープン性、複製、および採用を促進するために、https://huggingface.co/rwkvでモデルとデータセットコンポーネントのリストをリリースし、https://github.com/rwkv/rwkv-lmでトレーニングと推論コードをすべてApache 2.0ライセンスの下でリリースします。

要約(オリジナル)

We present RWKV-7 ‘Goose’, a new sequence modeling architecture, along with pre-trained language models that establish a new state-of-the-art in downstream performance at the 3 billion parameter scale on multilingual tasks, and match current SoTA English language performance despite being trained on dramatically fewer tokens than other top 3B models. Nevertheless, RWKV-7 models require only constant memory usage and constant inference time per token. RWKV-7 introduces a newly generalized formulation of the delta rule with vector-valued gating and in-context learning rates, as well as a relaxed value replacement rule. We show that RWKV-7 can perform state tracking and recognize all regular languages, while retaining parallelizability of training. This exceeds the capabilities of Transformers under standard complexity conjectures, which are limited to $\mathsf{TC}^0$. To demonstrate RWKV-7’s language modeling capability, we also present an extended open source 3.1 trillion token multilingual corpus, and train four RWKV-7 models ranging from 0.19 billion to 2.9 billion parameters on this dataset. To foster openness, reproduction, and adoption, we release our models and dataset component listing at https://huggingface.co/RWKV, and our training and inference code at https://github.com/RWKV/RWKV-LM all under the Apache 2.0 License.

arxiv情報

著者 Bo Peng,Ruichong Zhang,Daniel Goldstein,Eric Alcaide,Haowen Hou,Janna Lu,William Merrill,Guangyu Song,Kaifeng Tan,Saiteja Utpala,Nathan Wilce,Johan S. Wind,Tianyi Wu,Daniel Wuttke,Christian Zhou-Zheng
発行日 2025-03-18 17:31:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG, I.2.0 | RWKV-7 ‘Goose’ with Expressive Dynamic State Evolution はコメントを受け付けていません

Information Fusion in Smart Agriculture: Machine Learning Applications and Future Research Directions

要約

機械学習(ML)は、さまざまな分野でアプリケーションを拡大する急速に進化するテクノロジーです。
このペーパーでは、持続可能性と効率性に関する農業における最近のMLアプリケーションに関する包括的な調査を紹介します。
既存のレビューは、主に狭いサブドメインに焦点を当てているか、融合駆動型の視点を欠いています。
この研究では、農業におけるMLアプリケーションの複合分析を提供し、5つの重要な目的を構成しています。(i)収穫前、収穫、および収穫後の段階でML技術を分析します。
(ii)農業データとデータ融合でMLをどのように使用できるかを示す。
(iii)研究の傾向と活動を明らかにするために、書誌および統計分析を実施します。
(iv)さまざまな種類のマルチセンサーとマルチソースデータを使用する主要な人工知能(AI)駆動型の農業会社の実世界のケーススタディの調査。
(v)MLモデルトレーニングをサポートするために、公開されているデータセットをコンパイルします。
既存の以前のレビューを超えて、このレビューでは、機械学習(ML)技術とマルチソースデータフュージョン(リモートセンシング、IoT、および気候分析の統合)と組み合わせて、予測精度と意思決定を改善することにより精密な農業を強化する方法に焦点を当てています。
ケーススタディと統計的洞察は、AI駆動型のスマート農業の進化する景観を示していますが、将来の研究の方向性は、不均一なデータセットのデータ融合に関連する課題についても説明しています。
このレビューは、AIの研究と農業アプリケーションのギャップを埋め、研究者、業界の専門家、政策立案者が情報融合とMLを活用して精密農業を進めるためのロードマップを提供します。

要約(オリジナル)

Machine learning (ML) is a rapidly evolving technology with expanding applications across various fields. This paper presents a comprehensive survey of recent ML applications in agriculture for sustainability and efficiency. Existing reviews mainly focus on narrow subdomains or lack a fusion-driven perspectives. This study provides a combined analysis of ML applications in agriculture, structured around five key objectives: (i) Analyzing ML techniques across pre-harvesting, harvesting, and post-harvesting phases. (ii) Demonstrating how ML can be used with agricultural data and data fusion. (iii) Conducting a bibliometric and statistical analysis to reveal research trends and activity. (iv) Investigating real-world case studies of leading artificial intelligence (AI)-driven agricultural companies that use different types of multisensors and multisource data. (v) Compiling publicly available datasets to support ML model training. Going beyond existing previous reviews, this review focuses on how machine learning (ML) techniques, combined with multi-source data fusion (integrating remote sensing, IoT, and climate analytics), enhance precision agriculture by improving predictive accuracy and decision-making. Case studies and statistical insights illustrate the evolving landscape of AI driven smart farming, while future research directions also discusses challenges associated with data fusion for heterogeneous datasets. This review bridges the gap between AI research and agricultural applications, offering a roadmap for researchers, industry professionals, and policymakers to harness information fusion and ML for advancing precision agriculture.

arxiv情報

著者 Aashu Katharria,Kanchan Rajwar,Millie Pant,Juan D. Velásquez,Václav Snášel,Kusum Deep
発行日 2025-03-18 17:32:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Information Fusion in Smart Agriculture: Machine Learning Applications and Future Research Directions はコメントを受け付けていません

Attribution Score Alignment in Explainable Data Management

要約

データベースからのクエリ回答のデータベースタプルの関連性を定量化するために、さまざまな属性スコアが提案されています。
その中には、因果関係の責任、Shapleyの価値、Banzhaf Power-Index、および因果効果があります。
それらは、主に計算特性の観点から、単独で分析されています。
この作業では、手元のクエリに基づいてこれらのスコアのアライメントの調査を開始します。
つまり、タプルの互換性のあるランキングを誘導するかどうかです。
スコアのペアが常に揃っている膨大なクラスのクエリを識別することができ、他のスコアが揃っていないものを特定することができます。
外因性のタプルの存在は、この点で重要な違いをもたらすことがわかります。

要約(オリジナル)

Different attribution-scores have been proposed to quantify the relevance of database tuples for a query answer from a database. Among them, we find Causal Responsibility, the Shapley Value, the Banzhaf Power-Index, and the Causal Effect. They have been analyzed in isolation, mainly in terms of computational properties. In this work, we start an investigation into the alignment of these scores on the basis of the queries at hand; that is, on whether they induce compatible rankings of tuples. We are able to identify vast classes of queries for which some pairs of scores are always aligned, and others for which they are not. It turns out that the presence of exogenous tuples makes a crucial difference in this regard.

arxiv情報

著者 Felipe Azua,Leopoldo Bertossi
発行日 2025-03-18 17:45:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.DB | Attribution Score Alignment in Explainable Data Management はコメントを受け付けていません