Minority-Focused Text-to-Image Generation via Prompt Optimization

要約

我々は、事前学習されたテキスト対画像(T2I)潜在拡散モデルを用いた少数サンプルの生成について研究する。T2I生成の文脈における少数インスタンスは、テキスト条件データ分布の低密度領域に存在するものとして定義できる。マイノリティインスタンスは、データ補強や創造的AIなど、最新のT2I生成器の様々な応用にとって貴重である。残念ながら、既存の事前学習されたT2I拡散モデルは、主に高密度領域に焦点を当てており、その主な原因は、高品質な生成に不可欠な(CFGのような)ガイド付きサンプラーの影響である。これに対処するために、我々はT2I拡散モデルの高密度焦点に対抗するための新しいフレームワークを提示する。具体的には、まず、ユーザから提供されたプロンプトの意味的内容を保持しつつ、推論中に望ましい性質の出現を促すオンラインプロンプト最適化フレームワークを開発する。続いて、この汎用的なプロンプト最適化器を、注意深く作成された尤度目標を組み込むことによって少数特徴の生成を促進する特殊なソルバーに調整する。様々な種類のT2Iモデルに対して行った広範な実験により、我々のアプローチが、既存のサンプラーと比較して、高品質な少数インスタンスを生成する能力を大幅に向上させることが実証された。コードはhttps://github.com/soobin-um/MinorityPrompt。

要約(オリジナル)

We investigate the generation of minority samples using pretrained text-to-image (T2I) latent diffusion models. Minority instances, in the context of T2I generation, can be defined as ones living on low-density regions of text-conditional data distributions. They are valuable for various applications of modern T2I generators, such as data augmentation and creative AI. Unfortunately, existing pretrained T2I diffusion models primarily focus on high-density regions, largely due to the influence of guided samplers (like CFG) that are essential for high-quality generation. To address this, we present a novel framework to counter the high-density-focus of T2I diffusion models. Specifically, we first develop an online prompt optimization framework that encourages emergence of desired properties during inference while preserving semantic contents of user-provided prompts. We subsequently tailor this generic prompt optimizer into a specialized solver that promotes generation of minority features by incorporating a carefully-crafted likelihood objective. Extensive experiments conducted across various types of T2I models demonstrate that our approach significantly enhances the capability to produce high-quality minority instances compared to existing samplers. Code is available at https://github.com/soobin-um/MinorityPrompt.

arxiv情報

著者 Soobin Um,Jong Chul Ye
発行日 2025-04-04 10:37:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG | Minority-Focused Text-to-Image Generation via Prompt Optimization はコメントを受け付けていません

EOOD: Entropy-based Out-of-distribution Detection

要約

ディープニューラルネットワーク(DNN)は、分布外(OOD)サンプルに遭遇すると過信を示すことが多く、配備に大きな課題をもたらす。DNNは分布内(ID)データセットで学習されるため、DNNを通るIDサンプルの情報の流れは必然的にOODサンプルのそれとは異なる。本論文では、エントロピーベースの分布外検出(EOOD)フレームワークを提案する。EOODはまず、IDサンプルと擬似OODサンプルの両方を用いて、IDサンプルとOODサンプルの情報フローの違いが顕著な特定のブロックを特定する。そして、選択されたブロックの条件付きエントロピーをOOD信頼度スコアとして計算する。様々なIDおよびOOD設定において行われた包括的な実験により、OOD検出におけるEOODの有効性と、最先端の手法に対する優位性が実証された。

要約(オリジナル)

Deep neural networks (DNNs) often exhibit overconfidence when encountering out-of-distribution (OOD) samples, posing significant challenges for deployment. Since DNNs are trained on in-distribution (ID) datasets, the information flow of ID samples through DNNs inevitably differs from that of OOD samples. In this paper, we propose an Entropy-based Out-Of-distribution Detection (EOOD) framework. EOOD first identifies specific block where the information flow differences between ID and OOD samples are more pronounced, using both ID and pseudo-OOD samples. It then calculates the conditional entropy on the selected block as the OOD confidence score. Comprehensive experiments conducted across various ID and OOD settings demonstrate the effectiveness of EOOD in OOD detection and its superiority over state-of-the-art methods.

arxiv情報

著者 Guide Yang,Chao Hou,Weilong Peng,Xiang Fang,Yongwei Nie,Peican Zhu,Keke Tang
発行日 2025-04-04 10:57:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV | EOOD: Entropy-based Out-of-distribution Detection はコメントを受け付けていません

LLMs Prompted for Graphs: Hallucinations and Generative Capabilities

要約

大規模言語モデル(Large Language Models: LLM)は今日、様々なタスクに利用されている。本稿では、LLMがグラフを復唱・生成する能力を調査する。まず、LLMが文献からよく知られたグラフ(空手クラブやグラフアトラスなど)を暗唱する能力を調べる4。次に、LLMがエルドス・レニイのランダムグラフを生成する能力を調べる。スクレイピングされた学習セットに含まれるいくつかのErdos-Renyiグラフを記憶する可能性とは対照的に、この2番目の調査は、LLMの可能な創発的特性を研究することを目的としている。両課題について、幻覚のレンズ(すなわち、事実として返される誤った情報)を用いた誤りを評価するための測定基準を提案する。その結果、グラフ幻覚の振幅がLLMの優劣を特徴づけることがわかった。実際、暗唱課題では、グラフ幻覚は、10,000倍のプロンプトを活用してランキングを得る幻覚ランキングである「幻覚リーダーボード」と相関することが観察された。生成課題では、ほとんどのLLMで驚くほど良好で再現性のある結果が得られた。この結果は、この出現した能力をより深く研究するための出発点であり、その改善のための挑戦的なベンチマークになると考えている。これら2つの側面から、LLMの能力は、ネットワーク科学と機械学習の間のギャップを埋めるものである。

要約(オリジナル)

Large Language Models (LLMs) are nowadays prompted for a wide variety of tasks. In this article, we investigate their ability in reciting and generating graphs. We first study the ability of LLMs to regurgitate well known graphs from the literature (e.g. Karate club or the graph atlas)4. Secondly, we question the generative capabilities of LLMs by asking for Erdos-Renyi random graphs. As opposed to the possibility that they could memorize some Erdos-Renyi graphs included in their scraped training set, this second investigation aims at studying a possible emergent property of LLMs. For both tasks, we propose a metric to assess their errors with the lens of hallucination (i.e. incorrect information returned as facts). We most notably find that the amplitude of graph hallucinations can characterize the superiority of some LLMs. Indeed, for the recitation task, we observe that graph hallucinations correlate with the Hallucination Leaderboard, a hallucination rank that leverages 10, 000 times more prompts to obtain its ranking. For the generation task, we find surprisingly good and reproducible results in most of LLMs. We believe this to constitute a starting point for more in-depth studies of this emergent capability and a challenging benchmark for their improvements. Altogether, these two aspects of LLMs capabilities bridge a gap between the network science and machine learning communities.

arxiv情報

著者 Gurvan Richardeau,Samy Chali,Erwan Le Merrer,Camilla Penzo,Gilles Tredan
発行日 2025-04-04 10:58:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.SI | LLMs Prompted for Graphs: Hallucinations and Generative Capabilities はコメントを受け付けていません

Talk2X — An Open-Source Toolkit Facilitating Deployment of LLM-Powered Chatbots on the Web

要約

ウェブサイトに統合されたLLMを搭載したチャットボットは、ナビゲーションと情報検索の代替手段を提供し、ユーザーがウェブ上で情報にアクセスする方法のシフトにつながる。しかし、主にクローズドソースソリューションは、ウェブホスト間での普及を制限し、実装の詳細やエネルギー効率に関する透明性の欠如に悩まされている。本研究では、自動生成されたベクトルデータベースと、適応された検索拡張生成アプローチ(RAG)を活用し、エネルギー効率に有利な、オープンに利用可能なエージェントTalk2Xを提案する。Talk2Xのアーキテクチャーは、任意のウェブサイトに汎用可能であり、開発者に統合のためのツールを提供する。ミックスドメソッドアプローチを用いて、オープンサイエンスリポジトリから特定のアセットを取得するタスクをユーザーに課し、Talk2Xのユーザビリティを評価した。Talk2Xは、標準的なユーザーとウェブサイトのインタラクションに比べ、タスク完了時間、正確性、ユーザーエクスペリエンスを大幅に改善し、ユーザーが特定の情報を素早くピンポイントで取得することをサポートした。我々の発見は、ウェブ上の情報へのアクセス方法の進行中のパラダイムシフトへの技術的進歩に貢献するものである。

要約(オリジナル)

Integrated into websites, LLM-powered chatbots offer alternative means of navigation and information retrieval, leading to a shift in how users access information on the web. Yet, predominantly closed-sourced solutions limit proliferation among web hosts and suffer from a lack of transparency with regard to implementation details and energy efficiency. In this work, we propose our openly available agent Talk2X leveraging an adapted retrieval-augmented generation approach (RAG) combined with an automatically generated vector database, benefiting energy efficiency. Talk2X’s architecture is generalizable to arbitrary websites offering developers a ready to use tool for integration. Using a mixed-methods approach, we evaluated Talk2X’s usability by tasking users to acquire specific assets from an open science repository. Talk2X significantly improved task completion time, correctness, and user experience supporting users in quickly pinpointing specific information as compared to standard user-website interaction. Our findings contribute technical advancements to an ongoing paradigm shift of how we access information on the web.

arxiv情報

著者 Lars Krupp,Daniel Geißler,Peter Hevesi,Marco Hirsch,Paul Lukowicz,Jakob Karolus
発行日 2025-04-04 10:58:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.HC, cs.IR | Talk2X — An Open-Source Toolkit Facilitating Deployment of LLM-Powered Chatbots on the Web はコメントを受け付けていません

Deterministic Policy Gradient Primal-Dual Methods for Continuous-Space Constrained MDPs

要約

本研究では、制約付き力学系で広く遭遇する、連続的な状態・行動空間を持つ制約付きマルコフ決定過程(MDP)に対する決定論的最適政策の計算問題を研究する。連続状態・行動空間における決定論的な政策勾配法の設計は、列挙可能な状態-行動ペアの欠如と決定論的政策の採用のために特に困難であり、既存の政策勾配法の適用を妨げている。このため我々は、非漸近収束で最適な決定論的政策を求める決定論的政策勾配原始双対法を開発する。具体的には、制約付きMDPのラグランジアンの正則化を利用し、二次正則化勾配上昇ステップにより決定論的政策を更新し、二次正則化勾配降下ステップにより双対変数を更新する決定論的政策勾配原始双対(D-PGPD)アルゴリズムを提案する。D-GPDのプライマル・デュアルの反復が最適な正則化されたプライマル・デュアルの組に準線形速度で収束することを証明する。D-PGPDを関数近似でインスタンス化し、D-PGPDのプライマル・デュアルの反復が、関数近似誤差の範囲内で、最適な正則化されたプライマル・デュアルの組に準線形収束することを証明する。さらに、ロボットナビゲーションと流体制御という2つの連続制御問題において、本手法の有効性を実証する。これは、連続空間制約付きMDPに対する決定論的な政策探索法を提案した最初の研究であると思われる。

要約(オリジナル)

We study the problem of computing deterministic optimal policies for constrained Markov decision processes (MDPs) with continuous state and action spaces, which are widely encountered in constrained dynamical systems. Designing deterministic policy gradient methods in continuous state and action spaces is particularly challenging due to the lack of enumerable state-action pairs and the adoption of deterministic policies, hindering the application of existing policy gradient methods. To this end, we develop a deterministic policy gradient primal-dual method to find an optimal deterministic policy with non-asymptotic convergence. Specifically, we leverage regularization of the Lagrangian of the constrained MDP to propose a deterministic policy gradient primal-dual (D-PGPD) algorithm that updates the deterministic policy via a quadratic-regularized gradient ascent step and the dual variable via a quadratic-regularized gradient descent step. We prove that the primal-dual iterates of D-PGPD converge at a sub-linear rate to an optimal regularized primal-dual pair. We instantiate D-PGPD with function approximation and prove that the primal-dual iterates of D-PGPD converge at a sub-linear rate to an optimal regularized primal-dual pair, up to a function approximation error. Furthermore, we demonstrate the effectiveness of our method in two continuous control problems: robot navigation and fluid control. This appears to be the first work that proposes a deterministic policy search method for continuous-space constrained MDPs.

arxiv情報

著者 Sergio Rozada,Dongsheng Ding,Antonio G. Marques,Alejandro Ribeiro
発行日 2025-04-04 11:14:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, math.OC | Deterministic Policy Gradient Primal-Dual Methods for Continuous-Space Constrained MDPs はコメントを受け付けていません

AI Alignment: A Comprehensive Survey

要約

AIアライメントは、AIシステムを人間の意図や価値観に沿って行動させることを目的としている。AIシステムの能力が高まるにつれ、ミスアライメントによるリスクも高まっている。本調査では、アライメント分野の包括的かつ最新の概要を提供するため、アライメントの中核概念、方法論、実践について掘り下げる。まず、AIアライメントの主要な目的として、4つの原則を挙げる:頑健性(Robustness)、解釈可能性(Interpretability)、制御可能性(Controllability)、倫理性(Ethicality)である。これらの4つの原則に導かれ、現在のアライメント研究の状況を概説し、それらを2つの重要な構成要素、すなわちフォワード・アライメントとバックワード・アライメントに分解する。前者は、アライメント・トレーニングによってAIシステムをアライメントさせることを目的とし、後者は、システムのアライメントに関するエビデンスを得て、ミスアライメントのリスクを悪化させないように適切に制御することを目的としている。フォワード・アライメントについては、フィードバックからの学習と分布シフト下での学習の技術について議論する。バックワード・アライメントについては、保証手法とガバナンスの実践について説明する。 また、チュートリアル、論文集、ブログ記事、その他のリソースを掲載したウェブサイト(www.alignmentsurvey.com)を公開し、継続的に更新しています。

要約(オリジナル)

AI alignment aims to make AI systems behave in line with human intentions and values. As AI systems grow more capable, so do risks from misalignment. To provide a comprehensive and up-to-date overview of the alignment field, in this survey, we delve into the core concepts, methodology, and practice of alignment. First, we identify four principles as the key objectives of AI alignment: Robustness, Interpretability, Controllability, and Ethicality (RICE). Guided by these four principles, we outline the landscape of current alignment research and decompose them into two key components: forward alignment and backward alignment. The former aims to make AI systems aligned via alignment training, while the latter aims to gain evidence about the systems’ alignment and govern them appropriately to avoid exacerbating misalignment risks. On forward alignment, we discuss techniques for learning from feedback and learning under distribution shift. On backward alignment, we discuss assurance techniques and governance practices. We also release and continually update the website (www.alignmentsurvey.com) which features tutorials, collections of papers, blog posts, and other resources.

arxiv情報

著者 Jiaming Ji,Tianyi Qiu,Boyuan Chen,Borong Zhang,Hantao Lou,Kaile Wang,Yawen Duan,Zhonghao He,Lukas Vierling,Donghai Hong,Jiayi Zhou,Zhaowei Zhang,Fanzhi Zeng,Juntao Dai,Xuehai Pan,Kwan Yee Ng,Aidan O’Gara,Hua Xu,Brian Tse,Jie Fu,Stephen McAleer,Yaodong Yang,Yizhou Wang,Song-Chun Zhu,Yike Guo,Wen Gao
発行日 2025-04-04 11:14:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI | AI Alignment: A Comprehensive Survey はコメントを受け付けていません

End-to-end Learning of Sparse Interventions on Activations to Steer Generation

要約

日常生活において生成モデルの利用が増加しているため、例えば安全なコンテンツを生成したり、スタイルの変化を探索するためのツールをユーザーに提供したりするために、その生成を制御する効率的なメカニズムが求められている。理想的には、そのような機構は、出力品質を保ちつつ、学習時と推論時の両方で安価であるべきである。最近の研究では、このようなメカニズムは、ソースセットとターゲットセット(例えば、有毒文と無毒文)のプロンプトを使用したときに見られる活性度の分布の違いを修正することを目的として、モデルの活性度のみに介入することで得られることが示されている。そのマップは局所的に調整され、下流の層への影響を考慮しないため、サンプル外で使用すると意図しないシフトを引き起こす介入になる。我々はこの研究で、線形エンド・ツー・エンド活性化ステアリング(LinEAS)を提案する。よりロバストであることに加え、LinEASを訓練するために使用される損失は、スパース化ノルムを用いて正則化することができ、ニューロンや層の選択を自動的に行うことができる。経験的に、LinEASはほんの一握りのサンプルで効果を発揮し、毒性緩和において類似のベースラインを打ち負かす一方、はるかに複雑な微調整アプローチと同等の性能を発揮する。我々は、LinEAS介入が構成可能であることを示し、その性能に対するスパース性の影響を研究し、テキストから画像への拡散への応用を紹介する。

要約(オリジナル)

The growing use of generative models in daily life calls for efficient mechanisms to control their generation, to e.g., produce safe content or provide users with tools to explore style changes. Ideally, such mechanisms should be cheap, both at train and inference time, while preserving output quality. Recent research has shown that such mechanisms can be obtained by intervening exclusively on model activations, with the goal of correcting distributional differences between activations seen when using prompts from a source vs. a target set (e.g., toxic and non-toxic sentences). While cheap, these fast methods are inherently crude: their maps are tuned locally, not accounting for their impact on downstream layers, resulting in interventions that cause unintended shifts when used out-of-sample. We propose in this work linear end-to-end activation steering (LinEAS), an approach trained with a global loss that accounts simultaneously for all layerwise distributional shifts. In addition to being more robust, the loss used to train LinEAS can be regularized with sparsifying norms, which can automatically carry out neuron and layer selection. Empirically, LinEAS only requires a handful of samples to be effective, and beats similar baselines on toxicity mitigation, while performing on par with far more involved finetuning approaches. We show that LinEAS interventions can be composed, study the impact of sparsity on their performance, and showcase applications in text-to-image diffusions.

arxiv情報

著者 Pau Rodriguez,Michal Klein,Eleonora Gualdoni,Arno Blaas,Luca Zappella,Marco Cuturi,Xavier Suau
発行日 2025-04-04 11:17:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL | End-to-end Learning of Sparse Interventions on Activations to Steer Generation はコメントを受け付けていません

Decentralized Collective World Model for Emergent Communication and Coordination

要約

我々は、コミュニケーションのためのシンボル創発と、集合的予測符号化の時間的拡張による協調行動の両方を可能にする、完全分散型マルチエージェント世界モデルを提案する。コミュニケーションか協調のどちらかに別々に焦点を当てた先行研究とは異なり、我々のアプローチは両方を同時に達成する。我々の手法は世界モデルとコミュニケーションチャネルを統合し、エージェントが環境ダイナミクスを予測し、部分的な観測から状態を推定し、メッセージ整列のための対比学習による双方向メッセージ交換を通じて重要な情報を共有することを可能にする。2エージェントの軌跡描画タスクを用いて、エージェントが乖離した知覚能力を持つ場合に、我々のコミュニケーションベースのアプローチが非コミュニケーションモデルを凌駕し、集中型モデルに次ぐ協調を達成することを実証する。重要なことは、他のエージェントの内部状態への直接アクセスを妨げる制約を持つ我々の分散アプローチが、環境状態を正確に反映する、より意味のあるシンボルシステムの出現を促進することである。これらの結果は、環境の共有表現を発展させながら協調を支援するための分散型コミュニケーションの有効性を示している。

要約(オリジナル)

We propose a fully decentralized multi-agent world model that enables both symbol emergence for communication and coordinated behavior through temporal extension of collective predictive coding. Unlike previous research that focuses on either communication or coordination separately, our approach achieves both simultaneously. Our method integrates world models with communication channels, enabling agents to predict environmental dynamics, estimate states from partial observations, and share critical information through bidirectional message exchange with contrastive learning for message alignment. Using a two-agent trajectory drawing task, we demonstrate that our communication-based approach outperforms non-communicative models when agents have divergent perceptual capabilities, achieving the second-best coordination after centralized models. Importantly, our distributed approach with constraints preventing direct access to other agents’ internal states facilitates the emergence of more meaningful symbol systems that accurately reflect environmental states. These findings demonstrate the effectiveness of decentralized communication for supporting coordination while developing shared representations of the environment.

arxiv情報

著者 Kentaro Nomura,Tatsuya Aoki,Tadahiro Taniguchi,Takato Horii
発行日 2025-04-04 11:17:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.MA | Decentralized Collective World Model for Emergent Communication and Coordination はコメントを受け付けていません

Sustainable LLM Inference for Edge AI: Evaluating Quantized LLMs for Energy Efficiency, Output Accuracy, and Inference Latency

要約

大規模言語モデル(LLM)をエッジデバイス上に展開することは、計算上の制約、メモリ制限、推論速度、エネルギー消費により、重大な課題となる。モデルの量子化は、モデルサイズと計算オーバーヘッドを削減することで、効率的なLLM推論を可能にする重要な技術として浮上している。本研究では、Ollamaライブラリに含まれる28個の量子化LLMの包括的な解析を行い、デフォルトでPost-Training Quantization (PTQ)とweight-only quantization技術を適用し、エッジデバイス(4GB RAM搭載のRaspberry Pi 4)に導入しました。複数の量子化レベルとタスクタイプにわたって、エネルギー効率、推論性能、出力精度を評価する。モデルは、5つの標準化されたデータセット(CommonsenseQA、BIG-Bench Hard、TruthfulQA、GSM8K、HumanEval)でベンチマークされ、高解像度のハードウェアベースのエネルギー測定ツールを使用して、実世界の消費電力をキャプチャします。その結果、さまざまな量子化設定におけるエネルギー効率、推論速度、精度のトレードオフが明らかになり、リソースに制約のある環境でのLLM展開を最適化する構成が浮き彫りになりました。ハードウェアレベルのエネルギープロファイリングとLLMベンチマークを統合することで、本研究は、持続可能なAIのための実用的な洞察を提供し、エネルギーを考慮したLLM展開に関する既存の研究における重要なギャップを埋める。

要約(オリジナル)

Deploying Large Language Models (LLMs) on edge devices presents significant challenges due to computational constraints, memory limitations, inference speed, and energy consumption. Model quantization has emerged as a key technique to enable efficient LLM inference by reducing model size and computational overhead. In this study, we conduct a comprehensive analysis of 28 quantized LLMs from the Ollama library, which applies by default Post-Training Quantization (PTQ) and weight-only quantization techniques, deployed on an edge device (Raspberry Pi 4 with 4GB RAM). We evaluate energy efficiency, inference performance, and output accuracy across multiple quantization levels and task types. Models are benchmarked on five standardized datasets (CommonsenseQA, BIG-Bench Hard, TruthfulQA, GSM8K, and HumanEval), and we employ a high-resolution, hardware-based energy measurement tool to capture real-world power consumption. Our findings reveal the trade-offs between energy efficiency, inference speed, and accuracy in different quantization settings, highlighting configurations that optimize LLM deployment for resource-constrained environments. By integrating hardware-level energy profiling with LLM benchmarking, this study provides actionable insights for sustainable AI, bridging a critical gap in existing research on energy-aware LLM deployment.

arxiv情報

著者 Erik Johannes Husom,Arda Goknil,Merve Astekin,Lwin Khin Shar,Andre Kåsen,Sagar Sen,Benedikt Andreas Mithassel,Ahmet Soylu
発行日 2025-04-04 11:29:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.CY, cs.LG | Sustainable LLM Inference for Edge AI: Evaluating Quantized LLMs for Energy Efficiency, Output Accuracy, and Inference Latency はコメントを受け付けていません

Are clinicians ethically obligated to disclose their use of medical machine learning systems to patients?

要約

臨床医には、医療機械学習システムの使用を患者に開示する倫理的義務があり、それを怠ることは、臨床医が責任を負うべき道徳的過失に相当する、というのが一般的な考え方である。これを「開示論」と呼ぶ。倫理学の文献では、開示テーゼを支持するために4つの主要な議論がなされてきた、あるいはなされうる。リスクに基づく議論、権利に基づく議論、重要性の議論、そして自律性の議論である。本稿では、これら4つの論拠はいずれも説得力に欠けるため、開示論は否定されるべきであると主張する。開示を義務付けることは、これらのシステムの不適切な適用や使用から生じる危害に対する説明責任を回避する方法を利害関係者に提供することになり、患者に危害を及ぼす危険性さえあることを示唆する。

要約(オリジナル)

It is commonly accepted that clinicians are ethically obligated to disclose their use of medical machine learning systems to patients, and that failure to do so would amount to a moral fault for which clinicians ought to be held accountable. Call this ‘the disclosure thesis.’ Four main arguments have been, or could be, given to support the disclosure thesis in the ethics literature: the risk-based argument, the rights-based argument, the materiality argument, and the autonomy argument. In this article, I argue that each of these four arguments are unconvincing, and therefore, that the disclosure thesis ought to be rejected. I suggest that mandating disclosure may also even risk harming patients by providing stakeholders with a way to avoid accountability for harm that results from improper applications or uses of these systems.

arxiv情報

著者 Joshua Hatherley
発行日 2025-04-04 11:35:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CY, cs.LG | Are clinicians ethically obligated to disclose their use of medical machine learning systems to patients? はコメントを受け付けていません