Adaptive Budgeted Multi-Armed Bandits for IoT with Dynamic Resource Constraints

要約

モノのインターネット(IoT)システムは、エネルギーや帯域幅などの変動するリソースの制約を管理しながら、デバイスがリアルタイムで応答しなければならない環境で運用されることが増えている。しかし、現在のアプローチでは、運用上の制約が時間とともに変化するシナリオに対応できないことが多い。これらの制限に対処するために、我々は、動的な運用制限を持つIoTアプリケーションに合わせた新しいBudgeted Multi-Armed Banditフレームワークを提案する。我々のモデルは、学習プロセスの初期には制限された制約違反を許容し、時間の経過とともに徐々に厳しいコンプライアンスを強制する、減衰する違反予算を導入する。我々は、性能最適化と時間変化する制約への準拠のバランスを適応的にとるBudgeted Upper Confidence Bound (UCB)アルゴリズムを提示する。本論文では、Budgeted UCBが、学習ホライズンにおいて線形以下の後悔と対数の制約違反を達成することを理論的に保証する。無線通信の設定における広範なシミュレーションにより、本アプローチが標準的なオンライン学習手法よりも高速な適応と優れた制約充足を達成することを示す。これらの結果は、適応的でリソースを意識したIoTシステムを構築するためのフレームワークの可能性を強調している。

要約(オリジナル)

Internet of Things (IoT) systems increasingly operate in environments where devices must respond in real time while managing fluctuating resource constraints, including energy and bandwidth. Yet, current approaches often fall short in addressing scenarios where operational constraints evolve over time. To address these limitations, we propose a novel Budgeted Multi-Armed Bandit framework tailored for IoT applications with dynamic operational limits. Our model introduces a decaying violation budget, which permits limited constraint violations early in the learning process and gradually enforces stricter compliance over time. We present the Budgeted Upper Confidence Bound (UCB) algorithm, which adaptively balances performance optimization and compliance with time-varying constraints. We provide theoretical guarantees showing that Budgeted UCB achieves sublinear regret and logarithmic constraint violations over the learning horizon. Extensive simulations in a wireless communication setting show that our approach achieves faster adaptation and better constraint satisfaction than standard online learning methods. These results highlight the framework’s potential for building adaptive, resource-aware IoT systems.

arxiv情報

著者 Shubham Vaishnav,Praveen Kumar Donta,Sindri Magnússon
発行日 2025-05-05 13:33:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, cs.NI | Adaptive Budgeted Multi-Armed Bandits for IoT with Dynamic Resource Constraints はコメントを受け付けていません

Eye Movements as Indicators of Deception: A Machine Learning Approach

要約

視線は嘘発見器の頑健性を高める可能性があるが、まだ十分に研究されていない。本研究では、AIモデル(固視、サッカード、まばたき、瞳孔の大きさを使用)が、Concealed Information Testsにおける欺瞞を検出する有効性を、2つのデータセットで評価した。1つ目は、Eyelink 1000で収集されたもので、87人の参加者が事前に選択したカードの価値を明らかにしたり、隠したり、偽ったりしたコンピュータ実験の視線データが含まれている。もう1つはPupil Neonで収集されたもので、36人の参加者が同じようなタスクを行ったが、実験者と向かい合っていた。XGBoostは、二値分類課題(暴露vs.隠蔽)では最高74%の精度を達成し、より困難な三分類課題(暴露vs.隠蔽vs.フェイク)では49%の精度を達成した。特徴分析により、サッケードの数、持続時間、振幅、最大瞳孔径が欺瞞予測に最も重要であることが同定された。これらの結果は、嘘発見器を強化するために視線とAIを使用することの実現可能性を示し、これを改善する可能性のある将来の研究を奨励している。

要約(オリジナル)

Gaze may enhance the robustness of lie detectors but remains under-studied. This study evaluated the efficacy of AI models (using fixations, saccades, blinks, and pupil size) for detecting deception in Concealed Information Tests across two datasets. The first, collected with Eyelink 1000, contains gaze data from a computerized experiment where 87 participants revealed, concealed, or faked the value of a previously selected card. The second, collected with Pupil Neon, involved 36 participants performing a similar task but facing an experimenter. XGBoost achieved accuracies up to 74% in a binary classification task (Revealing vs. Concealing) and 49% in a more challenging three-classification task (Revealing vs. Concealing vs. Faking). Feature analysis identified saccade number, duration, amplitude, and maximum pupil size as the most important for deception prediction. These results demonstrate the feasibility of using gaze and AI to enhance lie detectors and encourage future research that may improve on this.

arxiv情報

著者 Valentin Foucher,Santiago de Leon-Martinez,Robert Moro
発行日 2025-05-05 13:50:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.HC, cs.LG | Eye Movements as Indicators of Deception: A Machine Learning Approach はコメントを受け付けていません

SCFormer: Structured Channel-wise Transformer with Cumulative Historical State for Multivariate Time Series Forecasting

要約

Transformerモデルは、チャネルワイズ自己注意を活用することで、多変量時系列予測において強力な性能を示してきた。しかし、このアプローチには時間的特徴を計算する際の時間的制約がなく、累積履歴系列を効果的に利用できない。これらの限界に対処するため、累積履歴状態を持つ構造化チャネルワイズ変換器(Structured Channel-wise Transformer with Cumulative Historical state:SCFormer)を提案する。SCFormerは、Transformer内の完全連結層だけでなく、クエリ行列、キー行列、値行列を含むすべての線形変換に時間制約を導入する。さらにSCFormerは、累積的な過去の時系列を扱うために高次多項式射影演算子(HiPPO)を採用し、予測時にルックバックウィンドウを超えた情報をモデルに取り込むことを可能にする。複数の実世界データセットでの広範な実験により、SCFormerが主流のベースラインを大幅に上回ることが実証され、時系列予測を強化する上での有効性が強調された。コードは https://github.com/ShiweiGuo1995/SCFormer で公開されている。

要約(オリジナル)

The Transformer model has shown strong performance in multivariate time series forecasting by leveraging channel-wise self-attention. However, this approach lacks temporal constraints when computing temporal features and does not utilize cumulative historical series effectively.To address these limitations, we propose the Structured Channel-wise Transformer with Cumulative Historical state (SCFormer). SCFormer introduces temporal constraints to all linear transformations, including the query, key, and value matrices, as well as the fully connected layers within the Transformer. Additionally, SCFormer employs High-order Polynomial Projection Operators (HiPPO) to deal with cumulative historical time series, allowing the model to incorporate information beyond the look-back window during prediction. Extensive experiments on multiple real-world datasets demonstrate that SCFormer significantly outperforms mainstream baselines, highlighting its effectiveness in enhancing time series forecasting. The code is publicly available at https://github.com/ShiweiGuo1995/SCFormer

arxiv情報

著者 Shiwei Guo,Ziang Chen,Yupeng Ma,Yunfei Han,Yi Wang
発行日 2025-05-05 13:59:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG | SCFormer: Structured Channel-wise Transformer with Cumulative Historical State for Multivariate Time Series Forecasting はコメントを受け付けていません

A Note on Statistically Accurate Tabular Data Generation Using Large Language Models

要約

大規模言語モデル(Large Language Model: LLM)は、表形式の合成データ生成において有望視されているが、既存の手法では、特にカテゴリー変数間の複雑な特徴依存関係を保持するのに苦労している。本研究では、LLMを活用して条件分布を推定し、より正確でスケーラブルなデータ合成を可能にする確率駆動型プロンプティングアプローチを紹介する。その結果、LLMで生成された表形式データの統計的忠実度を向上させる確率分布のプロンプト化の可能性が強調された。

要約(オリジナル)

Large language models (LLMs) have shown promise in synthetic tabular data generation, yet existing methods struggle to preserve complex feature dependencies, particularly among categorical variables. This work introduces a probability-driven prompting approach that leverages LLMs to estimate conditional distributions, enabling more accurate and scalable data synthesis. The results highlight the potential of prompting probobility distributions to enhance the statistical fidelity of LLM-generated tabular data.

arxiv情報

著者 Andrey Sidorenko
発行日 2025-05-05 14:05:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG | A Note on Statistically Accurate Tabular Data Generation Using Large Language Models はコメントを受け付けていません

A Survey of Slow Thinking-based Reasoning LLMs using Reinforced Learning and Inference-time Scaling Law

要約

このサーベイでは、カーネマンの「Thinking, Fast and Slow(思考は速く、そして遅く)」に記述されているように、人間の認知に着想を得た推論プロセスである「スローシンキング」を模倣するように設計された推論大規模言語モデル(LLM)の最近の進歩を探る。OpenAIのo1のようなこれらのモデルは、数学的推論、視覚的推論、医療診断、マルチエージェントディベートなどの複雑なタスク中に計算リソースを動的にスケーリングすることに焦点を当てています。我々は、推論LLMの開発を紹介し、その主要な技術を列挙する。100以上の研究を総合することで、人間のような深い思考とスケーラブルな推論効率を兼ね備えたLLMへの道筋を描く。(1)探索とサンプリング、動的検証により、タスクの複雑性に基づいて計算を動的に調整するテストタイムスケーリング、(2)ポリシーネットワーク、報酬モデル、自己進化戦略を活用した反復的改善により意思決定を洗練させる強化学習、(3)管理可能なステップで問題解決を構造化するスローシンキングフレームワーク(長いCoT、階層プロセスなど)。本調査は、この領域の課題とさらなる方向性を浮き彫りにしている。LLMの推論能力を理解し、発展させることは、科学的発見から意思決定支援システムまで、実世界のアプリケーションにおけるLLMの潜在能力を最大限に引き出すために極めて重要である。

要約(オリジナル)

This survey explores recent advancements in reasoning large language models (LLMs) designed to mimic ‘slow thinking’ – a reasoning process inspired by human cognition, as described in Kahneman’s Thinking, Fast and Slow. These models, like OpenAI’s o1, focus on scaling computational resources dynamically during complex tasks, such as math reasoning, visual reasoning, medical diagnosis, and multi-agent debates. We present the development of reasoning LLMs and list their key technologies. By synthesizing over 100 studies, it charts a path toward LLMs that combine human-like deep thinking with scalable efficiency for reasoning. The review breaks down methods into three categories: (1) test-time scaling dynamically adjusts computation based on task complexity via search and sampling, dynamic verification; (2) reinforced learning refines decision-making through iterative improvement leveraging policy networks, reward models, and self-evolution strategies; and (3) slow-thinking frameworks (e.g., long CoT, hierarchical processes) that structure problem-solving with manageable steps. The survey highlights the challenges and further directions of this domain. Understanding and advancing the reasoning abilities of LLMs is crucial for unlocking their full potential in real-world applications, from scientific discovery to decision support systems.

arxiv情報

著者 Qianjun Pan,Wenkai Ji,Yuyang Ding,Junsong Li,Shilian Chen,Junyi Wang,Jie Zhou,Qin Chen,Min Zhang,Yulan Wu,Liang He
発行日 2025-05-05 14:14:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI | A Survey of Slow Thinking-based Reasoning LLMs using Reinforced Learning and Inference-time Scaling Law はコメントを受け付けていません

Backpropagation through space, time, and the brain

要約

時空間的な局所性制約に縛られたニューロンの物理的ネットワークが、どのようにして効率的な単位割り当てを行うことができるかは、依然として未解決の問題である。機械学習では、その答えは、空間と時間の両方を通じて、誤差バックプロパゲーションアルゴリズムによってほぼ普遍的に与えられる。しかし、このアルゴリズムは、特に時空間(非)局所性に関して、生物学的にありえない仮定に依存していることがよく知られている。リアルタイム・リカレント学習などの代替フォワードプロパゲーション・モデルは、局所性問題を部分的に解決するだけであるが、法外なストレージ要件のため、スケーリングの代償を払うだけである。我々は、物理的で動的なニューロンネットワークにおいて、完全に局所的な時空間的信用割り当てのための計算フレームワークである一般化潜在平衡(Generalized Latent Equilibrium:GLE)を導入する。まず、ニューロン-ローカルミスマッチに基づくエネルギーを定義し、そこから定常性によるニューロンダイナミクスと勾配降下によるパラメータダイナミクスの両方を導出する。結果として得られるダイナミクスは、連続時間のニューロンダイナミクスと連続的に活動する局所的シナプス可塑性を持つ深い皮質ネットワークにおける、空間と時間を介したバックプロパゲーションのリアルタイムで生物学的に妥当な近似として解釈することができる。特に、GLEは樹状木の形態を利用することで、単一ニューロンにおけるより複雑な情報の保存と処理を可能にする。また、生物学的ニューロンは膜電位に対して出力速度を位相シフトさせることができるが、これは情報伝播の両方向において不可欠である。順方向計算では、時間的に連続な入力をニューロン空間にマッピングし、時空間畳み込みを効果的に行うことができる。後方計算では、フィードバック信号の時間的反転が可能になり、その結果、有用なパラメータ更新に必要な隣接変数が近似される。

要約(オリジナル)

How physical networks of neurons, bound by spatio-temporal locality constraints, can perform efficient credit assignment, remains, to a large extent, an open question. In machine learning, the answer is almost universally given by the error backpropagation algorithm, through both space and time. However, this algorithm is well-known to rely on biologically implausible assumptions, in particular with respect to spatio-temporal (non-)locality. Alternative forward-propagation models such as real-time recurrent learning only partially solve the locality problem, but only at the cost of scaling, due to prohibitive storage requirements. We introduce Generalized Latent Equilibrium (GLE), a computational framework for fully local spatio-temporal credit assignment in physical, dynamical networks of neurons. We start by defining an energy based on neuron-local mismatches, from which we derive both neuronal dynamics via stationarity and parameter dynamics via gradient descent. The resulting dynamics can be interpreted as a real-time, biologically plausible approximation of backpropagation through space and time in deep cortical networks with continuous-time neuronal dynamics and continuously active, local synaptic plasticity. In particular, GLE exploits the morphology of dendritic trees to enable more complex information storage and processing in single neurons, as well as the ability of biological neurons to phase-shift their output rate with respect to their membrane potential, which is essential in both directions of information propagation. For the forward computation, it enables the mapping of time-continuous inputs to neuronal space, effectively performing a spatio-temporal convolution. For the backward computation, it permits the temporal inversion of feedback signals, which consequently approximate the adjoint variables necessary for useful parameter updates.

arxiv情報

著者 Benjamin Ellenberger,Paul Haider,Jakob Jordan,Kevin Max,Ismael Jaras,Laura Kriener,Federico Benitez,Mihai A. Petrovici
発行日 2025-05-05 14:43:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, cs.NE, eess.SP, q-bio.NC | Backpropagation through space, time, and the brain はコメントを受け付けていません

AI Standardized Patient Improves Human Conversations in Advanced Cancer Care

要約

終末期医療における重病コミュニケーション(SIC)は、感情的ストレス、文化的障壁、希望と誠実さのバランスといった課題に直面している。その重要性にもかかわらず、臨床医がSICを実践するための数少ない方法の1つは、標準化された患者を用いることであり、これは高価で、時間がかかり、柔軟性に欠ける。本稿では、AIを活用した標準化患者シミュレーションと自動フィードバックシステムであるSOPHIEを紹介する。SOPHIEは、大規模言語モデル(LLM)、本物そっくりの仮想アバター、臨床文献に基づく自動化されたパーソナライズされたフィードバックを組み合わせ、遠隔でオンデマンドのSICトレーニングを提供する。ヘルスケアの学生や専門家を対象とした無作為化対照試験では、SOPHIEのユーザーは、3つの重要なSICドメインにわたって有意な改善を示した:Empathize(共感する)」、「Be Explicit(明確に説明する)」、「Empower(力を与える)」です。これらの結果は、AI主導のツールが複雑な対人コミュニケーションスキルを向上させ、臨床医教育における重大なギャップを解決するための拡張可能で利用しやすいソリューションを提供できることを示唆している。

要約(オリジナル)

Serious illness communication (SIC) in end-of-life care faces challenges such as emotional stress, cultural barriers, and balancing hope with honesty. Despite its importance, one of the few available ways for clinicians to practice SIC is with standardized patients, which is expensive, time-consuming, and inflexible. In this paper, we present SOPHIE, an AI-powered standardized patient simulation and automated feedback system. SOPHIE combines large language models (LLMs), a lifelike virtual avatar, and automated, personalized feedback based on clinical literature to provide remote, on-demand SIC training. In a randomized control study with healthcare students and professionals, SOPHIE users demonstrated significant improvement across three critical SIC domains: Empathize, Be Explicit, and Empower. These results suggest that AI-driven tools can enhance complex interpersonal communication skills, offering scalable, accessible solutions to address a critical gap in clinician education.

arxiv情報

著者 Kurtis Haut,Masum Hasan,Thomas Carroll,Ronald Epstein,Taylan Sen,Ehsan Hoque
発行日 2025-05-05 14:44:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.HC | AI Standardized Patient Improves Human Conversations in Advanced Cancer Care はコメントを受け付けていません

From Human Judgements to Predictive Models: Unravelling Acceptability in Code-Mixed Sentences

要約

コード混合文の分析や生成のための現在の計算機的アプローチは、コード混合文の「自然さ」や「受け入れ可能性」を明示的にモデル化しておらず、受け入れ可能なコード混合文の分布を反映するための学習コーパスに依存している。コード混合文の受け入れ可能性に関する人間の判断をモデル化することは、自然なコード混合文を区別するのに役立ち、コード混合文の品質管理を可能にする。この目的のために、我々はClineを構築した。Clineは、英語とヒンディー語(en-hi)のコード混合テキストに対する人間の受容性判断を含むデータセットである。Clineは16,642文からなるこの種のデータセットとしては最大規模であり、合成的に生成されたコード混合テキストとオンラインソーシャルメディアから収集されたサンプルの2つのソースから構成されている。我々の分析により、CMI、スイッチポイント数、バースティンなどの一般的なコードミキシングメトリクスは、コードミックスコーパスのフィルタリング/キュレーション/比較に使用されるが、人間の受容性判断との相関が低いことが立証され、我々のデータセットの必要性が強調された。Clineを用いた実験では、単純な多層パーセプトロン(MLP)モデルをコードミキシングメトリクスのみを特徴として用いて訓練した場合、事前に訓練された多言語大規模言語モデル(MLLM)よりも優れていることが実証された。具体的には、エンコーダモデルの中では、XLM-RobertaとBerniceが、様々な構成においてIndicBERTを上回る。エンコーダ-デコーダモデルの中では、mBARTがmT5よりも性能が良いが、エンコーダ-デコーダモデルはエンコーダのみのモデルを上回ることはできない。デコーダのみのモデルは、他のすべてのMLLMSと比較した場合、Llama 3.2-3Bモデルが同規模のQwen、Phiモデルを上回り、最高のパフォーマンスを示しています。ChatGPTのゼロショットおよび少数ショット機能との比較では、より大きなデータで微調整されたMLLMがChatGPTを上回り、コード混在タスクでの改善の余地があることを示しています。ゼロショットによるEn-HiからEn-Teへの可用性判定は、ランダムベースラインよりも優れている。

要約(オリジナル)

Current computational approaches for analysing or generating code-mixed sentences do not explicitly model “naturalness” or “acceptability” of code-mixed sentences, but rely on training corpora to reflect distribution of acceptable code-mixed sentences. Modelling human judgement for the acceptability of code-mixed text can help in distinguishing natural code-mixed text and enable quality-controlled generation of code-mixed text. To this end, we construct Cline – a dataset containing human acceptability judgements for English-Hindi~(en-hi) code-mixed text. Cline is the largest of its kind with 16,642 sentences, consisting of samples sourced from two sources: synthetically generated code-mixed text and samples collected from online social media. Our analysis establishes that popular code-mixing metrics such as CMI, Number of Switch Points, Burstines, which are used to filter/curate/compare code-mixed corpora have low correlation with human acceptability judgements, underlining the necessity of our dataset. Experiments using Cline demonstrate that simple Multilayer Perceptron (MLP) models when trained solely using code-mixing metrics as features are outperformed by fine-tuned pre-trained Multilingual Large Language Models (MLLMs). Specifically, among Encoder models XLM-Roberta and Bernice outperform IndicBERT across different configurations. Among Encoder-Decoder models, mBART performs better than mT5, however Encoder-Decoder models are not able to outperform Encoder-only models. Decoder-only models perform the best when compared to all other MLLMS, with Llama 3.2 – 3B models outperforming similarly sized Qwen, Phi models. Comparison with zero and fewshot capabilitites of ChatGPT show that MLLMs fine-tuned on larger data outperform ChatGPT, providing scope for improvement in code-mixed tasks. Zero-shot transfer from En-Hi to En-Te acceptability judgments are better than random baselines.

arxiv情報

著者 Prashant Kodali,Anmol Goel,Likhith Asapu,Vamshi Krishna Bonagiri,Anirudh Govil,Monojit Choudhury,Ponnurangam Kumaraguru,Manish Shrivastava
発行日 2025-05-05 14:51:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL | From Human Judgements to Predictive Models: Unravelling Acceptability in Code-Mixed Sentences はコメントを受け付けていません

Voila: Voice-Language Foundation Models for Real-Time Autonomous Interaction and Voice Role-Play

要約

日常生活にシームレスに溶け込む音声AIエージェントは、自律的で、リアルタイムで、感情表現豊かな方法で人間と対話する。単にコマンドに反応するのではなく、絶えず耳を傾け、推論し、主体的に反応することで、流動的でダイナミック、かつ感情的に共鳴するインタラクションを育むだろう。このビジョンへの一歩を踏み出す、大規模な音声言語基盤モデル・ファミリーであるVoilaを紹介する。Voilaは、トーン、リズム、感情などの豊かなボーカルのニュアンスを保持しながら、全二重、低遅延の会話を可能にする新しいエンドツーエンド・アーキテクチャを採用することで、従来のパイプライン・システムを超えています。人間の平均応答時間を上回る、わずか195ミリ秒の応答レイテンシーを達成。その階層型マルチスケールトランスフォーマーは、大規模言語モデル(LLM)の推論能力と強力な音響モデリングを統合し、自然でペルソナを意識した音声生成を可能にします。さらに、Voilaは100万以上のプリビルド音声をサポートしており、10秒という短い音声サンプルから新しい音声を効率的にカスタマイズすることができます。音声ダイアログにとどまらず、Voilaは自動音声認識(ASR)、テキスト音声合成(TTS)、最小限の適応で多言語音声翻訳など、幅広い音声ベースのアプリケーションのための統一モデルとして設計されています。Voilaは、オープンな研究をサポートし、次世代の人間と機械の相互作用に向けた進歩を加速するために、完全にオープンソース化されています。

要約(オリジナル)

A voice AI agent that blends seamlessly into daily life would interact with humans in an autonomous, real-time, and emotionally expressive manner. Rather than merely reacting to commands, it would continuously listen, reason, and respond proactively, fostering fluid, dynamic, and emotionally resonant interactions. We introduce Voila, a family of large voice-language foundation models that make a step towards this vision. Voila moves beyond traditional pipeline systems by adopting a new end-to-end architecture that enables full-duplex, low-latency conversations while preserving rich vocal nuances such as tone, rhythm, and emotion. It achieves a response latency of just 195 milliseconds, surpassing the average human response time. Its hierarchical multi-scale Transformer integrates the reasoning capabilities of large language models (LLMs) with powerful acoustic modeling, enabling natural, persona-aware voice generation — where users can simply write text instructions to define the speaker’s identity, tone, and other characteristics. Moreover, Voila supports over one million pre-built voices and efficient customization of new ones from brief audio samples as short as 10 seconds. Beyond spoken dialogue, Voila is designed as a unified model for a wide range of voice-based applications, including automatic speech recognition (ASR), Text-to-Speech (TTS), and, with minimal adaptation, multilingual speech translation. Voila is fully open-sourced to support open research and accelerate progress toward next-generation human-machine interactions.

arxiv情報

著者 Yemin Shi,Yu Shu,Siwei Dong,Guangyi Liu,Jaward Sesay,Jingwen Li,Zhiting Hu
発行日 2025-05-05 15:05:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.SD | Voila: Voice-Language Foundation Models for Real-Time Autonomous Interaction and Voice Role-Play はコメントを受け付けていません

Technical Report: Evaluating Goal Drift in Language Model Agents

要約

言語モデル(LM)が自律型エージェントとして導入されるにつれ、人間が設定した目標に忠実に従うことが、安全な運用のために重要になってきている。このようなエージェントが人間の監視を受けずに長期間自立的に動作する場合、当初は適切に設定された目標であっても、徐々にずれていく可能性がある。目標が徐々に変化し、微妙な行動変化しか引き起こさないため、目標ドリフト(エージェントが時間とともに当初の目標から逸脱する傾向)を検出・測定することは大きな課題となる。本稿では、LMエージェントのゴールドリフトを分析する新しいアプローチを提案する。我々の実験では、エージェントはまずシステムプロンプトによって明示的に目標を与えられ、次に環境からの圧力によって競合する目標にさらされる。その結果、最も成績の良いエージェント(クロード3.5ソネットの足場バージョン)は、最も難しい評価設定において、10万トークンを超える間、ほぼ完璧な目標順守を維持する一方、全ての評価モデルはある程度の目標ドリフトを示すことがわかった。また、ゴールのドリフトは、コンテキストの長さが長くなるにつれて、モデルがパターンマッチングの影響を受けやすくなることと相関していることがわかった。

要約(オリジナル)

As language models (LMs) are increasingly deployed as autonomous agents, their robust adherence to human-assigned objectives becomes crucial for safe operation. When these agents operate independently for extended periods without human oversight, even initially well-specified goals may gradually shift. Detecting and measuring goal drift – an agent’s tendency to deviate from its original objective over time – presents significant challenges, as goals can shift gradually, causing only subtle behavioral changes. This paper proposes a novel approach to analyzing goal drift in LM agents. In our experiments, agents are first explicitly given a goal through their system prompt, then exposed to competing objectives through environmental pressures. We demonstrate that while the best-performing agent (a scaffolded version of Claude 3.5 Sonnet) maintains nearly perfect goal adherence for more than 100,000 tokens in our most difficult evaluation setting, all evaluated models exhibit some degree of goal drift. We also find that goal drift correlates with models’ increasing susceptibility to pattern-matching behaviors as the context length grows.

arxiv情報

著者 Rauno Arike,Elizabeth Donoway,Henning Bartsch,Marius Hobbhahn
発行日 2025-05-05 15:06:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG | Technical Report: Evaluating Goal Drift in Language Model Agents はコメントを受け付けていません