Building Real-time Awareness of Out-of-distribution in Trajectory Prediction for Autonomous Vehicles

要約

現実世界の環境での自動運転車の安全な動作には、正確な軌道予測が不可欠です。
よく訓練された機械学習モデルでさえ、トレーニングデータと推論中に遭遇する現実世界の条件との矛盾により、信頼できない予測を生成する可能性があります。
特に、トレーニングデータセットは、あまり頻繁ではないもの(たとえば、トラフィックサークル)を過小評価している間、一般的なシーン(例えば、ストレートレーンなど)を過剰に表現する傾向があります。
さらに、多くの場合、突然のブレーキングや落下物などの予測不可能な現実世界のイベントを見落としています。
安全性を確保するには、モデルの予測が信頼できなくなったときにリアルタイムで検出することが重要です。
ディストリビューション内(ID)シーンがトレーニングデータと同様のエラーパターンを示す直感を活用すると、分散型(OOD)シーンはそうではありませんが、変化点検出問題としてフレーミングすることにより、OOD検出の原則的でリアルタイムのアプローチを導入します。
OODシーンが欺cept的である挑戦的な設定に対処します。つまり、人間の直観によって簡単に検出できないことを意味します。
当社の軽量ソリューションは、軌道予測推論中にいつでもOODの発生を処理できます。
ベンチマーク軌道予測モデルを使用した複数の実際のデータセットの実験結果は、メソッドの有効性を示しています。

要約(オリジナル)

Accurate trajectory prediction is essential for the safe operation of autonomous vehicles in real-world environments. Even well-trained machine learning models may produce unreliable predictions due to discrepancies between training data and real-world conditions encountered during inference. In particular, the training dataset tends to overrepresent common scenes (e.g., straight lanes) while underrepresenting less frequent ones (e.g., traffic circles). In addition, it often overlooks unpredictable real-world events such as sudden braking or falling objects. To ensure safety, it is critical to detect in real-time when a model’s predictions become unreliable. Leveraging the intuition that in-distribution (ID) scenes exhibit error patterns similar to training data, while out-of-distribution (OOD) scenes do not, we introduce a principled, real-time approach for OOD detection by framing it as a change-point detection problem. We address the challenging settings where the OOD scenes are deceptive, meaning that they are not easily detectable by human intuitions. Our lightweight solutions can handle the occurrence of OOD at any time during trajectory prediction inference. Experimental results on multiple real-world datasets using a benchmark trajectory prediction model demonstrate the effectiveness of our methods.

arxiv情報

著者 Tongfe Guo,Taposh Banerjee,Rui Liu,Lili Su
発行日 2025-04-23 16:07:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Building Real-time Awareness of Out-of-distribution in Trajectory Prediction for Autonomous Vehicles はコメントを受け付けていません

Evolutionary Optimization of Physics-Informed Neural Networks: Advancing Generalizability by the Baldwin Effect

要約

物理学に基づいたニューラルネットワーク(PINN)は、科学的機械学習の最前線にあり、物理的法則を認識し、それらを正確にシミュレートできる機械インテリジェンスの作成を可能にします。
ただし、今日のPINNは、多くの場合、単一の物理学タスクのために訓練されており、類似の物理ドメインからのタスクであっても、新しいタスクごとに計算上の高価な再トレーニングが必要です。
この制限に対処するために、このペーパーでは、ボールドウィンの進化の枠組みを通じてPINNの一般化可能性を進めるための先駆的なアプローチを提案します。
環境を迅速に学び、予測し、反応​​するために進化した早老種の神経発達からインスピレーションを得て、物理学の効率的な学習に強いバイアスを誘導する接続強度で事前に配線されたPINNを想定しています。
生涯学習(これらのタスクのサンプリングされたサブセットを専門とするために)を使用した新しい2段階の確率的プログラミング策定結合進化選択圧力(物理タスクの分布に基づく)を結合することが提案されています。
進化したボールドウィンピンは、最先端のグラデーションベースのメタラーニング方法と比較して、計算コストの一部で予測精度が数桁改善された、経験的に挑戦的な問題インスタンスの範囲にわたって迅速かつ物理的に準拠した予測機能を実証しています。
たとえば、拡散反応方程式を解くと、700倍の計算時間をかけながら精度の70倍の改善が得られました。
したがって、この論文は、一般化可能な物理学ソルバーとしてのPINNのメタ学習における飛躍を告げています。
サンプルコードはhttps://github.com/chiuph/baldwinian-pinnで入手できます。

要約(オリジナル)

Physics-informed neural networks (PINNs) are at the forefront of scientific machine learning, making possible the creation of machine intelligence that is cognizant of physical laws and able to accurately simulate them. However, today’s PINNs are often trained for a single physics task and require computationally expensive re-training for each new task, even for tasks from similar physics domains. To address this limitation, this paper proposes a pioneering approach to advance the generalizability of PINNs through the framework of Baldwinian evolution. Drawing inspiration from the neurodevelopment of precocial species that have evolved to learn, predict and react quickly to their environment, we envision PINNs that are pre-wired with connection strengths inducing strong biases towards efficient learning of physics. A novel two-stage stochastic programming formulation coupling evolutionary selection pressure (based on proficiency over a distribution of physics tasks) with lifetime learning (to specialize on a sampled subset of those tasks) is proposed to instantiate the Baldwin effect. The evolved Baldwinian-PINNs demonstrate fast and physics-compliant prediction capabilities across a range of empirically challenging problem instances with more than an order of magnitude improvement in prediction accuracy at a fraction of the computation cost compared to state-of-the-art gradient-based meta-learning methods. For example, when solving the diffusion-reaction equation, a 70x improvement in accuracy was obtained while taking 700x less computational time. This paper thus marks a leap forward in the meta-learning of PINNs as generalizable physics solvers. Sample codes are available at https://github.com/chiuph/Baldwinian-PINN.

arxiv情報

著者 Jian Cheng Wong,Chin Chun Ooi,Abhishek Gupta,Pao-Hsiung Chiu,Joshua Shao Zheng Low,My Ha Dao,Yew-Soon Ong
発行日 2025-04-23 16:21:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CE, cs.LG, cs.NE | Evolutionary Optimization of Physics-Informed Neural Networks: Advancing Generalizability by the Baldwin Effect はコメントを受け付けていません

Common Functional Decompositions Can Mis-attribute Differences in Outcomes Between Populations

要約

科学と社会科学では、2つの集団で結果が異なる理由をよく説明したいと考えています。
たとえば、雇用プログラムがある都市のメンバーが別の都市よりもメンバーに利益をもたらす場合、プログラム参加者(特定の共変量)または地元の労働市場(共変量を与えられた結果)の違いにより?
Kitagawa-Oaxaca-Blinder(KOB)分解は、2つの集団の平均結果の違いを説明する計量経済学の標準ツールです。
ただし、KOB分解は共変量と結果の間の線形関係を想定していますが、真の関係は有意義に非線形である可能性があります。
現代の機械学習は、1つの集団の結果と共変量の関係について、さまざまな非線形機能分解を誇っています。
これらの機能的分解を使用してKOB分解を拡張することは自然なようです。
成功した拡張は、2つの集団で同じである場合、共変量、またはそれぞれ共変量を与えられた結果を与えられた結果に帰属させるべきではないことを観察します。
残念ながら、単純な例であっても、2つの一般的な分解と局所効果を蓄積した2つの一般的な分解 – は、2つの集団で同一であっても、共変量を与えられた結果に違いを帰する可能性があることを実証します。
機能的なANOVAの誤った誤ったものの特性と、誤った分布を避けるために個別の分解が満たさなければならない一般的な特性の特性を提供します。
分解が入力分布とは無関係である場合、誤って出さないことを示します。
さらに、共変量の分布に依存する合理的な添加剤分解で誤った違いが生じると推測します。

要約(オリジナル)

In science and social science, we often wish to explain why an outcome is different in two populations. For instance, if a jobs program benefits members of one city more than another, is that due to differences in program participants (particular covariates) or the local labor markets (outcomes given covariates)? The Kitagawa-Oaxaca-Blinder (KOB) decomposition is a standard tool in econometrics that explains the difference in the mean outcome across two populations. However, the KOB decomposition assumes a linear relationship between covariates and outcomes, while the true relationship may be meaningfully nonlinear. Modern machine learning boasts a variety of nonlinear functional decompositions for the relationship between outcomes and covariates in one population. It seems natural to extend the KOB decomposition using these functional decompositions. We observe that a successful extension should not attribute the differences to covariates — or, respectively, to outcomes given covariates — if those are the same in the two populations. Unfortunately, we demonstrate that, even in simple examples, two common decompositions — functional ANOVA and Accumulated Local Effects — can attribute differences to outcomes given covariates, even when they are identical in two populations. We provide a characterization of when functional ANOVA misattributes, as well as a general property that any discrete decomposition must satisfy to avoid misattribution. We show that if the decomposition is independent of its input distribution, it does not misattribute. We further conjecture that misattribution arises in any reasonable additive decomposition that depends on the distribution of the covariates.

arxiv情報

著者 Manuel Quintero,William T. Stephenson,Advik Shreekumar,Tamara Broderick
発行日 2025-04-23 16:36:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, econ.EM, stat.ME, stat.ML | Common Functional Decompositions Can Mis-attribute Differences in Outcomes Between Populations はコメントを受け付けていません

An Adaptive ML Framework for Power Converter Monitoring via Federated Transfer Learning

要約

この研究では、トランスファーラーニング(TL)とフェデレートラーニング(FL)を区分的に組み合わせて、パワーコンバーターの熱機械学習(ML)モデルを適応させるための代替フレームワーク構成を調査します。
このアプローチは、さまざまな運用条件、データ共有の制限、セキュリティへの影響などの課題に本質的に対処しています。
フレームワークは、3つの最先端のドメイン適応手法を適応させることにより、複数のクライアントが徐々に適合させるベースモデルから始まります:微調整、転送コンポーネント分析(TCA)、およびディープドメイン適応(DDA)。
フラワーフレームワークは、凝集のためのフェデレーション平均化を使用して、FLに採用されています。
フィールドデータを使用した検証は、微調整が高精度で簡単なTLアプローチを提供し、実用的なアプリケーションに適していることを示しています。
ベンチマークの結果は、これらの方法の包括的な比較を明らかにし、異なるシナリオに適用された場合のそれぞれの長所と短所を紹介します。
地元でホストされたFLは、データの集約が実行不可能な場合にパフォーマンスを向上させますが、クラウドベースのFLはクライアント数が大幅に増加し、スケーラビリティと接続性の課題に対処することでより実用的になります。

要約(オリジナル)

This study explores alternative framework configurations for adapting thermal machine learning (ML) models for power converters by combining transfer learning (TL) and federated learning (FL) in a piecewise manner. This approach inherently addresses challenges such as varying operating conditions, data sharing limitations, and security implications. The framework starts with a base model that is incrementally adapted by multiple clients via adapting three state-of-the-art domain adaptation techniques: Fine-tuning, Transfer Component Analysis (TCA), and Deep Domain Adaptation (DDA). The Flower framework is employed for FL, using Federated Averaging for aggregation. Validation with field data demonstrates that fine-tuning offers a straightforward TL approach with high accuracy, making it suitable for practical applications. Benchmarking results reveal a comprehensive comparison of these methods, showcasing their respective strengths and weaknesses when applied in different scenarios. Locally hosted FL enhances performance when data aggregation is not feasible, while cloud-based FL becomes more practical with a significant increase in the number of clients, addressing scalability and connectivity challenges.

arxiv情報

著者 Panagiotis Kakosimos,Alireza Nemat Saberi,Luca Peretti
発行日 2025-04-23 16:39:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | An Adaptive ML Framework for Power Converter Monitoring via Federated Transfer Learning はコメントを受け付けていません

Exploring How LLMs Capture and Represent Domain-Specific Knowledge

要約

大規模な言語モデル(LLM)が自然言語でドメイン固有のニュアンスを本質的にキャプチャするかどうかを研究します。
私たちの実験は、Prefillフェーズで生成された隠された状態を使用して、クエリを異なるドメインと区別する能力を調べることにより、LLMのドメイン感度を調査します。
モデルのクエリドメインの内部認識を示す潜在ドメイン関連の軌跡を明らかにします。
また、これらのドメイン表現の堅牢性を、迅速なスタイルとソースのバリエーションに研究します。
私たちのアプローチは、モデル選択のためにこれらの表現を活用し、入力クエリのドメイントレースに最適なLLMをマッピングします(つまり、同様のトレースで最高のパフォーマンスを持つモデル)。
私たちの調査結果は、LLMが関連ドメインのクエリを区別できること、および微調整されたモデルが常に最も正確ではないことを示しています。
以前の作業とは異なり、私たちの解釈は閉鎖的な生成タスクとオープンエンド生成タスクの両方に適用されます

要約(オリジナル)

We study whether Large Language Models (LLMs) inherently capture domain-specific nuances in natural language. Our experiments probe the domain sensitivity of LLMs by examining their ability to distinguish queries from different domains using hidden states generated during the prefill phase. We reveal latent domain-related trajectories that indicate the model’s internal recognition of query domains. We also study the robustness of these domain representations to variations in prompt styles and sources. Our approach leverages these representations for model selection, mapping the LLM that best matches the domain trace of the input query (i.e., the model with the highest performance on similar traces). Our findings show that LLMs can differentiate queries for related domains, and that the fine-tuned model is not always the most accurate. Unlike previous work, our interpretations apply to both closed and open-ended generative tasks

arxiv情報

著者 Mirian Hipolito Garcia,Camille Couturier,Daniel Madrigal Diaz,Ankur Mallick,Anastasios Kyrillidis,Robert Sim,Victor Ruhle,Saravan Rajmohan
発行日 2025-04-23 16:46:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Exploring How LLMs Capture and Represent Domain-Specific Knowledge はコメントを受け付けていません

Hybrid Reinforcement Learning and Model Predictive Control for Adaptive Control of Hydrogen-Diesel Dual-Fuel Combustion

要約

強化学習(RL)および機械学習統合モデル予測制御(ML-MPC)は、複数の入力量の複数の出力システムと非線形プロセスを効果的に制御できるため、水素ダイエルのデュアル燃料エンジン制御を最適化するための有望なアプローチです。
ML-MPCは、安全で最適な制御を提供し、事前定義された安全限界内でエンジンが動作するようにするために有利です。
対照的に、RLは、学習ベースのアプローチを通じて、条件の変化に対する適応性によって区別されます。
ただし、いずれかの方法だけの実際の実装は、課題をもたらします。
RLは、早期学習段階で制御入力の高い分散を必要とします。これにより、安全でないアクションが潜在的に実行される可能性があることにより、システムにリスクをもたらし、機械的損傷につながる可能性があります。
逆に、ML-MPCは正確なシステムモデルに依存して最適な制御入力を生成し、エンジンアプリケーションで自然に発生するインジェクターの老化など、システムドリフトへの適応性が限られています。
これらの制限に対処するために、この研究では、環境の変化に応じてML-MPCロードトラッキング参照を動的に調整するためにRLエージェントを組み込んでいる間、ML-MPCフレームワークを使用しながら、ハイブリッドRLおよびML-MPCアプローチを提案します。
同時に、ML-MPCは、RLエージェントの探査全体でアクションを安全に保つことを保証します。
このアプローチの有効性を評価するために、ML-MPCとエンジンテストベンチの間にモデル植物の不一致を導入するために、燃料圧力が意図的に変化します。
このミスマッチの結果は、ML-MPCを実行する際の平均有効圧力0.57 barのルート平均平方根誤差(RMSE)です。
実験結果は、ML-MPCが安全な制御入力を保証しながら、追跡参照を変更することにより、RLが境界条件の変化に正常に適応することを示しています。
RLを実装することによる負荷追跡の定量的改善は、0.44 BarのRSMEです。

要約(オリジナル)

Reinforcement Learning (RL) and Machine Learning Integrated Model Predictive Control (ML-MPC) are promising approaches for optimizing hydrogen-diesel dual-fuel engine control, as they can effectively control multiple-input multiple-output systems and nonlinear processes. ML-MPC is advantageous for providing safe and optimal controls, ensuring the engine operates within predefined safety limits. In contrast, RL is distinguished by its adaptability to changing conditions through its learning-based approach. However, the practical implementation of either method alone poses challenges. RL requires high variance in control inputs during early learning phases, which can pose risks to the system by potentially executing unsafe actions, leading to mechanical damage. Conversely, ML-MPC relies on an accurate system model to generate optimal control inputs and has limited adaptability to system drifts, such as injector aging, which naturally occur in engine applications. To address these limitations, this study proposes a hybrid RL and ML-MPC approach that uses an ML-MPC framework while incorporating an RL agent to dynamically adjust the ML-MPC load tracking reference in response to changes in the environment. At the same time, the ML-MPC ensures that actions stay safe throughout the RL agent’s exploration. To evaluate the effectiveness of this approach, fuel pressure is deliberately varied to introduce a model-plant mismatch between the ML-MPC and the engine test bench. The result of this mismatch is a root mean square error (RMSE) in indicated mean effective pressure of 0.57 bar when running the ML-MPC. The experimental results demonstrate that RL successfully adapts to changing boundary conditions by altering the tracking reference while ML-MPC ensures safe control inputs. The quantitative improvement in load tracking by implementing RL is an RSME of 0.44 bar.

arxiv情報

著者 Julian Bedei,Murray McBain,Charles Robert Koch,Jakob Andert,David Gordon
発行日 2025-04-23 16:51:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Hybrid Reinforcement Learning and Model Predictive Control for Adaptive Control of Hydrogen-Diesel Dual-Fuel Combustion はコメントを受け付けていません

Learning Verifiable Control Policies Using Relaxed Verification

要約

学習ベースの制御システムの安全保証を提供するために、最近の作業は、トレーニングの終了後に適用する正式な検証方法を開発しました。
ただし、訓練されたポリシーが仕様を満たしていない場合、または検証アルゴリズムに保守主義がある場合、これらの保証を確立することは不可能かもしれません。
代わりに、この作業では、トレーニング全体で検証を実行して、最終的にはランタイムを通して、軽量でリラックスした検証アルゴリズムを使用してプロパティを評価できるポリシーを目指しています。
アプローチは、微分可能性の到達可能性分析を使用し、新しいコンポーネントを損失関数に組み込むことです。
四輪モデルと一輪車モデルの数値実験では、このアプローチの能力が、望ましいリーチと不変の仕様を満たす学習制御ポリシーにつながる能力を強調しています。

要約(オリジナル)

To provide safety guarantees for learning-based control systems, recent work has developed formal verification methods to apply after training ends. However, if the trained policy does not meet the specifications, or there is conservatism in the verification algorithm, establishing these guarantees may not be possible. Instead, this work proposes to perform verification throughout training to ultimately aim for policies whose properties can be evaluated throughout runtime with lightweight, relaxed verification algorithms. The approach is to use differentiable reachability analysis and incorporate new components into the loss function. Numerical experiments on a quadrotor model and unicycle model highlight the ability of this approach to lead to learned control policies that satisfy desired reach-avoid and invariance specifications.

arxiv情報

著者 Puja Chaudhury,Alexander Estornell,Michael Everett
発行日 2025-04-23 16:54:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SY, eess.SY | Learning Verifiable Control Policies Using Relaxed Verification はコメントを受け付けていません

Spatial Distribution-Shift Aware Knowledge-Guided Machine Learning

要約

さまざまな地域から収集された多様な土壌特性と気候データの入力が与えられた場合、正確な土地排出を予測するためのモデルを構築することを目指しました。
農業生態系の炭素循環の正確な定量化は、気候変動を緩和し、持続可能な食料生産を確保するために重要であるため、問題は重要です。
土壌の特性、水分、環境条件の不均一な性質を較正することは、意思決定関連のスケールでは困難であるため、正確な土地排出を予測することは困難です。
従来のアプローチでは、空間的な不均一性を活用できない場所に依存しないパラメーターのため、土地の排出量を適切に推定することはなく、大きなデータセットも必要です。
これらの制限を克服するために、同じ領域内の複数のサイトからの土壌水分の有意な空間的不均一性を説明する位置依存パラメーターを活用する空間分布シフト認識の知識誘導機械学習(SDSA-KGML)を提案しました。
実験結果は、SDSA-KGMLモデルが中西部の特定の状態でより高い局所精度を達成することを示しています。

要約(オリジナル)

Given inputs of diverse soil characteristics and climate data gathered from various regions, we aimed to build a model to predict accurate land emissions. The problem is important since accurate quantification of the carbon cycle in agroecosystems is crucial for mitigating climate change and ensuring sustainable food production. Predicting accurate land emissions is challenging since calibrating the heterogeneous nature of soil properties, moisture, and environmental conditions is hard at decision-relevant scales. Traditional approaches do not adequately estimate land emissions due to location-independent parameters failing to leverage the spatial heterogeneity and also require large datasets. To overcome these limitations, we proposed Spatial Distribution-Shift Aware Knowledge-Guided Machine Learning (SDSA-KGML), which leverages location-dependent parameters that account for significant spatial heterogeneity in soil moisture from multiple sites within the same region. Experimental results demonstrate that SDSA-KGML models achieve higher local accuracy for the specified states in the Midwest Region.

arxiv情報

著者 Arun Sharma,Majid Farhadloo,Mingzhou Yang,Ruolei Zeng,Subhankar Ghosh,Shashi Shekhar
発行日 2025-04-23 16:56:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Spatial Distribution-Shift Aware Knowledge-Guided Machine Learning はコメントを受け付けていません

Truthful mechanisms for linear bandit games with private contexts

要約

エージェントが個人的なコンテキストで順番に到着し、システムがそれに応じてその腕の割り当ての決定を適応させる文脈的盗賊問題は、最近、よりパーソナライズされた結果を可能にするための注意を高めています。
ただし、多くのヘルスケアおよび推奨アプリケーションでは、エージェントにはプライベートプロファイルがあり、システムから得られるコンテキストを誤って宣言する可能性があります。
たとえば、病院がボランティアを順次募集して複数の新しい治療法をテストし、症状や暫定データなどのボランティアの報告されたプロファイルに基づいて計画を調整する適応臨床試験では、参加者はアレルギーや吐き気などの深刻な副作用を誤った報告して、気候亜最適治療を避けることができます。
私たちは、システムと非繰り返しのエージェントの間の確率的文脈的盗賊ゲームで誤って報告するプライベートコンテキストのこの問題を研究した最初の人物です。
UCBファミリーアルゴリズムやトンプソンサンプリングなどの従来の低リグレットアルゴリズムは、真実の報告を確保できず、最悪の場合に直線的な後悔をもたらす可能性があることを示しています。
トンプソンのサンプリングからの逸脱を最小限に抑えながら真実性を確保するために線形プログラムを使用するメカニズムを提案します。
私たちの数値実験は、さらに複数のコンテキストや他の流通ファミリ全体で強力なパフォーマンスを示しています。

要約(オリジナル)

The contextual bandit problem, where agents arrive sequentially with personal contexts and the system adapts its arm allocation decisions accordingly, has recently garnered increasing attention for enabling more personalized outcomes. However, in many healthcare and recommendation applications, agents have private profiles and may misreport their contexts to gain from the system. For example, in adaptive clinical trials, where hospitals sequentially recruit volunteers to test multiple new treatments and adjust plans based on volunteers’ reported profiles such as symptoms and interim data, participants may misreport severe side effects like allergy and nausea to avoid perceived suboptimal treatments. We are the first to study this issue of private context misreporting in a stochastic contextual bandit game between the system and non-repeated agents. We show that traditional low-regret algorithms, such as UCB family algorithms and Thompson sampling, fail to ensure truthful reporting and can result in linear regret in the worst case, while traditional truthful algorithms like explore-then-commit (ETC) and $\epsilon$-greedy algorithm incur sublinear but high regret. We propose a mechanism that uses a linear program to ensure truthfulness while minimizing deviation from Thompson sampling, yielding an $O(\ln T)$ frequentist regret. Our numerical experiments further demonstrate strong performance in multiple contexts and across other distribution families.

arxiv情報

著者 Yiting Hu,Lingjie Duan
発行日 2025-04-23 16:57:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.GT, cs.LG | Truthful mechanisms for linear bandit games with private contexts はコメントを受け付けていません

Exploring zero-shot structure-based protein fitness prediction

要約

事前に訓練された機械学習モデルを使用して、タンパク質配列の変化のフィットネス結果についてゼロショット予測を行う機能により、多くの実用的なアプリケーションが可能になります。
このようなモデルは、追加のラベル付きデータなしで、遺伝的変異解釈やタンパク質エンジニアリングなどの下流タスクに適用できます。
有能なタンパク質構造予測ツールの出現により、より多くのより事前に計算された予測構造が利用できるようになり、強力な構造ベースのフィットネス予測モデルが生まれました。
実験を通じて、構造ベースのモデルのいくつかのモデリングの選択と、下流のフィットネス予測に対する効果を評価します。
ゼロショットフィットネス予測モデルは、タンパク質の無秩序な領域内のフィットネス景観を評価するのに苦労する可能性があります。
タンパク質構造をフィットネスアッセイに一致させることの重要性を確認し、無秩序な領域の予測された構造が誤解を招き、予測パフォーマンスに影響を与える可能性があることがわかります。
最後に、Proteingymの置換ベンチマーク上の追加構造ベースのモデルを評価し、単純なマルチモーダルアンサンブルが強力なベースラインであることを示します。

要約(オリジナル)

The ability to make zero-shot predictions about the fitness consequences of protein sequence changes with pre-trained machine learning models enables many practical applications. Such models can be applied for downstream tasks like genetic variant interpretation and protein engineering without additional labeled data. The advent of capable protein structure prediction tools has led to the availability of orders of magnitude more precomputed predicted structures, giving rise to powerful structure-based fitness prediction models. Through our experiments, we assess several modeling choices for structure-based models and their effects on downstream fitness prediction. Zero-shot fitness prediction models can struggle to assess the fitness landscape within disordered regions of proteins, those that lack a fixed 3D structure. We confirm the importance of matching protein structures to fitness assays and find that predicted structures for disordered regions can be misleading and affect predictive performance. Lastly, we evaluate an additional structure-based model on the ProteinGym substitution benchmark and show that simple multi-modal ensembles are strong baselines.

arxiv情報

著者 Arnav Sharma,Anthony Gitter
発行日 2025-04-23 17:01:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-bio.BM, q-bio.QM | Exploring zero-shot structure-based protein fitness prediction はコメントを受け付けていません