Markov Regime-Switching Intelligent Driver Model for Interpretable Car-Following Behavior

要約

正確で解釈可能な自動車中のモデルは、交通シミュレーションと自動運転車の開発に不可欠です。
ただし、インテリジェントドライバーモデル(IDM)のような古典的なモデルは、標準的に標準的で単一規制構造によって制限されています。
彼らは、単一の運転状態(速度、相対速度、ギャップなど)が多くの異なるドライバーアクションを引き出すことができる人間の運転のマルチモーダルの性質を捉えることができません。
これにより、モデルは明確な動作間で平均化され、忠実度を低下させ、パラメーターを解釈が困難にします。
これを克服するために、それぞれが解釈可能な動作モードに対応する異なるIDMパラメーターセットによって運転動作を管理できるようにするレジームスイッチングフレームワークを導入します。
この設計により、モデルは、多様な運転コンテキストを平均化するのではなく、解釈可能な行動モードを動的に切り替えることができます。
IDMダイナミクス(FHMM-IDM)を備えた要因の隠されたマルコフモデルを使用してフレームワークをインスタンス化します。これは、2つの独立したマルコフプロセスを介して、内因性駆動体制(積極的な加速、定常状態のフォローなど)を外部トラフィックシナリオ(たとえば、フリーフロー、輻輳、停止と停止)から明示的に分離します。
マルコフチェーンモンテカルロ(MCMC)を介したベイジアン推論は、レジーム固有のパラメーター、遷移ダイナミクス、および潜在状態軌道を共同で推定するために使用されます。
HighDデータセットの実験は、FHMM-IDMが人間の運転における解釈可能な構造を明らかにし、コンテキストトラフィック条件から内部ドライバーのアクションを効果的に解き放ち、動的なレジームスイッチングパターンを明らかにすることを示しています。
このフレームワークは、不確実性の下でコンテキスト依存の運転行動をモデル化するための扱いやすく原則的なソリューションを提供し、トラフィックシミュレーションの忠実度、安全分析の有効性、およびより人間中心のADAの開発を提供します。

要約(オリジナル)

Accurate and interpretable car-following models are essential for traffic simulation and autonomous vehicle development. However, classical models like the Intelligent Driver Model (IDM) are fundamentally limited by their parsimonious and single-regime structure. They fail to capture the multi-modal nature of human driving, where a single driving state (e.g., speed, relative speed, and gap) can elicit many different driver actions. This forces the model to average across distinct behaviors, reducing its fidelity and making its parameters difficult to interpret. To overcome this, we introduce a regime-switching framework that allows driving behavior to be governed by different IDM parameter sets, each corresponding to an interpretable behavioral mode. This design enables the model to dynamically switch between interpretable behavioral modes, rather than averaging across diverse driving contexts. We instantiate the framework using a Factorial Hidden Markov Model with IDM dynamics (FHMM-IDM), which explicitly separates intrinsic driving regimes (e.g., aggressive acceleration, steady-state following) from external traffic scenarios (e.g., free-flow, congestion, stop-and-go) through two independent latent Markov processes. Bayesian inference via Markov chain Monte Carlo (MCMC) is used to jointly estimate the regime-specific parameters, transition dynamics, and latent state trajectories. Experiments on the HighD dataset demonstrate that FHMM-IDM uncovers interpretable structure in human driving, effectively disentangling internal driver actions from contextual traffic conditions and revealing dynamic regime-switching patterns. This framework provides a tractable and principled solution to modeling context-dependent driving behavior under uncertainty, offering improvements in the fidelity of traffic simulations, the efficacy of safety analyses, and the development of more human-centric ADAS.

arxiv情報

著者 Chengyuan Zhang,Cathy Wu,Lijun Sun
発行日 2025-06-17 17:55:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO, stat.AP | Markov Regime-Switching Intelligent Driver Model for Interpretable Car-Following Behavior はコメントを受け付けていません

LingoLoop Attack: Trapping MLLMs via Linguistic Context and State Entrapment into Endless Loops

要約

マルチモーダル大手言語モデル(MLLM)は大きな期待を示していますが、推論中にかなりの計算リソースが必要です。
攻撃者は、過度の出力を誘導することでこれを悪用し、資源の疲労とサービスの劣化につながる可能性があります。
以前のエネルギー遅延攻撃は、EOSトークンから出力トークン分布を広く変えることで生成時間を増やすことを目的としていますが、EOSレベルの部分的な部分的な部分(POS)特性が出力カウントでの文レベルの構造パターンに対する影響を無視し、有効性を制限します。
これに対処するために、MLLMを誘導して過度に冗長で反復的なシーケンスを生成するように設計された攻撃であるLingoloopを提案します。
まず、トークンのPOSタグがEOSトークンを生成する可能性に強く影響することがわかります。
この洞察に基づいて、POS情報に導かれる注意の重みを調整することにより、EOSトークンの生成を延期するためのPOS認識遅延メカニズムを提案します。
第二に、繰り返しループを誘導するための出力の多様性を制約することは、持続的な生成に効果的であることを特定します。
隠された状態の大きさを制限する生成パス剪定メカニズムを導入し、モデルが永続的なループを生成するよう奨励します。
広範な実験は、リンゴループが生成されたトークンを最大30倍増加させ、QWEN2.5-VL-3Bなどのモデルで同等の因子でエネルギー消費を増加させることができることを示しており、一貫してMLLMを最大生成制限に向けて駆り立てています。
これらの調査結果は、重要なMLLMの脆弱性を明らかにし、信頼できる展開に課題をもたらします。
コードは、論文の受け入れに続いて公開されます。

要約(オリジナル)

Multimodal Large Language Models (MLLMs) have shown great promise but require substantial computational resources during inference. Attackers can exploit this by inducing excessive output, leading to resource exhaustion and service degradation. Prior energy-latency attacks aim to increase generation time by broadly shifting the output token distribution away from the EOS token, but they neglect the influence of token-level Part-of-Speech (POS) characteristics on EOS and sentence-level structural patterns on output counts, limiting their efficacy. To address this, we propose LingoLoop, an attack designed to induce MLLMs to generate excessively verbose and repetitive sequences. First, we find that the POS tag of a token strongly affects the likelihood of generating an EOS token. Based on this insight, we propose a POS-Aware Delay Mechanism to postpone EOS token generation by adjusting attention weights guided by POS information. Second, we identify that constraining output diversity to induce repetitive loops is effective for sustained generation. We introduce a Generative Path Pruning Mechanism that limits the magnitude of hidden states, encouraging the model to produce persistent loops. Extensive experiments demonstrate LingoLoop can increase generated tokens by up to 30 times and energy consumption by a comparable factor on models like Qwen2.5-VL-3B, consistently driving MLLMs towards their maximum generation limits. These findings expose significant MLLMs’ vulnerabilities, posing challenges for their reliable deployment. The code will be released publicly following the paper’s acceptance.

arxiv情報

著者 Jiyuan Fu,Kaixun Jiang,Lingyi Hong,Jinglun Li,Haijing Guo,Dingkang Yang,Zhaoyu Chen,Wenqiang Zhang
発行日 2025-06-17 13:14:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CR | LingoLoop Attack: Trapping MLLMs via Linguistic Context and State Entrapment into Endless Loops はコメントを受け付けていません

Inherent and emergent liability issues in LLM-based agentic systems: a principal-agent perspective

要約

大規模な言語モデル(LLMS)を搭載したエージェントシステムは、徐々に複雑で能力が高まっています。
機関の増加と展開設定の拡大により、効果的なガバナンスポリシー、監視、および制御プロトコルに注目が集まります。
エージェント市場の新たな状況に基づいて、LLMエージェントとその拡張されたシステムの委任された使用から生じる潜在的な責任の問題を、主要なエージェントの観点から分析します。
私たちの分析は、人工機関に関する既存のリスクベースの研究を補完し、主要な関係の重要な側面のスペクトルと、展開における潜在的な結果をカバーしています。
さらに、解釈可能性と行動評価の方向、報酬と紛争管理の方向に沿った技術ガバナンスの方法の開発、および検出および障害セーフメカニズムの原則的なエンジニアリングによる不整合と不正行為の緩和を動機付けます。
LLMベースのエージェントシステムのAI責任に関する未解決の問題を説明することにより、透明性と責任の帰属を強化するために、システムの設計、監査、およびトレースを通知することを目指しています。

要約(オリジナル)

Agentic systems powered by large language models (LLMs) are becoming progressively more complex and capable. Their increasing agency and expanding deployment settings attract growing attention to effective governance policies, monitoring, and control protocols. Based on the emerging landscape of the agentic market, we analyze potential liability issues arising from the delegated use of LLM agents and their extended systems through a principal-agent perspective. Our analysis complements existing risk-based studies on artificial agency and covers the spectrum of important aspects of the principal-agent relationship and their potential consequences at deployment. Furthermore, we motivate method developments for technical governance along the directions of interpretability and behavior evaluations, reward and conflict management, and the mitigation of misalignment and misconduct through principled engineering of detection and fail-safe mechanisms. By illustrating the outstanding issues in AI liability for LLM-based agentic systems, we aim to inform the system design, auditing, and tracing to enhance transparency and liability attribution.

arxiv情報

著者 Garry A. Gabison,R. Patrick Xian
発行日 2025-06-17 13:42:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CY, cs.MA | Inherent and emergent liability issues in LLM-based agentic systems: a principal-agent perspective はコメントを受け付けていません

M2BeamLLM: Multimodal Sensing-empowered mmWave Beam Prediction with Large Language Models

要約

このホワイトペーパーでは、ミリメートル波(MMWave)大規模なマルチ入力マルチアウトプット(MMIMO)通信システムのビーム予測のために、M2Beamllmと呼ばれる新しいニューラルネットワークフレームワークを紹介します。
M2BeamLLMは、画像、レーダー、LIDAR、GPSなどのマルチモーダルセンサーデータを統合し、ビーム予測のためのGPT-2などの大規模な言語モデル(LLM)の強力な推論機能を活用します。
センシングデータエンコーディング、マルチモーダルアライメントと融合、および監視された微調整(SFT)を組み合わせることにより、M2BeamLLMは、標準的なシナリオと少ないショットシナリオの両方で、ビーム予測の精度と堅牢性が大幅に高いビーム予測の精度と堅牢性を実現します。
さらに、その予測パフォーマンスは、モダリティを感知する多様性の増加とともに一貫して改善します。
私たちの研究は、車両間(V2I)MMWave通信システムのための効率的でインテリジェントなビーム予測ソリューションを提供します。

要約(オリジナル)

This paper introduces a novel neural network framework called M2BeamLLM for beam prediction in millimeter-wave (mmWave) massive multi-input multi-output (mMIMO) communication systems. M2BeamLLM integrates multi-modal sensor data, including images, radar, LiDAR, and GPS, leveraging the powerful reasoning capabilities of large language models (LLMs) such as GPT-2 for beam prediction. By combining sensing data encoding, multimodal alignment and fusion, and supervised fine-tuning (SFT), M2BeamLLM achieves significantly higher beam prediction accuracy and robustness, demonstrably outperforming traditional deep learning (DL) models in both standard and few-shot scenarios. Furthermore, its prediction performance consistently improves with increased diversity in sensing modalities. Our study provides an efficient and intelligent beam prediction solution for vehicle-to-infrastructure (V2I) mmWave communication systems.

arxiv情報

著者 Can Zheng,Jiguang He,Chung G. Kang,Guofa Cai,Zitong Yu,Merouane Debbah
発行日 2025-06-17 13:58:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | M2BeamLLM: Multimodal Sensing-empowered mmWave Beam Prediction with Large Language Models はコメントを受け付けていません

ClusterChat: Multi-Feature Search for Corpus Exploration

要約

大規模なテキストCorporaの探索は、生物医学、金融、および法的領域に大きな課題を提示し、膨大な量の文書が継続的に公開されています。
キーワードベースの検索などの従来の検索方法は、多くの場合、文書を単独で取得し、コーパス全体の傾向と関係を簡単に検査する能力を制限します。
ClusterChat(デモビデオとソースコードは、https://github.com/achouhan93/clusterchatで入手できます。
400万の要約PubMedデータセットに関する2つのケーススタディでシステムを検証し、ClusterChatが大規模なドキュメントコレクションのスケーラビリティと応答性を維持しながら、コンテキストを意識した洞察を提供することによりコーパス探査を強化することを実証します。

要約(オリジナル)

Exploring large-scale text corpora presents a significant challenge in biomedical, finance, and legal domains, where vast amounts of documents are continuously published. Traditional search methods, such as keyword-based search, often retrieve documents in isolation, limiting the user’s ability to easily inspect corpus-wide trends and relationships. We present ClusterChat (The demo video and source code are available at: https://github.com/achouhan93/ClusterChat), an open-source system for corpus exploration that integrates cluster-based organization of documents using textual embeddings with lexical and semantic search, timeline-driven exploration, and corpus and document-level question answering (QA) as multi-feature search capabilities. We validate the system with two case studies on a four million abstract PubMed dataset, demonstrating that ClusterChat enhances corpus exploration by delivering context-aware insights while maintaining scalability and responsiveness on large-scale document collections.

arxiv情報

著者 Ashish Chouhan,Saifeldin Mandour,Michael Gertz
発行日 2025-06-17 14:18:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | ClusterChat: Multi-Feature Search for Corpus Exploration はコメントを受け付けていません

AlphaDecay:Module-wise Weight Decay for Heavy-Tailed Balancing in LLMs

要約

重量減衰は、大規模な言語モデル(LLMS)をトレーニングするための標準的な正則化手法です。
すべてのレイヤーに均一な減衰率を割り当てることは一般的ですが、このアプローチは、LLMの構造的多様性とモジュール全体のさまざまなスペクトル特性を見落としています。
この論文では、LLMの各モジュールに異なる重量減衰強度を適応的に割り当てるシンプルで効果的な方法であるAlphadecayを紹介します。
私たちのアプローチは、重量相関マトリックスの経験的スペクトル密度(ESD)を分析して「重尾性」を定量化する重尾部の自己正規化(HT-SR)理論によって導かれます。
より強力な機能学習を反映して、より顕著な重尾のESDを示すモジュールは弱い減衰を割り当てられ、より軽いテールスペクトルのモジュールはより強い減衰を受けます。
私たちのメソッドは、テーラードの重量減衰割り当てを活用して、スペクトルプロパティのモジュールごとの違いのバランスを取り、パフォーマンスの向上につながります。
60mから1Bまでのさまざまなモデルサイズの広範なトレーニングタスクは、Alphadecayが従来の均一な減衰およびその他の適応崩壊ベースラインよりも優れた困惑と一般化を達成することを示しています。

要約(オリジナル)

Weight decay is a standard regularization technique for training large language models (LLMs). While it is common to assign a uniform decay rate to every layer, this approach overlooks the structural diversity of LLMs and the varying spectral properties across modules. In this paper, we introduce AlphaDecay, a simple yet effective method that adaptively assigns different weight decay strengths to each module of an LLM. Our approach is guided by Heavy-Tailed Self-Regularization (HT-SR) theory, which analyzes the empirical spectral density (ESD) of weight correlation matrices to quantify ‘heavy-tailedness.’ Modules exhibiting more pronounced heavy-tailed ESDs, reflecting stronger feature learning, are assigned weaker decay, while modules with lighter-tailed spectra receive stronger decay. Our method leverages tailored weight decay assignments to balance the module-wise differences in spectral properties, leading to improved performance. Extensive pre-training tasks with various model sizes from 60M to 1B demonstrate that AlphaDecay achieves better perplexity and generalization than conventional uniform decay and other adaptive decay baselines.

arxiv情報

著者 Di He,Ajay Jaiswal,Songjun Tu,Li Shen,Ganzhao Yuan,Shiwei Liu,Lu Yin
発行日 2025-06-17 14:21:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | AlphaDecay:Module-wise Weight Decay for Heavy-Tailed Balancing in LLMs はコメントを受け付けていません

TGDPO: Harnessing Token-Level Reward Guidance for Enhancing Direct Preference Optimization

要約

人間のフィードバックからの強化学習における最近の進歩により、きめ細かいトークンレベルの報酬モデルを使用すると、大規模な言語モデルの調整における近位政策最適化(PPO)のパフォーマンスが大幅に向上することが示されています。
ただし、DPOはシーケンスレベルの盗賊問題として定式化されているため、直接優先最適化(DPO)のガイダンスとしてこのようなトークンレベルの報酬を活用することは困難です。
この課題に対処するために、この作業は、シーケンスレベルのPPOをトークンレベルの近位ポリシー最適化問題のシーケンスに分解し、トークンレベルのPPOの問題をトークンレベルの報酬ガイダンスでフレーム化します。
取得した報酬とBradley-Terryモデルを使用して、この作業は、DPOのトークンレベルの報酬ガイダンスを備えた計算可能な損失関数のフレームワークを確立し、誘導されたDPO報酬に基づいて実用的な報酬ガイダンスを提案します。
この定式化により、異なるトークンは、それぞれの報酬に基づいて、参照ポリシーからさまざまな程度の逸脱を示すことができます。
実験結果は、私たちの方法がDPOよりも大幅なパフォーマンスの改善を達成し、MTベンチで最大7.5ポイント、Alpacaeval 2で6.2ポイント、アリーナハードで4.3ポイントの勝利率が得られることを示しています。
コードはhttps://github.com/dvlab-research/tgdpoで入手できます。

要約(オリジナル)

Recent advancements in reinforcement learning from human feedback have shown that utilizing fine-grained token-level reward models can substantially enhance the performance of Proximal Policy Optimization (PPO) in aligning large language models. However, it is challenging to leverage such token-level reward as guidance for Direct Preference Optimization (DPO), since DPO is formulated as a sequence-level bandit problem. To address this challenge, this work decomposes the sequence-level PPO into a sequence of token-level proximal policy optimization problems and then frames the problem of token-level PPO with token-level reward guidance, from which closed-form optimal token-level policy and the corresponding token-level reward can be derived. Using the obtained reward and Bradley-Terry model, this work establishes a framework of computable loss functions with token-level reward guidance for DPO, and proposes a practical reward guidance based on the induced DPO reward. This formulation enables different tokens to exhibit varying degrees of deviation from reference policy based on their respective rewards. Experiment results demonstrate that our method achieves substantial performance improvements over DPO, with win rate gains of up to 7.5 points on MT-Bench, 6.2 points on AlpacaEval 2, and 4.3 points on Arena-Hard. Code is available at https://github.com/dvlab-research/TGDPO.

arxiv情報

著者 Mingkang Zhu,Xi Chen,Zhongdao Wang,Bei Yu,Hengshuang Zhao,Jiaya Jia
発行日 2025-06-17 14:30:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | TGDPO: Harnessing Token-Level Reward Guidance for Enhancing Direct Preference Optimization はコメントを受け付けていません

Evolution of ESG-focused DLT Research: An NLP Analysis of the Literature

要約

分散型台帳技術(DLT)は、特に仕事の証明(POW)コンセンサスメカニズムとより広範な環境、社会、およびガバナンス(ESG)の問題のエネルギー消費に関する環境精査の増加に直面しています。
ただし、DLTの既存の体系的な文献レビューは、引用、要約、キーワードの限られた分析に依存しており、フィールドの複雑さとESGの懸念を完全に把握できません。
DLTの39,427エンティティの手動でラベル付けされた名前付きエンティティ認識(NER)データセットを使用して、自然言語処理(NLP)を使用して24,539の出版物の全文を分析することにより、これらの課題に対処します。
この方法論により、DLT/ESG交差点で505の主要な出版物が特定され、包括的なドメイン分析が可能になりました。
NLPと時間グラフ分析を組み合わせて、暗号化やピアツーピアネットワークの基本的な影響、ピアツーピアネットワークの基礎的影響、研究と環境への懸念(「リンディエフェクト」)へのビットコインの持続的な影響(POS)の触媒的役割(POS)および賢明な契約採用に向けた賢明なシフトへのエネルギー採用に向けた環境の進歩的な採用への触媒的役割など、DLTの進化とESGの影響の重要な傾向が明らかになりました。
私たちの貢献には、ブロックチェーン研究における高品質のラベル付けされたNLPデータの不足に対処する最初のDLT固有のNERデータセット、大規模な学際的文献レビューのためのNLPと時間グラフ分析を統合する方法論、およびDLTのESGの側面に焦点を当てた最初のNLP主導の文献レビューが含まれます。

要約(オリジナル)

Distributed Ledger Technology (DLT) faces increasing environmental scrutiny, particularly concerning the energy consumption of the Proof of Work (PoW) consensus mechanism and broader Environmental, Social, and Governance (ESG) issues. However, existing systematic literature reviews of DLT rely on limited analyses of citations, abstracts, and keywords, failing to fully capture the field’s complexity and ESG concerns. We address these challenges by analyzing the full text of 24,539 publications using Natural Language Processing (NLP) with our manually labeled Named Entity Recognition (NER) dataset of 39,427 entities for DLT. This methodology identified 505 key publications at the DLT/ESG intersection, enabling comprehensive domain analysis. Our combined NLP and temporal graph analysis reveals critical trends in DLT evolution and ESG impacts, including cryptography and peer-to-peer networks research’s foundational influence, Bitcoin’s persistent impact on research and environmental concerns (a ‘Lindy effect’), Ethereum’s catalytic role on Proof of Stake (PoS) and smart contract adoption, and the industry’s progressive shift toward energy-efficient consensus mechanisms. Our contributions include the first DLT-specific NER dataset addressing the scarcity of high-quality labeled NLP data in blockchain research, a methodology integrating NLP and temporal graph analysis for large-scale interdisciplinary literature reviews, and the first NLP-driven literature review focusing on DLT’s ESG aspects.

arxiv情報

著者 Walter Hernandez Cruz,Kamil Tylinski,Alastair Moore,Niall Roche,Nikhil Vadgama,Horst Treiblmaier,Jiangbo Shangguan,Paolo Tasca,Jiahua Xu
発行日 2025-06-17 14:32:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR, cs.LG | Evolution of ESG-focused DLT Research: An NLP Analysis of the Literature はコメントを受け付けていません

Computational Studies in Influencer Marketing: A Systematic Literature Review

要約

インフルエンサーマーケティングは、デジタルマーケティング戦略の重要な特徴となっています。
その急速な成長とアルゴリズムの関連性にもかかわらず、インフルエンサーマーケティングにおける計算研究の分野は断片化されたままです。
これにより、インフルエンサー経済における包括的な科学的測定は非常に少なく、規制当局などのプラットフォーム自体の外側の関心のある利害関係者だけでなく、他の分野の研究者も損なうことになります。
このペーパーは、Prismaモデルに基づいて系統的文献レビュー(SLR)を実施することにより、インフルエンサーマーケティングにおける計算研究の最先端の概要を提供することを目的としています。
このペーパーでは、69の研究を分析して、この研究分野の主要な研究テーマ、方法論、将来の方向性を特定します。
このレビューでは、インフルエンサーの識別と特性評価、広告戦略とエンゲージメント、スポンサー付きコンテンツ分析と発見、公平性という4つの主要な研究テーマを特定しています。
方法論的には、研究は機械学習ベースの技術(分類、クラスタリングなど)および非マシン学習ベースの手法(統計分析、ネットワーク分析など)に分類されます。
重要な調査結果は、規制のコンプライアンスと倫理的考慮事項に限られた注意を払って、商業的成果の最適化に重点を置いていることを明らかにしています。
このレビューでは、言語、プラットフォーム、業界の種類などのコンテキスト要因を組み込んだ、より微妙な計算研究の必要性と、モデルの説明可能性とデータセットの再現性を改善する必要性を強調しています。
この論文は、規制とコンプライアンステクノロジーへのさらなるリンクの必要性、分析におけるより細かい粒度、および標準化されたデータセットの開発を強調する学際的な研究アジェンダを提案することで締めくくります。

要約(オリジナル)

Influencer marketing has become a crucial feature of digital marketing strategies. Despite its rapid growth and algorithmic relevance, the field of computational studies in influencer marketing remains fragmented, especially with limited systematic reviews covering the computational methodologies employed. This makes overarching scientific measurements in the influencer economy very scarce, to the detriment of interested stakeholders outside of platforms themselves, such as regulators, but also researchers from other fields. This paper aims to provide an overview of the state of the art of computational studies in influencer marketing by conducting a systematic literature review (SLR) based on the PRISMA model. The paper analyses 69 studies to identify key research themes, methodologies, and future directions in this research field. The review identifies four major research themes: Influencer identification and characterisation, Advertising strategies and engagement, Sponsored content analysis and discovery, and Fairness. Methodologically, the studies are categorised into machine learning-based techniques (e.g., classification, clustering) and non-machine-learning-based techniques (e.g., statistical analysis, network analysis). Key findings reveal a strong focus on optimising commercial outcomes, with limited attention to regulatory compliance and ethical considerations. The review highlights the need for more nuanced computational research that incorporates contextual factors such as language, platform, and industry type, as well as improved model explainability and dataset reproducibility. The paper concludes by proposing a multidisciplinary research agenda that emphasises the need for further links to regulation and compliance technology, finer granularity in analysis, and the development of standardised datasets.

arxiv情報

著者 Haoyang Gui,Thales Bertaglia,Catalina Goanta,Gerasimos Spanakis
発行日 2025-06-17 15:05:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CY | Computational Studies in Influencer Marketing: A Systematic Literature Review はコメントを受け付けていません

Guaranteed Guess: A Language Modeling Approach for CISC-to-RISC Transpilation with Testing Guarantees

要約

ハードウェアのエコシステムは急速に進化しており、既存のコードの携帯性と寿命を強化するための迅速で柔軟で正しい方法で、異なる命令セットアーキテクチャ(ISA)にわたって低レベルのプログラムを翻訳することに関心が高まっています。
この輸送問題の特に困難なクラスは、命令の複雑さ、メモリモデル、および実行パラダイムの基本的な違いにより、複雑な(CISC)と減少(RISC)ハードウェアアーキテクチャの間で翻訳されることです。
この作業では、事前に訓練された大手言語モデル(LLMS)の翻訳能力と確立されたソフトウェアテスト構造の厳格さを組み合わせたISA中心のトランスピレーションパイプラインであるGG(保証済み推測)を導入します。
私たちの方法は、あるISAから別のISAへのLLMを使用して候補の翻訳を生成し、ソフトウェアテストフレームワークにそのような翻訳を埋め込み、翻訳に定量化可能な信頼を構築します。
GGアプローチを2つの多様なデータセットで評価し、単体テストで高いコードカバレッジ(> 98%)を実施し、Humanevalプログラムで99%、BringUpBenchプログラムでそれぞれ49%の機能/セマンティックの正しさを達成します。
さらに、Appleシリコンの最先端のRosetta 2フレームワークとのアプローチを比較し、1.73倍のランタイムパフォーマンス、1.47倍のエネルギー効率の1.47倍、容量のあるコードの2.41倍のメモリ使用量を2.41倍に紹介し、現実のCISC-recisc翻訳タスクのGGの有効性を実証します。
コード、データ、モデル、ベンチマークをオープンソーシングして、ISAレベルのコード翻訳研究の共通の基盤を確立します。

要約(オリジナル)

The hardware ecosystem is rapidly evolving, with increasing interest in translating low-level programs across different instruction set architectures (ISAs) in a quick, flexible, and correct way to enhance the portability and longevity of existing code. A particularly challenging class of this transpilation problem is translating between complex- (CISC) and reduced- (RISC) hardware architectures, due to fundamental differences in instruction complexity, memory models, and execution paradigms. In this work, we introduce GG (Guaranteed Guess), an ISA-centric transpilation pipeline that combines the translation power of pre-trained large language models (LLMs) with the rigor of established software testing constructs. Our method generates candidate translations using an LLM from one ISA to another, and embeds such translations within a software-testing framework to build quantifiable confidence in the translation. We evaluate our GG approach over two diverse datasets, enforce high code coverage (>98%) across unit tests, and achieve functional/semantic correctness of 99% on HumanEval programs and 49% on BringupBench programs, respectively. Further, we compare our approach to the state-of-the-art Rosetta 2 framework on Apple Silicon, showcasing 1.73x faster runtime performance, 1.47x better energy efficiency, and 2.41x better memory usage for our transpiled code, demonstrating the effectiveness of GG for real-world CISC-to-RISC translation tasks. We will open-source our codes, data, models, and benchmarks to establish a common foundation for ISA-level code translation research.

arxiv情報

著者 Ahmed Heakl,Sarim Hashmi,Chaimaa Abi,Celine Lee,Abdulrahman Mahmoud
発行日 2025-06-17 15:06:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AR, cs.CL, cs.LG, cs.PL, cs.SE | Guaranteed Guess: A Language Modeling Approach for CISC-to-RISC Transpilation with Testing Guarantees はコメントを受け付けていません