Personalized Federated Learning via Learning Dynamic Graphs

要約

パーソナライズされたフェデレートラーニング(PFL)は、ローカルデータ分布に合わせて調整された各クライアントのパーソナライズされたモデルをトレーニングすることを目的としています。学習は、ローカルデータ分布のバリエーションのために個々のクライアントでうまく機能することができません。
ほとんどの既存のPFLメソッドは、各クライアントの集約されたグローバルモデルのパーソナライズに焦点を当てており、フェデレーション学習の基本的な側面、つまりクライアントモデルの集約方法の規制を無視します。
さらに、それらのほとんどすべてが、連合学習のクライアントによって形成されたグラフ構造を見落としています。
この論文では、クライアント間の潜在的なグラフ構造をキャプチャし、各クライアントの他のクライアントの重要性を動的に決定するグラフ注意ネットワーク(PFEDGAT)を使用したパーソナライズされたフェデレーションラーニングを提案し、集約プロセスを細かく制御できます。
複数のデータ分布シナリオにわたってPFEDGATを評価し、Fashion Mnist、CIFAR-10、およびCIFAR-100の3つのデータセットで12の最新メソッドと比較し、一貫してパフォーマンスが発生していることがわかります。

要約(オリジナル)

Personalized Federated Learning (PFL) aims to train a personalized model for each client that is tailored to its local data distribution, learning fails to perform well on individual clients due to variations in their local data distributions. Most existing PFL methods focus on personalizing the aggregated global model for each client, neglecting the fundamental aspect of federated learning: the regulation of how client models are aggregated. Additionally, almost all of them overlook the graph structure formed by clients in federated learning. In this paper, we propose a novel method, Personalized Federated Learning with Graph Attention Network (pFedGAT), which captures the latent graph structure between clients and dynamically determines the importance of other clients for each client, enabling fine-grained control over the aggregation process. We evaluate pFedGAT across multiple data distribution scenarios, comparing it with twelve state of the art methods on three datasets: Fashion MNIST, CIFAR-10, and CIFAR-100, and find that it consistently performs well.

arxiv情報

著者 Ziran Zhou,Guanyu Gao,Xiaohu Wu,Yan Lyu
発行日 2025-03-07 14:47:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Personalized Federated Learning via Learning Dynamic Graphs はコメントを受け付けていません

MeanCache: User-Centric Semantic Caching for LLM Web Services

要約

ChatGptやLlamaなどの大規模な言語モデル(LLM)は、自然言語処理と検索エンジンのダイナミクスに革命をもたらしました。
ただし、これらのモデルには非常に高い計算コストが発生します。
たとえば、GPT-3は1750億のパラメーターで構成されており、推論には数十億の浮動小数点操作が必要です。
キャッシングは、繰り返しクエリのLLM推論コストを削減するための自然なソリューションであり、クエリ全体の約31%を構成します。
ただし、既存のキャッシュ方法は、LLMクエリ間でセマンティックな類似点を見つけることができず、コンテキストクエリで動作しないため、容認できない誤ったヒットアンドミス率につながります。
このペーパーでは、LLMベースのサービスのユーザー中心のセマンティックキャッシュであるMeancacheを紹介します。
Meycacheを使用して、ユーザーの意味的に類似したクエリへの応答は、LLMを再クエリするのではなく、ローカルキャッシュから取得することができ、コスト、サービスプロバイダーの負荷、環境への影響を削減できます。
Meancacheは、Federated Learning(FL)を活用して、ユーザーのプライバシーに違反することなくクエリの類似性モデルを協力してトレーニングします。
各ユーザーのデバイスにローカルキャッシュを配置し、FLを使用することにより、Meancacheは遅延とコストを削減し、モデルのパフォーマンスを向上させ、誤ったヒット率が低下します。
また、Meancacheは、キャッシュされたクエリごとにコンテキストチェーンをコードし、スタンドアロンからコンテキストクエリ応答を識別するためのシンプルで非常に効果的なメカニズムを提供します。
最先端のキャッシング方法に対してベンチマークされた実験は、CheencacheがCache Cacheのヒットアンドミス決定中に約17%高いFスコアと20%の精度が20%増加し、コンテキストクエリでさらに優れたパフォーマンスを発揮することを明らかにしています。
また、ストレージ要件を83%削減し、セマンティックキャッシュのヒットアンドミスの決定を11%加速します。

要約(オリジナル)

Large Language Models (LLMs) like ChatGPT and Llama have revolutionized natural language processing and search engine dynamics. However, these models incur exceptionally high computational costs. For instance, GPT-3 consists of 175 billion parameters, where inference demands billions of floating-point operations. Caching is a natural solution to reduce LLM inference costs on repeated queries, which constitute about 31% of the total queries. However, existing caching methods are incapable of finding semantic similarities among LLM queries nor do they operate on contextual queries, leading to unacceptable false hit-and-miss rates. This paper introduces MeanCache, a user-centric semantic cache for LLM-based services that identifies semantically similar queries to determine cache hit or miss. Using MeanCache, the response to a user’s semantically similar query can be retrieved from a local cache rather than re-querying the LLM, thus reducing costs, service provider load, and environmental impact. MeanCache leverages Federated Learning (FL) to collaboratively train a query similarity model without violating user privacy. By placing a local cache in each user’s device and using FL, MeanCache reduces the latency and costs and enhances model performance, resulting in lower false hit rates. MeanCache also encodes context chains for every cached query, offering a simple yet highly effective mechanism to discern contextual query responses from standalone. Our experiments benchmarked against the state-of-the-art caching method, reveal that MeanCache attains an approximately 17% higher F-score and a 20% increase in precision during semantic cache hit-and-miss decisions while performing even better on contextual queries. It also reduces the storage requirement by 83% and accelerates semantic cache hit-and-miss decisions by 11%.

arxiv情報

著者 Waris Gill,Mohamed Elidrisi,Pallavi Kalapatapu,Ammar Ahmed,Ali Anwar,Muhammad Ali Gulzar
発行日 2025-03-07 14:49:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CR, cs.DC, cs.LG, I.2.7 | MeanCache: User-Centric Semantic Caching for LLM Web Services はコメントを受け付けていません

CNsum:Automatic Summarization for Chinese News Text

要約

大規模なデータから貴重な情報を効率的に取得することは、ビッグデータの時代における研究目標となっています。
テキスト要約技術は、この需要を満たすために継続的に開発されています。
また、最近の研究では、変圧器ベースの事前訓練モデルが自然言語処理(NLP)のさまざまなタスクで大きな成功を収めていることが示されています。
中国のニューステキストの要約生成の問題と中国語へのトランス構造の適用を目指して、このホワイトペーパーでは、変圧器構造に基づいた中国のニューステキスト要約モデル(CNSUM)を提案し、Thucnewsなどの中国のデータセットでテストします。
実施された実験の結果は、CNSUMがモデルのアウトパフォーマンスを検証するベースラインモデルよりも優れたルージュスコアを達成することを示しています。

要約(オリジナル)

Obtaining valuable information from massive data efficiently has become our research goal in the era of Big Data. Text summarization technology has been continuously developed to meet this demand. Recent work has also shown that transformer-based pre-trained language models have achieved great success on various tasks in Natural Language Processing (NLP). Aiming at the problem of Chinese news text summary generation and the application of Transformer structure on Chinese, this paper proposes a Chinese news text summarization model (CNsum) based on Transformer structure, and tests it on Chinese datasets such as THUCNews. The results of the conducted experiments show that CNsum achieves better ROUGE score than the baseline models, which verifies the outperformance of the model.

arxiv情報

著者 Yu Zhao,Songping Huang,Dongsheng Zhou,Zhaoyun Ding,Fei Wang,Aixin Nian
発行日 2025-03-07 14:56:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | CNsum:Automatic Summarization for Chinese News Text はコメントを受け付けていません

I/O in Machine Learning Applications on HPC Systems: A 360-degree Survey

要約

人工知能(AI)への関心の高まりにより、機械学習のより速い方法(ML)モデルのトレーニングと推論の需要が急増しました。
この速度需要により、分散ワークロードの管理に優れた高性能コンピューティング(HPC)システムの使用が促されました。
データはAIアプリケーションの主要な燃料であるため、HPCシステムのストレージとI/Oサブシステムのパフォーマンスが重要です。
過去に、HPCアプリケーションは、視覚化または分析タスクのために、シミュレーションまたは実験または摂取されたデータによって記述されたデータの大部分にアクセスしました。
MLワークロードは、多数のランダムファイルに広がる小さな読み取りを実行します。
I/Oアクセスパターンのこのシフトは、最新の並列ストレージシステムにいくつかの課題をもたらします。
このホワイトペーパーでは、HPCシステムに関するMLアプリケーションのI/Oを調査し​​、2019年から2024年までの6年間の時間枠内で文献をターゲットにします。調査の範囲を定義し、MLの一般的な段階の概要を提供し、利用可能なプロファイラーとベンチマークをレビューし、オフラインデータの準備中に遭遇したI/Oパターン、Opected Inpored and explore InのI/Oパターンを調べます。
最近の文献。
最後に、さらにR&Dを生み出す可能性のある研究ギャップを公開しようとしています。

要約(オリジナル)

Growing interest in Artificial Intelligence (AI) has resulted in a surge in demand for faster methods of Machine Learning (ML) model training and inference. This demand for speed has prompted the use of high performance computing (HPC) systems that excel in managing distributed workloads. Because data is the main fuel for AI applications, the performance of the storage and I/O subsystem of HPC systems is critical. In the past, HPC applications accessed large portions of data written by simulations or experiments or ingested data for visualizations or analysis tasks. ML workloads perform small reads spread across a large number of random files. This shift of I/O access patterns poses several challenges to modern parallel storage systems. In this paper, we survey I/O in ML applications on HPC systems, and target literature within a 6-year time window from 2019 to 2024. We define the scope of the survey, provide an overview of the common phases of ML, review available profilers and benchmarks, examine the I/O patterns encountered during offline data preparation, training, and inference, and explore I/O optimizations utilized in modern ML frameworks and proposed in recent literature. Lastly, we seek to expose research gaps that could spawn further R&D.

arxiv情報

著者 Noah Lewis,Jean Luca Bez,Surendra Byna
発行日 2025-03-07 15:11:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.DC, cs.LG, I.2.11 | I/O in Machine Learning Applications on HPC Systems: A 360-degree Survey はコメントを受け付けていません

EuroBERT: Scaling Multilingual Encoders for European Languages

要約

検索、回帰、分類で使用される汎用多言語ベクトル表現は、従来、双方向エンコーダーモデルから取得されています。
その幅広い適用性にもかかわらず、エンコーダーは最近、生成デコーダーのみのモデルの進歩によって隠されています。
ただし、この進歩を促進する多くの革新は、本質的にデコーダーに結び付けられていません。
この論文では、これらの進歩のレンズを介して多言語エンコーダーの開発を再訪し、ヨーロッパと広く話されているグローバル言語をカバーする多言語エンコーダーのファミリーであるユーロベルトを紹介します。
私たちのモデルは、多言語機能、数学、コーディングにまたがる多様なタスクにわたって既存の代替案よりも優れており、最大8,192トークンのシーケンスをネイティブにサポートしています。
また、Eurobertの背後にある設計上の決定を検討し、データセットの構成とトレーニングパイプラインに関する洞察を提供します。
トレーニングフレームワークとともに、中級トレーニングチェックポイントを含むEurobertモデルを公開しています。

要約(オリジナル)

General-purpose multilingual vector representations, used in retrieval, regression and classification, are traditionally obtained from bidirectional encoder models. Despite their wide applicability, encoders have been recently overshadowed by advances in generative decoder-only models. However, many innovations driving this progress are not inherently tied to decoders. In this paper, we revisit the development of multilingual encoders through the lens of these advances, and introduce EuroBERT, a family of multilingual encoders covering European and widely spoken global languages. Our models outperform existing alternatives across a diverse range of tasks, spanning multilingual capabilities, mathematics, and coding, and natively supporting sequences of up to 8,192 tokens. We also examine the design decisions behind EuroBERT, offering insights into our dataset composition and training pipeline. We publicly release the EuroBERT models, including intermediate training checkpoints, together with our training framework.

arxiv情報

著者 Nicolas Boizard,Hippolyte Gisserot-Boukhlef,Duarte M. Alves,André Martins,Ayoub Hammal,Caio Corro,Céline Hudelot,Emmanuel Malherbe,Etienne Malaboeuf,Fanny Jourdan,Gabriel Hautreux,João Alves,Kevin El-Haddad,Manuel Faysse,Maxime Peyrard,Nuno M. Guerreiro,Patrick Fernandes,Ricardo Rei,Pierre Colombo
発行日 2025-03-07 15:13:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | EuroBERT: Scaling Multilingual Encoders for European Languages はコメントを受け付けていません

Massive Activations in Graph Neural Networks: Decoding Attention for Domain-Dependent Interpretability

要約

グラフニューラルネットワーク(GNNS)は、グラフ構造化データの効果的なモデリングでますます一般的になっており、これらのモデルが複雑なパターンをキャプチャできるようにするための注意メカニズムは極めて重要です。
私たちの研究では、エッジフィーチャーされたGNNSに注意を統合することの重要でありながら未使用の結果を明らかにします。注意層内の大規模な活性化(MAS)の出現です。
Edge機能でMASを検出するための新しい方法を開発することにより、これらの極端な活性化は活性化の異常であるだけでなく、ドメイン関連信号をエンコードすることを示します。
私たちの事後解釈可能性分析は、分子グラフでは、主に一般的な結合タイプ(例:単一および二重結合)に集約されながら、より有益なもの(トリプルボンドなど)を節約することを示しています。
さらに、私たちのアブレーション研究は、MASが自然な帰属指標として機能し、あまり有益でないエッジに再配置できることを確認しています。
我々の研究では、亜鉛、Tox21、タンパク質などのベンチマークデータセットを使用して、さまざまなエッジフィーチングの注意ベースのGNNモデルを評価します。
重要な貢献には、(1)エッジフィーチャーされたGNNSにおける注意メカニズムとMAS生成との直接的なリンクの確立、(2)信頼できる事後解釈可能性を可能にするMAの堅牢な定義と検出方法の開発が含まれます。
全体として、私たちの研究では、注意メカニズム、エッジ機能GNNSモデル、およびMASの出現との複雑な相互作用が明らかになり、GNNSの内部をドメインの知識に関連付けるための重要な洞察を提供します。

要約(オリジナル)

Graph Neural Networks (GNNs) have become increasingly popular for effectively modeling graph-structured data, and attention mechanisms have been pivotal in enabling these models to capture complex patterns. In our study, we reveal a critical yet underexplored consequence of integrating attention into edge-featured GNNs: the emergence of Massive Activations (MAs) within attention layers. By developing a novel method for detecting MAs on edge features, we show that these extreme activations are not only activation anomalies but encode domain-relevant signals. Our post-hoc interpretability analysis demonstrates that, in molecular graphs, MAs aggregate predominantly on common bond types (e.g., single and double bonds) while sparing more informative ones (e.g., triple bonds). Furthermore, our ablation studies confirm that MAs can serve as natural attribution indicators, reallocating to less informative edges. Our study assesses various edge-featured attention-based GNN models using benchmark datasets, including ZINC, TOX21, and PROTEINS. Key contributions include (1) establishing the direct link between attention mechanisms and MAs generation in edge-featured GNNs, (2) developing a robust definition and detection method for MAs enabling reliable post-hoc interpretability. Overall, our study reveals the complex interplay between attention mechanisms, edge-featured GNNs model, and MAs emergence, providing crucial insights for relating GNNs internals to domain knowledge.

arxiv情報

著者 Lorenzo Bini,Marco Sorbi,Stephane Marchand-Maillet
発行日 2025-03-07 15:17:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Massive Activations in Graph Neural Networks: Decoding Attention for Domain-Dependent Interpretability はコメントを受け付けていません

Unsupervised detection of semantic correlations in big data

要約

実際のデータでは、情報は非常に大きな機能ベクトルに保存されます。
これらの変数は、通常、多くの機能が同時に関与する複雑な相互作用のために相関しています。
このような相関関係は、セマンティックの役割に定性的に対応しており、人間の脳と人工ニューラルネットワークの両方によって自然に認識されています。
この認識により、たとえば、コンテキストに基づいて画像またはテキストの不足している部分の予測が可能になります。
バイナリ数として表される高次元データでこれらの相関を検出する方法を提示します。
データセットのバイナリ固有の次元を推定します。これにより、データを説明するために必要な独立した座標の最小数を定量化するため、セマンティックな複雑さの代理です。
提案されたアルゴリズムは、次元のいわゆる呪いに大部分が鈍感であるため、ビッグデータ分析で使用できます。
モデル磁気システムの位相遷移を識別するこのアプローチをテストし、深いニューラルネットワーク内の画像とテキストのセマンティック相関の検出に適用します。

要約(オリジナル)

In real-world data, information is stored in extremely large feature vectors. These variables are typically correlated due to complex interactions involving many features simultaneously. Such correlations qualitatively correspond to semantic roles and are naturally recognized by both the human brain and artificial neural networks. This recognition enables, for instance, the prediction of missing parts of an image or text based on their context. We present a method to detect these correlations in high-dimensional data represented as binary numbers. We estimate the binary intrinsic dimension of a dataset, which quantifies the minimum number of independent coordinates needed to describe the data, and is therefore a proxy of semantic complexity. The proposed algorithm is largely insensitive to the so-called curse of dimensionality, and can therefore be used in big data analysis. We test this approach identifying phase transitions in model magnetic systems and we then apply it to the detection of semantic correlations of images and text inside deep neural networks.

arxiv情報

著者 Santiago Acevedo,Alex Rodriguez,Alessandro Laio
発行日 2025-03-07 15:21:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, physics.comp-ph | Unsupervised detection of semantic correlations in big data はコメントを受け付けていません

Grammar-Based Code Representation: Is It a Worthy Pursuit for LLMs?

要約

文法は、プログラミング言語とソフトウェアエンジニアリングの基礎として機能し、構文空間とプログラム構造を定義するフレームワークを提供します。
既存の研究は、小規模モデルにおける文法ベースのコード表現の有効性を示しており、構文エラーを減らし、パフォーマンスを向上させる能力を示しています。
ただし、言語モデルが10億レベル以上にスケーリングするにつれて、構文レベルのエラーはまれになり、文法情報が依然としてパフォーマンスの利点をもたらすかどうかは不明です。
これを調査するために、コード生成プロセスに文法ルールを組み込んだ数十億規模の文法モデルのシリーズを開発します。
Humanval(+)およびMBPP(+)の実験は、コード生成の精度の顕著な改善を示しています。
さらなる分析により、文法ベースの表現は、微妙なコードの違いを識別するLLMSの能力を高め、軽度の変動によって引き起こされるセマンティックエラーを減らすことが示されています。
これらの調査結果は、文法ベースのコード表現は、構文の正確性を維持するだけでなく、セマンティック差別化を改善することによって、10億規模のモデルでも価値があることを示唆しています。

要約(オリジナル)

Grammar serves as a cornerstone in programming languages and software engineering, providing frameworks to define the syntactic space and program structure. Existing research demonstrates the effectiveness of grammar-based code representations in small-scale models, showing their ability to reduce syntax errors and enhance performance. However, as language models scale to the billion level or beyond, syntax-level errors become rare, making it unclear whether grammar information still provides performance benefits. To explore this, we develop a series of billion-scale GrammarCoder models, incorporating grammar rules in the code generation process. Experiments on HumanEval (+) and MBPP (+) demonstrate a notable improvement in code generation accuracy. Further analysis shows that grammar-based representations enhance LLMs’ ability to discern subtle code differences, reducing semantic errors caused by minor variations. These findings suggest that grammar-based code representations remain valuable even in billion-scale models, not only by maintaining syntax correctness but also by improving semantic differentiation.

arxiv情報

著者 Qingyuan Liang,Zhao Zhang,Zeyu Sun,Zheng Lin,Qi Luo,Yueyi Xiao,Yizhou Chen,Yuqun Zhang,Haotian Zhang,Lu Zhang,Bin Chen,Yingfei Xiong
発行日 2025-03-07 15:23:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.PL | Grammar-Based Code Representation: Is It a Worthy Pursuit for LLMs? はコメントを受け付けていません

Noise-Robust Radio Frequency Fingerprint Identification Using Denoise Diffusion Model

要約

モノのインターネット(IoT)デバイスを保護することで、計算およびエネルギーリソースが限られているため、増加する課題があります。
無線周波数指紋識別(RFFI)は、ハードウェア障害を介してワイヤレスデバイスを識別するための有望な認証手法として登場します。
低信号対雑音比(SNR)シナリオでのRFFIパフォーマンスは、微小ハードウェア機能がノイズで簡単に圧倒される可能性があるため、大幅に低下します。
この論文では、拡散モデルを活用して、低SNRシナリオの下でRFFを効果的に復元しました。
具体的には、強力なノイズ予測因子をトレーニングし、ノイズ除去アルゴリズムを調整して、受信信号のノイズレベルを効果的に低下させ、デバイスの指紋を復元しました。
Wi-Fiをケーススタディとして使用し、6つの市販のWi-FiドングルとUSRP N210ソフトウェア定義ラジオ(SDR)プラットフォームを含むテストベッドを作成しました。
さまざまなSNRシナリオで実験的評価を実施しました。
実験結果は、提案されたアルゴリズムが分類精度を最大34.9%改善できることを示しています。

要約(オリジナル)

Securing Internet of Things (IoT) devices presents increasing challenges due to their limited computational and energy resources. Radio Frequency Fingerprint Identification (RFFI) emerges as a promising authentication technique to identify wireless devices through hardware impairments. RFFI performance under low signal-to-noise ratio (SNR) scenarios is significantly degraded because the minute hardware features can be easily swamped in noise. In this paper, we leveraged the diffusion model to effectively restore the RFF under low SNR scenarios. Specifically, we trained a powerful noise predictor and tailored a noise removal algorithm to effectively reduce the noise level in the received signal and restore the device fingerprints. We used Wi-Fi as a case study and created a testbed involving 6 commercial off-the-shelf Wi-Fi dongles and a USRP N210 software-defined radio (SDR) platform. We conducted experimental evaluations on various SNR scenarios. The experimental results show that the proposed algorithm can improve the classification accuracy by up to 34.9%.

arxiv情報

著者 Guolin Yin,Junqing Zhang,Yuan Ding,Simon Cotton
発行日 2025-03-07 15:30:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, eess.SP | Noise-Robust Radio Frequency Fingerprint Identification Using Denoise Diffusion Model はコメントを受け付けていません

Cognitive Bias Detection Using Advanced Prompt Engineering

要約

認知バイアス、判断における合理性からの体系的な逸脱は、客観的な内容を生成する上で重要な課題をもたらします。
このペーパーでは、大規模な言語モデル(LLM)と高度な迅速なエンジニアリング手法を使用したユーザー生成テキストでのリアルタイム認知バイアス検出のための新しいアプローチを紹介します。
提案されたシステムは、テキストデータを分析して、確認バイアス、循環推論、隠された仮定などの一般的な認知バイアスを特定します。
テーラードプロンプトを設計することにより、システムはこれらのバイアスを認識して軽減するためにLLMSの機能を効果的に活用し、人間で生成されたコンテンツの品質を向上させます(たとえば、ニュース、メディア、レポート)。
実験結果は、認知バイアスを特定する際のアプローチの高精度を示し、コンテンツの客観性を高め、偏った意思決定のリスクを減らすための貴重なツールを提供します。

要約(オリジナル)

Cognitive biases, systematic deviations from rationality in judgment, pose significant challenges in generating objective content. This paper introduces a novel approach for real-time cognitive bias detection in user-generated text using large language models (LLMs) and advanced prompt engineering techniques. The proposed system analyzes textual data to identify common cognitive biases such as confirmation bias, circular reasoning, and hidden assumption. By designing tailored prompts, the system effectively leverages LLMs’ capabilities to both recognize and mitigate these biases, improving the quality of human-generated content (e.g., news, media, reports). Experimental results demonstrate the high accuracy of our approach in identifying cognitive biases, offering a valuable tool for enhancing content objectivity and reducing the risks of biased decision-making.

arxiv情報

著者 Frederic Lemieux,Aisha Behr,Clara Kellermann-Bryant,Zaki Mohammed
発行日 2025-03-07 15:35:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CY, cs.HC | Cognitive Bias Detection Using Advanced Prompt Engineering はコメントを受け付けていません