Function Alignment: A New Theory of Mind and Intelligence, Part I: Foundations

要約

このペーパーでは、関数アラインメントを紹介します。これは、直感的に説得力があり、構造的に接地された、心と知性の新しい理論です。
それは、階層化された表現間の相互作用から意味、解釈、類推がどのように出現するかを明示的にモデル化し、マインドをモデリングするだけでなく、それらを構築するための青写真としても役立つ一貫したフレームワークを形成します。
関数のアライメントから導き出された重要な理論的洞察の1つは、境界のある解釈可能性であり、これは、境界の合理性、シンボル接地、類推などの認知科学における以前に断片化されたアイデアの統一された説明を提供します。
モデリングを超えて、関数アラインメントフレームワークは、しばしば分解され、計算アーキテクチャ、心理理論、さらにはZenなどの瞑想的な伝統をリンクし、分野を橋渡しします。
哲学的システムに基づいているのではなく、心を理解する複数の方法が再構築される可能性のある構造的基盤を提供します。

要約(オリジナル)

This paper introduces function alignment, a novel theory of mind and intelligence that is both intuitively compelling and structurally grounded. It explicitly models how meaning, interpretation, and analogy emerge from interactions among layered representations, forming a coherent framework capable not only of modeling minds but also of serving as a blueprint for building them. One of the key theoretical insights derived from function alignment is bounded interpretability, which provides a unified explanation for previously fragmented ideas in cognitive science, such as bounded rationality, symbol grounding, and analogy-making. Beyond modeling, the function alignment framework bridges disciplines often kept apart, linking computational architecture, psychological theory, and even contemplative traditions such as Zen. Rather than building on any philosophical systems, it offers a structural foundation upon which multiple ways of understanding the mind may be reconstructed.

arxiv情報

著者 Gus G. Xia
発行日 2025-04-14 13:44:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T27, 91E45, cs.CL, F.4.1 | Function Alignment: A New Theory of Mind and Intelligence, Part I: Foundations はコメントを受け付けていません

Probing then Editing Response Personality of Large Language Models

要約

大規模な言語モデル(LLM)は、一貫した性格特性を示す応答を生成する有望な能力を実証しています。
出力ベースの評価を通じて人格表現を分析する主要な試みにもかかわらず、そのような特性がLLMパラメーター内でどのように内部にエンコードされているかについてはほとんど知られていません。
このホワイトペーパーでは、レイヤーごとの調査フレームワークを紹介して、応答のためのエンコードパーソナリティにおけるLLMのレイヤーワイズ能力を体系的に調査します。
PersonalityEditベンチマークを介して11のオープンソースLLMで調査実験を実施し、LLMSが中間層と上層で応答するために主に性格をエンコードし、命令チューニングモデルが人格特性のわずかに明確な分離を示すことを発見しました。
さらに、各パーソナリティカテゴリのレイヤーワイズ境界として訓練されたプローブプレーンを解釈することにより、推論中にLLMSによって表現された性格を編集するための層ごとの摂動方法を提案します。
私たちの結果は、プロンプトが特定の性格を明示的に指定したとしても、私たちの方法がLLMSの応答性格をうまく変えることができることを示しています。
興味深いことに、特定の性格特性間の変換の難しさは大きく異なり、プロービング実験の表現距離と一致します。
最後に、包括的なMMLUベンチマーク評価と時間オーバーヘッド分析を実施し、提案された性格編集方法は、低トレーニングコストと許容可能な推論の遅延を維持しながら、一般的な能力の最小限の分解のみが発生することを実証します。
私たちのコードは、https://github.com/universe-sky/probing-then-editing-personalityで公開されています。

要約(オリジナル)

Large Language Models (LLMs) have demonstrated promising capabilities to generate responses that exhibit consistent personality traits. Despite the major attempts to analyze personality expression through output-based evaluations, little is known about how such traits are internally encoded within LLM parameters. In this paper, we introduce a layer-wise probing framework to systematically investigate the layer-wise capability of LLMs in encoding personality for responding. We conduct probing experiments on 11 open-source LLMs over the PersonalityEdit benchmark and find that LLMs predominantly encode personality for responding in their middle and upper layers, with instruction-tuned models demonstrating a slightly clearer separation of personality traits. Furthermore, by interpreting the trained probing hyperplane as a layer-wise boundary for each personality category, we propose a layer-wise perturbation method to edit the personality expressed by LLMs during inference. Our results show that even when the prompt explicitly specifies a particular personality, our method can still successfully alter the response personality of LLMs. Interestingly, the difficulty of converting between certain personality traits varies substantially, which aligns with the representational distances in our probing experiments. Finally, we conduct a comprehensive MMLU benchmark evaluation and time overhead analysis, demonstrating that our proposed personality editing method incurs only minimal degradation in general capabilities while maintaining low training costs and acceptable inference latency. Our code is publicly available at https://github.com/universe-sky/probing-then-editing-personality.

arxiv情報

著者 Tianjie Ju,Zhenyu Shao,Bowen Wang,Yujia Chen,Zhuosheng Zhang,Hao Fei,Mong-Li Lee,Wynne Hsu,Sufeng Duan,Gongshen Liu
発行日 2025-04-14 13:46:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Probing then Editing Response Personality of Large Language Models はコメントを受け付けていません

A Semantic-based Optimization Approach for Repairing LLMs: Case Study on Code Generation

要約

言語モデル(LMS)は、コード生成のためにソフトウェアエンジニアリングで広く使用されていますが、エラーがあるコードを作成する場合があります。
生成されたコードを修復するのではなく、別の方法は、モデルの根本的な障害に対処することです。
LM修理は、この課題に対する軽量ソリューションを提供します。最小限のデータが必要であり、計算コストを削減し、副作用を減らします。
再訓練とは異なり、LM Repairは、ターゲットニューロンにテーラードアップデートを適用することに焦点を当てており、リソースが限られているシナリオ、高性能需要、または厳格な安全要件に最適です。
この論文では、LLMを修復するための先駆的で新しいセマンティックベースの最適化アプローチである\ ul {s} emantic \ ul {t} argeting for \ ul {a} nalytical \ ul {r} epair(\ textsc {star})を提案します。
\ textSc {star}「バギーニューロン」の検索、「ニューロンパッチ」の解決、「バギーニューロン」のパッチを発するなど、最適化プロセスでLM修復方法の主要な操作を実現します。
それに対応して、最適化を導くための以前の情報として重量マトリックスのデルタを計算します。
標的層と統計的洞察を活用するニューロンを属性にします。
ニューロンパッチは、潜在的な表現をステアリングすることにより、ニューロンのデルタとのロジットへの変更を直接橋渡しする固体セマンティックベースの分析式で計算されます。
LM修復(\ textSc {mint})および最適化方法(\ textsc {sgd})の以前の研究と比較して、\ textsc {star}は、制限を軽減しながら強度を統合します。
\ textSc {star}は、複数の障害の解決をサポートし、有用性を大幅に改善します。
人気のあるコードLMSを使用して3つのコード生成タスクで評価された\ textsc {star}は、優れた効果を示しています。
さらに、\ textsc {star}はより良い効率を示します。
副作用の観点から、つまり、一般化と特異性のバランスは、\ textsc {star}が事前の作業を大幅に上回っています。

要約(オリジナル)

Language Models (LMs) are widely used in software engineering for code generation, but they may produce code with errors. Rather than repairing the generated code, an alternative way is to address the underlying failures of models. LM repair offers a lightweight solution to this challenge: it requires minimal data, reduces computational costs, and reduces the side effects. Unlike retraining, LM repair focuses on applying tailored updates to targeted neurons, making it ideal for scenarios with limited resources, high-performance demands, or strict safety requirements. In this paper, we propose \ul{S}emantic \ul{T}argeting for \ul{A}nalytical \ul{R}epair (\textsc{STAR}), a pioneering and novel semantic-based optimization approach for repairing LLMs. \textsc{STAR} realizes main operations in LM repair methods in an optimization process, including locating “buggy neurons”, solving “neuron patches”, and patching “buggy neurons”. Correspondingly, it computes the deltas of weight matrix as the prior information to guide optimization; and attributes the targeted layers and neurons leveraging statistical insights. The neuron patches are computed with a solid semantic-based analytical formula, which directly bridges the changes to logits with the deltas of neurons, by steering latent representations. Compared to the prior work of LM repair (\textsc{MINT}) and optimization methods (\textsc{SGD}), \textsc{STAR} integrates their strengths while mitigating their limitations. \textsc{STAR} supports solving multiple failures together, significantly improving the usefulness. Evaluated on three code generation tasks using popular code LMs, \textsc{STAR} demonstrates superior effectiveness. Additionally, \textsc{STAR} exhibits better efficiency. In terms of side effects, namely the balance between generalization and specificity, \textsc{STAR} outperforms prior work by a significant margin.

arxiv情報

著者 Jian Gu,Aldeida Aleti,Chunyang Chen,Hongyu Zhang
発行日 2025-04-14 13:57:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG, cs.SE | A Semantic-based Optimization Approach for Repairing LLMs: Case Study on Code Generation はコメントを受け付けていません

MURR: Model Updating with Regularized Replay for Searching a Document Stream

要約

インターネットは、新しいドキュメントとユーザー生成のクエリの連続ストリームを生成します。
これらは、世界の出来事と言語の進化に基づいて、自然に時間とともに変化します。
クエリドキュメントペアの固定セットで一度トレーニングされたニューラル検索モデルは、新たに作成されたコンテンツとクエリの不実表示を迅速に開始し、効果的な検索につながります。
従来の統計的スパース検索は、ドキュメントやクエリでの言語の使用におけるこれらの変更を反映するために、収集統計を更新できます。
対照的に、DPRやコルバートなどの神経検索アプローチの根底にある言語モデルの継続的な微調整は、以前にエンコードされたドキュメントと非互換性を生み出します。
以前に処理されたすべてのドキュメントの再エンコードと再インデックスには費用がかかる場合があります。
この作業では、ストリーム内の過去のドキュメントを再処理することなく、ニューラルデュアルエンコーダー検索モデルの更新を検討します。
正規化されたリプレイを使用したモデル更新戦略であるMurrを提案し、最新のトピックのモデルを更新し続けながら、モデルが既存のドキュメントを忠実に検索できるようにします。
シミュレートされたストリーミング環境では、MURRを使用した微調整モデルは、ドキュメントとクエリのストリームが進むにつれて、他の戦略よりも効果的で一貫した検索結果につながることを示しています。

要約(オリジナル)

The Internet produces a continuous stream of new documents and user-generated queries. These naturally change over time based on events in the world and the evolution of language. Neural retrieval models that were trained once on a fixed set of query-document pairs will quickly start misrepresenting newly-created content and queries, leading to less effective retrieval. Traditional statistical sparse retrieval can update collection statistics to reflect these changes in the use of language in documents and queries. In contrast, continued fine-tuning of the language model underlying neural retrieval approaches such as DPR and ColBERT creates incompatibility with previously-encoded documents. Re-encoding and re-indexing all previously-processed documents can be costly. In this work, we explore updating a neural dual encoder retrieval model without reprocessing past documents in the stream. We propose MURR, a model updating strategy with regularized replay, to ensure the model can still faithfully search existing documents without reprocessing, while continuing to update the model for the latest topics. In our simulated streaming environments, we show that fine-tuning models using MURR leads to more effective and more consistent retrieval results than other strategies as the stream of documents and queries progresses.

arxiv情報

著者 Eugene Yang,Nicola Tonellotto,Dawn Lawrie,Sean MacAvaney,James Mayfield,Douglas W. Oard,Scott Miller
発行日 2025-04-14 14:13:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR | MURR: Model Updating with Regularized Replay for Searching a Document Stream はコメントを受け付けていません

Can LLMs Generate Tabular Summaries of Science Papers? Rethinking the Evaluation Protocol

要約

文献レビュー表は、科学論文のコレクションを要約して比較するために不可欠です。
科学論文のコレクションを考慮して、ユーザーの情報ニーズを最もよく満たすテーブルを生成するタスクを探ります。
最近の作品(Newman et al。、2024)に基づいて、LLMベースの方法と人間の注釈の組み合わせを通じて、実際の複雑さに対処するための以前のアプローチを拡張します。
当社の貢献は、実際の使用で遭遇する3つの重要な課題に焦点を当てています。
(ii)検索された候補論文には、無関係なコンテンツが頻繁に含まれています。
(iii)タスクの評価は、浅いテキストの類似性手法を超えて移動し、代わりに情報を求めるタスクの推定テーブルの有用性を評価する必要があります(例:論文の比較)。
再現可能な評価をサポートするために、このタスクのより現実的で挑戦的なベンチマークであるArxiv2tableを紹介し、現実世界のシナリオでの文献レビューテーブル生成を改善するための新しいアプローチを紹介します。
このベンチマークに関する私たちの広範な実験は、オープンウェイトと独自のLLMの両方がタスクに苦労し、その困難とさらなる進歩の必要性を強調していることを示しています。
データセットとコードは、https://github.com/jhu-clsp/arxiv2tableで入手できます。

要約(オリジナル)

Literature review tables are essential for summarizing and comparing collections of scientific papers. We explore the task of generating tables that best fulfill a user’s informational needs given a collection of scientific papers. Building on recent work (Newman et al., 2024), we extend prior approaches to address real-world complexities through a combination of LLM-based methods and human annotations. Our contributions focus on three key challenges encountered in real-world use: (i) User prompts are often under-specified; (ii) Retrieved candidate papers frequently contain irrelevant content; and (iii) Task evaluation should move beyond shallow text similarity techniques and instead assess the utility of inferred tables for information-seeking tasks (e.g., comparing papers). To support reproducible evaluation, we introduce ARXIV2TABLE, a more realistic and challenging benchmark for this task, along with a novel approach to improve literature review table generation in real-world scenarios. Our extensive experiments on this benchmark show that both open-weight and proprietary LLMs struggle with the task, highlighting its difficulty and the need for further advancements. Our dataset and code are available at https://github.com/JHU-CLSP/arXiv2Table.

arxiv情報

著者 Weiqi Wang,Jiefu Ou,Yangqiu Song,Benjamin Van Durme,Daniel Khashabi
発行日 2025-04-14 14:52:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Can LLMs Generate Tabular Summaries of Science Papers? Rethinking the Evaluation Protocol はコメントを受け付けていません

ReasoningRank: Teaching Student Models to Rank through Reasoning-Based Knowledge Distillation

要約

特定のクエリとの関連性に基づいてドキュメントを再表示することは、情報検索の重要なタスクです。
従来の再ランキング方法はしばしば透明性に欠け、独自のモデルに依存し、再現性と解釈性を妨げます。
2つのタイプの推論を生成することにより透明性を高める新しいオープンソースの再ランキングアプローチであるReason-to-Ramp(R2R)を提案します。これは、ドキュメントがクエリにどのように対処するかを説明する直接的な関連性推論と、あるドキュメントの関連性を別のドキュメントの関連性を正当化する方法を説明する方法を説明します。
大規模な言語モデル(LLM)を教師モデルとして活用してこれらの説明を生成し、この知識をより小さく、公然と利用可能な学生モデルに蒸留します。
私たちの学生モデルは、意味のある推論と再評価のドキュメントを生成するように訓練されており、MSMARCOやBrightを含む複数のデータセットで競争力のあるパフォーマンスを達成しています。
実験は、R2Rが再ランキングの精度を改善するだけでなく、意思決定プロセスに関する貴重な洞察を提供することを示しています。
R2Rは、オープンにアクセス可能なリソースを備えた構造化された解釈可能なソリューションを提供することにより、情報検索の有効性と透明性のギャップを埋め、フィールドでの再現性とさらなる研究を促進することを目指しています。

要約(オリジナル)

Reranking documents based on their relevance to a given query is a critical task in information retrieval. Traditional reranking methods often lack transparency and rely on proprietary models, hindering reproducibility and interpretability. We propose Reason-to-Rank (R2R), a novel open-source reranking approach that enhances transparency by generating two types of reasoning: direct relevance reasoning, which explains how a document addresses the query, and comparison reasoning, which justifies the relevance of one document over another. We leverage large language models (LLMs) as teacher models to generate these explanations and distill this knowledge into smaller, openly available student models. Our student models are trained to generate meaningful reasoning and rerank documents, achieving competitive performance across multiple datasets, including MSMARCO and BRIGHT. Experiments demonstrate that R2R not only improves reranking accuracy but also provides valuable insights into the decision-making process. By offering a structured and interpretable solution with openly accessible resources, R2R aims to bridge the gap between effectiveness and transparency in information retrieval, fostering reproducibility and further research in the field.

arxiv情報

著者 Yuelyu Ji,Zhuochun Li,Rui Meng,Daqing He
発行日 2025-04-14 14:58:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | ReasoningRank: Teaching Student Models to Rank through Reasoning-Based Knowledge Distillation はコメントを受け付けていません

BabyLM’s First Words: Word Segmentation as a Phonological Probing Task

要約

言語モデルは、予測に基づいて言語理論を研究するための重要なフレームワークを提供しますが、大規模な言語モデル(LLM)を使用した音韻分析は困難です。
英語を超えて音韻ベンチマークはほとんどありません。LLMSで使用される標準の入力表現(グラフメムのサブワード)は、音素の表現を分析するのに適していません。
この作業では、単語セグメンテーションを音韻プロービングタスクとしてどのように使用できるかを示し、31の言語で児童指向のスピーチで訓練された音韻ベースの言語モデルによって学んだ表現を研究することができます。
単語セグメンテーションの計算モデルに従って、予測と誤差が単語の開始時にピークに達するという観察を使用して、訓練されたモデルから単語の境界を抽出するための監視されていない方法を提示します。
また、線形プローブを使用して、これらのモデルがトレーニングに表示されない場合でも、単語の境界を暗黙的に追跡することを識別します。
この横断的な作業は、習得の統計学習理論を裏付け、サブワードトニーザーをトレーニングするための新しい方法を経験的に動機付けます。

要約(オリジナル)

Language models provide a key framework for studying linguistic theories based on prediction, but phonological analysis using large language models (LLMs) is difficult; there are few phonological benchmarks beyond English and the standard input representation used in LLMs (subwords of graphemes) is not suitable for analyzing the representation of phonemes. In this work, we demonstrate how word segmentation can be used as a phonological probing task, allowing us to study the representations learned by phoneme-based language models trained on child-directed speech across 31 languages. Following computational models of word segmentation, we present unsupervised methods for extracting word boundaries from a trained model using the observation that prediction-error peaks at the start of words. We also use linear probes to identify that these models implicitly track word boundaries, even when they do not appear in training. This cross-lingual work corroborates statistical learning theories of acquisition and empirically motivates new methods for training subword tokenizers.

arxiv情報

著者 Zébulon Goriely,Paula Buttery
発行日 2025-04-14 15:12:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | BabyLM’s First Words: Word Segmentation as a Phonological Probing Task はコメントを受け付けていません

IPA-CHILDES & G2P+: Feature-Rich Resources for Cross-Lingual Phonology and Phonemic Language Modeling

要約

この論文では、2つのリソースを紹介します。(i)G2P+、正書法データセットを一貫した音素表現に変換するためのツール。
(ii)IPA Childes、31の言語にわたる子育ての音声の音素データセット。
グラフェムから音語への変換のための以前のツールは、確立された音素インベントリと矛盾する音素語彙をもたらします。これは、hoibleデータベースの在庫を活用することでG2P+が対処する問題です。
このツールを使用して、音素転写で子供を増やしてIPA Childesを生産します。
この新しいリソースは、既存の音素データセットのいくつかのギャップを埋めます。これは、多言語のカバレッジ、自発的なスピーチ、児童指向の言語に焦点を当てていることがよくあります。
11の言語で音素言語モデルをトレーニングし、独特の機能を探索することにより、音韻研究のためのこのデータセットの有用性を実証し、音素の分布特性が主要なクラスを学習し、特徴を横断的に配置するのに十分であることを発見します。

要約(オリジナル)

In this paper, we introduce two resources: (i) G2P+, a tool for converting orthographic datasets to a consistent phonemic representation; and (ii) IPA CHILDES, a phonemic dataset of child-centered speech across 31 languages. Prior tools for grapheme-to-phoneme conversion result in phonemic vocabularies that are inconsistent with established phonemic inventories, an issue which G2P+ addresses by leveraging the inventories in the Phoible database. Using this tool, we augment CHILDES with phonemic transcriptions to produce IPA CHILDES. This new resource fills several gaps in existing phonemic datasets, which often lack multilingual coverage, spontaneous speech, and a focus on child-directed language. We demonstrate the utility of this dataset for phonological research by training phoneme language models on 11 languages and probing them for distinctive features, finding that the distributional properties of phonemes are sufficient to learn major class and place features cross-lingually.

arxiv情報

著者 Zébulon Goriely,Paula Buttery
発行日 2025-04-14 15:18:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | IPA-CHILDES & G2P+: Feature-Rich Resources for Cross-Lingual Phonology and Phonemic Language Modeling はコメントを受け付けていません

A-MEM: Agentic Memory for LLM Agents

要約

大規模な言語モデル(LLM)エージェントは、複雑な実世界のタスクに外部ツールを効果的に使用できますが、歴史的な経験を活用するためにメモリシステムが必要です。
現在のメモリシステムは、基本的なストレージと検索を可能にしますが、グラフデータベースを組み込もうとする最近の試みにもかかわらず、洗練されたメモリ組織を欠いています。
さらに、これらのシステムの固定操作と構造は、多様なタスク全体で適応性を制限しています。
この制限に対処するために、このペーパーでは、エージェントの方法で記憶を動的に整理できるLLMエージェント向けの新しいエージェントメモリシステムを提案します。
Zettelkastenメソッドの基本原則に従って、動的なインデックス作成とリンクを通じて相互接続された知識ネットワークを作成するようにメモリシステムを設計しました。
新しいメモリが追加されると、コンテキストの説明、キーワード、タグなど、複数の構造化された属性を含む包括的なメモを生成します。
次に、システムは歴史的な記憶を分析して、関連する接続を特定し、意味のある類似性が存在するリンクを確立します。
さらに、このプロセスにより、メモリの進化が可能になります。新しいメモリが統合されると、既存の歴史的記憶のコンテキスト表現と属性の更新をトリガーでき、メモリネットワークがその理解を継続的に改良することができます。
私たちのアプローチは、Zettelkastenの構造化された組織原則を、エージェント主導の意思決定の柔軟性と組み合わせて、より適応的でコンテキスト認識したメモリ管理を可能にします。
6つの基礎モデルでの経験的実験は、既存のSOTAベースラインに対する優れた改善を示しています。
パフォーマンスを評価するためのソースコードは、https://github.com/wujiangxu/agenticmemoryで入手できますが、エージェントメモリシステムのソースコードはhttps://github.com/agiresearch/a-memで入手できます。

要約(オリジナル)

While large language model (LLM) agents can effectively use external tools for complex real-world tasks, they require memory systems to leverage historical experiences. Current memory systems enable basic storage and retrieval but lack sophisticated memory organization, despite recent attempts to incorporate graph databases. Moreover, these systems’ fixed operations and structures limit their adaptability across diverse tasks. To address this limitation, this paper proposes a novel agentic memory system for LLM agents that can dynamically organize memories in an agentic way. Following the basic principles of the Zettelkasten method, we designed our memory system to create interconnected knowledge networks through dynamic indexing and linking. When a new memory is added, we generate a comprehensive note containing multiple structured attributes, including contextual descriptions, keywords, and tags. The system then analyzes historical memories to identify relevant connections, establishing links where meaningful similarities exist. Additionally, this process enables memory evolution – as new memories are integrated, they can trigger updates to the contextual representations and attributes of existing historical memories, allowing the memory network to continuously refine its understanding. Our approach combines the structured organization principles of Zettelkasten with the flexibility of agent-driven decision making, allowing for more adaptive and context-aware memory management. Empirical experiments on six foundation models show superior improvement against existing SOTA baselines. The source code for evaluating performance is available at https://github.com/WujiangXu/AgenticMemory, while the source code of agentic memory system is available at https://github.com/agiresearch/A-mem.

arxiv情報

著者 Wujiang Xu,Zujie Liang,Kai Mei,Hang Gao,Juntao Tan,Yongfeng Zhang
発行日 2025-04-14 15:21:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.HC | A-MEM: Agentic Memory for LLM Agents はコメントを受け付けていません

Words and Action: Modeling Linguistic Leadership in #BlackLivesMatter Communities

要約

このプロジェクトでは、#BlackLivesMatter運動に関連する一連のコミュニティでセマンティックリーダーシップをモデル化する方法について説明します。これは、特にソーシャルメディア、ブラックTwitterの構造に関する定性的研究によって知らされています。
時間の経過とともに、時間を稼ぐ、コミュニティのクラスタリング、コミュニティを接続するためのオーダーメイドのアプローチ、およびセマンティック変化の検出とセマンティックリーダーシップの誘導に対する最先端のアプローチの適応について説明します。
BLM活動家とプログレッシブ、そして黒人の有名人のリーダーシップの役割の実質的な証拠を見つけています。
また、この談話と保守的なコミュニティの持続的な関与の証拠を見つけ、現在の瞬間にどのように到達したかについての別の説明を示唆しています。

要約(オリジナル)

In this project, we describe a method of modeling semantic leadership across a set of communities associated with the #BlackLivesMatter movement, which has been informed by qualitative research on the structure of social media and Black Twitter in particular. We describe our bespoke approaches to time-binning, community clustering, and connecting communities over time, as well as our adaptation of state-of-the-art approaches to semantic change detection and semantic leadership induction. We find substantial evidence of the leadership role of BLM activists and progressives, as well as Black celebrities. We also find evidence of the sustained engagement of the conservative community with this discourse, suggesting an alternative explanation for how we arrived at the present moment, in which ‘anti-woke’ and ‘anti-CRT’ bills are being enacted nationwide.

arxiv情報

著者 Dani Roytburg,Deborah Olorunisola,Sandeep Soni,Lauren Klein
発行日 2025-04-14 15:38:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.SI | Words and Action: Modeling Linguistic Leadership in #BlackLivesMatter Communities はコメントを受け付けていません