LLM-Empowered Embodied Agent for Memory-Augmented Task Planning in Household Robotics

要約

自律的な家庭用オブジェクト管理のためのLLM駆動型エージェント – 組織化アーキテクチャを備えた具体化されたロボットシステムを提示します。
このシステムは、メモリの高度タスク計画を統合し、ロボットが過去のアクションを追跡しながら高レベルのユーザーコマンドを実行できるようにします。
ルーティングエージェント、タスク計画エージェント、およびそれぞれタスク固有のLLMを搭載したナレッジベースエージェントの3つの専門エージェントを採用しています。
コンテキスト内学習を活用することにより、システムは明示的なモデルトレーニングの必要性を回避します。
RAGを使用すると、システムは過去の相互作用からコンテキストを取得し、長期オブジェクト追跡を強化します。
接地されたSAMとllama3.2-visionの組み合わせは、堅牢なオブジェクト検出を提供し、タスク計画のセマンティックシーンの理解を促進します。
3つの世帯シナリオにわたる評価は、タスク計画の正確性が高いことを示し、RAGによるメモリリコールの改善が示されています。
具体的には、QWEN2.5は専門のエージェントに最高のパフォーマンスをもたらし、Llama3.1はルーティングタスクに優れています。
ソースコードは、https://github.com/marc1198/chat-hsrで入手できます。

要約(オリジナル)

We present an embodied robotic system with an LLM-driven agent-orchestration architecture for autonomous household object management. The system integrates memory-augmented task planning, enabling robots to execute high-level user commands while tracking past actions. It employs three specialized agents: a routing agent, a task planning agent, and a knowledge base agent, each powered by task-specific LLMs. By leveraging in-context learning, our system avoids the need for explicit model training. RAG enables the system to retrieve context from past interactions, enhancing long-term object tracking. A combination of Grounded SAM and LLaMa3.2-Vision provides robust object detection, facilitating semantic scene understanding for task planning. Evaluation across three household scenarios demonstrates high task planning accuracy and an improvement in memory recall due to RAG. Specifically, Qwen2.5 yields best performance for specialized agents, while LLaMA3.1 excels in routing tasks. The source code is available at: https://github.com/marc1198/chat-hsr.

arxiv情報

著者 Marc Glocker,Peter Hönig,Matthias Hirschmanner,Markus Vincze
発行日 2025-04-30 15:00:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.RO | LLM-Empowered Embodied Agent for Memory-Augmented Task Planning in Household Robotics はコメントを受け付けていません

Sionna RT: Technical Report

要約

Sionnaは、バージョン0.14の時点で、無線波の伝播をシミュレートするための光線トレーサーを組み込んだオープンソースのGPU加速ライブラリです。
Sionna RTのユニークな特徴は、微分性であり、チャネルインパルス応答(CIRS)、無線マップ、および材料特性、アンテナパターン、アレイ形状などの環境パラメーターに関するチャネルインパルス応答(CIRS)、無線マップ、およびその他の関連するメトリックの勾配の計算を可能にします。
Sionna 1.0のリリースは、レイトレーサーの完全なオーバーホールを提供し、速度、メモリ効率、および拡張性を大幅に改善します。
このドキュメントは、Sionna RTが採用しているアルゴリズムの詳細を示し、電波の伝播を効率的にシミュレートし、現在の制限にも対処します。
CIRと無線マップの計算には明確なアルゴリズムが必要であることを考えると、これらは別々のセクションで詳しく説明されています。
CIRSの場合、Sionna RTは、光線(SBR)の撮影と跳ね返りを画像メソッドと統合し、ハッシュベースのメカニズムを使用して重複パスを効率的に排除します。
ラジオマップは、純粋にSBRベースのアプローチを使用して計算されます。

要約(オリジナル)

Sionna is an open-source, GPU-accelerated library that, as of version 0.14, incorporates a ray tracer for simulating radio wave propagation. A unique feature of Sionna RT is differentiability, enabling the calculation of gradients for the channel impulse responses (CIRs), radio maps, and other related metrics with respect to system and environmental parameters, such as material properties, antenna patterns, and array geometries. The release of Sionna 1.0 provides a complete overhaul of the ray tracer, significantly improving its speed, memory efficiency, and extensibility. This document details the algorithms employed by Sionna RT to simulate radio wave propagation efficiently, while also addressing their current limitations. Given that the computation of CIRs and radio maps requires distinct algorithms, these are detailed in separate sections. For CIRs, Sionna RT integrates shooting and bouncing of rays (SBR) with the image method and uses a hashing-based mechanism to efficiently eliminate duplicate paths. Radio maps are computed using a purely SBR-based approach.

arxiv情報

著者 Fayçal Aït Aoudia,Jakob Hoydis,Merlin Nimier-David,Sebastian Cammerer,Alexander Keller
発行日 2025-04-30 15:05:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.IT, eess.SP, math.IT | Sionna RT: Technical Report はコメントを受け付けていません

Adversarial KA

要約

コルモゴロフとアーノルド(KA)の表現定理については、{\ guillemotleft}を表現または{\ guillemotright}機能を表現するためのアルゴリズムとして、皮膚攻撃に耐える能力を分析することにより、その堅牢性をテストします。
KAは、継続的な敵の数え切れないほどのコレクションに堅牢であることがわかりましたが、これまでのところ、限界をとり、敵の継続的なグループを打ち負かすことを妨害する外側の機能の等しい連続性についての疑問を発掘します。
外側の機能の規則性に関するこの質問は、NNSの一般理論に対するKAの適用性に関する議論に関連しています。

要約(オリジナル)

Regarding the representation theorem of Kolmogorov and Arnold (KA) as an algorithm for representing or {\guillemotleft}expressing{\guillemotright} functions, we test its robustness by analyzing its ability to withstand adversarial attacks. We find KA to be robust to countable collections of continuous adversaries, but unearth a question about the equi-continuity of the outer functions that, so far, obstructs taking limits and defeating continuous groups of adversaries. This question on the regularity of the outer functions is relevant to the debate over the applicability of KA to the general theory of NNs.

arxiv情報

著者 Sviatoslav Dzhenzher,Michael H. Freedman
発行日 2025-04-30 15:07:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, math.FA | Adversarial KA はコメントを受け付けていません

Lossless data compression by large models

要約

最新のデータ圧縮方法は、80年にわたる研究、数百万の論文、幅広いアプリケーションの後、徐々に制限に達しています。
しかし、贅沢な6G通信速度要件は、データ圧縮の革新的な新しいアイデアに大きな未解決の疑問を提起します。
私たちは、合理的な仮定の下で、すべての理解または学習が圧縮であることを以前に示しました。
大規模な言語モデル(LLM)は、これまで以上にデータをよく理解しています。
彼らは私たちがデータを圧縮するのを助けることができますか?
LLMSは、計算されないソロモノフ誘導に近似するように見える場合があります。
したがって、この新しい計算不可能なパラダイムの下で、LMCompressを提示します。
LMCompressは、以前のすべてのロスレス圧縮アルゴリズムを粉砕し、画像のJPEG-XLのロスレス圧縮比を2倍、ビデオの場合はH.264、テキストのBZ2の圧縮比を4倍にします。
大規模なモデルがデータをよりよく理解すればするほど、LMCompressは圧縮されます。

要約(オリジナル)

Modern data compression methods are slowly reaching their limits after 80 years of research, millions of papers, and wide range of applications. Yet, the extravagant 6G communication speed requirement raises a major open question for revolutionary new ideas of data compression. We have previously shown all understanding or learning are compression, under reasonable assumptions. Large language models (LLMs) understand data better than ever before. Can they help us to compress data? The LLMs may be seen to approximate the uncomputable Solomonoff induction. Therefore, under this new uncomputable paradigm, we present LMCompress. LMCompress shatters all previous lossless compression algorithms, doubling the lossless compression ratios of JPEG-XL for images, FLAC for audios, and H.264 for videos, and quadrupling the compression ratio of bz2 for texts. The better a large model understands the data, the better LMCompress compresses.

arxiv情報

著者 Ziguang Li,Chao Huang,Xuliang Wang,Haibo Hu,Cole Wyeth,Dongbo Bu,Quan Yu,Wen Gao,Xingwu Liu,Ming Li
発行日 2025-04-30 15:11:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.IT, math.IT | Lossless data compression by large models はコメントを受け付けていません

InvAASTCluster: On Applying Invariant-Based Program Clustering to Introductory Programming Assignments

要約

プログラミングコースに登録されている学生の数が多いため、導入プログラミングの割り当て(IPA)に焦点を当てた自動プログラム修理手法が増えています。
通常、このような手法では、プログラムクラスタリングを使用して、以前の正しい学生の実装を活用して、新しい誤った提出を修復します。
これらの修理手法はクラスタリング方法を使用します。これは、プログラムを修復するために利用可能なすべての正しい提出物を分析することは実行不可能です。
ただし、従来のクラスタリング方法は、抽象的な構文ツリー(AST)、構文、制御フロー、データフローなどの機能に基づいたプログラム表現に依存しています。
このペーパーでは、動的に生成されたプログラム不変剤を使用して意味的に同等のIPAをクラスター化するプログラムクラスタリングの新しいアプローチであるInvaastClusterを提案します。
InvaastClusterのプログラム表現は、匿名化された抽象的構文ツリー(AASTS)を介した、その不変性を介したプログラムのセマンティクスとその構造の組み合わせを使用します。
侵略者は、プログラムの実行中に真実のままでなければならない条件を示しますが、AASTは可変名と関数名を欠いているASTであり、その種類のみを保持します。
私たちの実験は、提案されたプログラム表現が正しいIPAのセットをクラスタリングするときに構文ベースの表現よりも優れていることを示しています。
さらに、InvaastClusterを最先端のクラスタリングベースのプログラム修理ツールに統合します。
私たちの結果は、InvaastClusterが、より短い時間で約13%の学生のプログラムを修復することにより、クラスタリングベースの修理ツールで使用する場合、現在の最先端を進歩させることを示しています。

要約(オリジナル)

Due to the vast number of students enrolled in programming courses, there has been an increasing number of automated program repair techniques focused on introductory programming assignments (IPAs). Typically, such techniques use program clustering to take advantage of previous correct student implementations to repair a new incorrect submission. These repair techniques use clustering methods since analyzing all available correct submissions to repair a program is not feasible. However, conventional clustering methods rely on program representations based on features such as abstract syntax trees (ASTs), syntax, control flow, and data flow. This paper proposes InvAASTCluster, a novel approach for program clustering that uses dynamically generated program invariants to cluster semantically equivalent IPAs. InvAASTCluster’s program representation uses a combination of the program’s semantics, through its invariants, and its structure through its anonymized abstract syntax tree (AASTs). Invariants denote conditions that must remain true during program execution, while AASTs are ASTs devoid of variable and function names, retaining only their types. Our experiments show that the proposed program representation outperforms syntax-based representations when clustering a set of correct IPAs. Furthermore, we integrate InvAASTCluster into a state-of-the-art clustering-based program repair tool. Our results show that InvAASTCluster advances the current state-of-the-art when used by clustering-based repair tools by repairing around 13% more students’ programs, in a shorter amount of time.

arxiv情報

著者 Pedro Orvalho,Mikoláš Janota,Vasco Manquinho
発行日 2025-04-30 15:39:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.PL, cs.SE | InvAASTCluster: On Applying Invariant-Based Program Clustering to Introductory Programming Assignments はコメントを受け付けていません

Predicting clinical outcomes from patient care pathways represented with temporal knowledge graphs

要約

背景:ヘルスケアデータの可用性が向上すると、予測モデリングは、さまざまな条件のリスクのレベルの評価など、生物医学ドメインで多くのアプリケーションを見つけ、臨床的意思決定を導くことができます。
ただし、知識グラフのデータ表現とその埋め込みは、一部の設定で競争力があるものが、生物医学的予測モデリングにどのように関心があるかは不明です。
方法:頭蓋内動脈瘤の患者の合成が現実的なデータをシミュレートし、臨床結果を予測するタスクについて実験しました。
同じデータのグラフベースの表現と、表形式データのさまざまな分類アプローチのパフォーマンスを比較しました。
次に、最初の個々のデータと2番目の時間データを表現するための採用されたスキーマが予測パフォーマンスにどのように影響するかを調査しました。
結果:私たちの研究は、私たちの場合、グラフ表現とグラフの畳み込みネットワーク(GCN)の埋め込みが、観察データからの予測タスクの最良のパフォーマンスに達することを示しています。
採用されたスキーマの重要性と、個々のデータの表現におけるリテラル値の考慮の重要性を強調します。
また、私たちの研究は、GCNパフォーマンスに対するさまざまな時間エンコーディングの相対的な影響も緩和されています。

要約(オリジナル)

Background: With the increasing availability of healthcare data, predictive modeling finds many applications in the biomedical domain, such as the evaluation of the level of risk for various conditions, which in turn can guide clinical decision making. However, it is unclear how knowledge graph data representations and their embedding, which are competitive in some settings, could be of interest in biomedical predictive modeling. Method: We simulated synthetic but realistic data of patients with intracranial aneurysm and experimented on the task of predicting their clinical outcome. We compared the performance of various classification approaches on tabular data versus a graph-based representation of the same data. Next, we investigated how the adopted schema for representing first individual data and second temporal data impacts predictive performances. Results: Our study illustrates that in our case, a graph representation and Graph Convolutional Network (GCN) embeddings reach the best performance for a predictive task from observational data. We emphasize the importance of the adopted schema and of the consideration of literal values in the representation of individual data. Our study also moderates the relative impact of various time encoding on GCN performance.

arxiv情報

著者 Jong Ho Jhee,Alberto Megina,Pacôme Constant Dit Beaufils,Matilde Karakachoff,Richard Redon,Alban Gaignard,Adrien Coulet
発行日 2025-04-30 15:52:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Predicting clinical outcomes from patient care pathways represented with temporal knowledge graphs はコメントを受け付けていません

Solving Copyright Infringement on Short Video Platforms: Novel Datasets and an Audio Restoration Deep Learning Pipeline

要約

YouTube ShortsやTiktokのような短いビデオプラットフォームは、著作権のコンプライアンスの重要な課題に直面しています。侵害者は、任意のバックグラウンドミュージック(BGM)を頻繁に組み込み、オリジナルのサウンドトラック(OST)を不明瞭にし、コンテンツの独創性検出を回避します。
この問題に取り組むために、音楽ソース分離(MSS)とクロスモーダルビデオ音楽検索(CMVMR)を統合する新しいパイプラインを提案します。
私たちのアプローチは、任意のBGMを元のOSTから効果的に分離し、本物のビデオオーディオトラックの修復を可能にします。
この作業をサポートするために、2つのドメイン固有のデータセットを紹介します。オーディオ分離用のOASD-20K、パイプライン評価にはOSVAR-160を紹介します。
OASD-20Kには、混合BGMとOSTペアを備えた20,000のオーディオクリップが含まれていますが、OSVAR160は、短いビデオ修復タスク用に特別に設計された1,121のビデオと混合オーディオペアを含むユニークなベンチマークデータセットです。
実験結果は、パイプラインが任意のBGMを高精度で除去するだけでなく、OSTを回復し、コンテンツの完全性を確保することを示しています。
このアプローチは、短いビデオプラットフォーム上のユーザー生成コンテンツの著作権課題に対する倫理的でスケーラブルなソリューションを提供します。

要約(オリジナル)

Short video platforms like YouTube Shorts and TikTok face significant copyright compliance challenges, as infringers frequently embed arbitrary background music (BGM) to obscure original soundtracks (OST) and evade content originality detection. To tackle this issue, we propose a novel pipeline that integrates Music Source Separation (MSS) and cross-modal video-music retrieval (CMVMR). Our approach effectively separates arbitrary BGM from the original OST, enabling the restoration of authentic video audio tracks. To support this work, we introduce two domain-specific datasets: OASD-20K for audio separation and OSVAR-160 for pipeline evaluation. OASD-20K contains 20,000 audio clips featuring mixed BGM and OST pairs, while OSVAR160 is a unique benchmark dataset comprising 1,121 video and mixed-audio pairs, specifically designed for short video restoration tasks. Experimental results demonstrate that our pipeline not only removes arbitrary BGM with high accuracy but also restores OSTs, ensuring content integrity. This approach provides an ethical and scalable solution to copyright challenges in user-generated content on short video platforms.

arxiv情報

著者 Minwoo Oh,Minsu Park,Eunil Park
発行日 2025-04-30 16:17:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.MM | Solving Copyright Infringement on Short Video Platforms: Novel Datasets and an Audio Restoration Deep Learning Pipeline はコメントを受け付けていません

MAC-Tuning: LLM Multi-Compositional Problem Reasoning with Enhanced Knowledge Boundary Awareness

要約

大規模な言語モデル(LLMS)の広範な適用により、幻覚として知られる存在しない事実を生成する問題は、注目を集めています。
LLM信頼の推定を強化する以前の研究は、主に単一の問題設定に焦点を当てています。
ただし、複数の問題に正確に同時に回答する必要がある、より挑戦的な多問題設定の下での内部パラメーター化された知識の境界に関するLLM認識は、採用されていないままです。
このギャップを埋めるために、命令データの微調整中の回答予測と信頼の推定の学習を分離する新しい方法、複数の回答、および信頼性の段階的調整(Mac-Tuning)を紹介します。
広範な実験は、私たちの方法が平均精度でベースラインを最大25%上回ることを示しています。

要約(オリジナル)

With the widespread application of large language models (LLMs), the issue of generating non-existing facts, known as hallucination, has garnered increasing attention. Previous research in enhancing LLM confidence estimation mainly focuses on the single problem setting. However, LLM awareness of its internal parameterized knowledge boundary under the more challenging multi-problem setting, which requires answering multiple problems accurately simultaneously, remains underexplored. To bridge this gap, we introduce a novel method, Multiple Answers and Confidence Stepwise Tuning (MAC-Tuning), that separates the learning of answer prediction and confidence estimation during fine-tuning on instruction data. Extensive experiments demonstrate that our method outperforms baselines by up to 25% in average precision.

arxiv情報

著者 Junsheng Huang,Zhitao He,Sandeep Polisetty,Qingyun Wang,May Fung
発行日 2025-04-30 16:17:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | MAC-Tuning: LLM Multi-Compositional Problem Reasoning with Enhanced Knowledge Boundary Awareness はコメントを受け付けていません

Is Intermediate Fusion All You Need for UAV-based Collaborative Perception?

要約

共同認識は、エージェント間のコミュニケーションを通じて環境意識を高め、インテリジェントな輸送システムに対する有望なソリューションと見なされています。
ただし、無人航空機(UAV)の既存の共同メソッドは、UAVの視点のユニークな特性を見落としており、実質的な通信オーバーヘッドをもたらします。
この問題に対処するために、後期中学生の融合に基づいた新しいコミュニケーション効率の高い共同認識の認識フレームワークを提案します。LIFと呼ばれます。
コアコンセプトは、有益でコンパクトな検出結果を交換し、融合段階を特徴表現レベルにシフトすることです。
特に、視力誘導位置埋め込み(VPE)およびボックスベースの仮想拡張機能(BoBEV)を活用して、さまざまなエージェントからの補完情報を効果的に統合します。
さらに、不確実性の評価を使用して高品質で信頼できる共有領域を選択する不確実性駆動型のコミュニケーションメカニズムを革新的に導入します。
実験結果は、私たちのLIFが最小限のコミュニケーション帯域幅で優れたパフォーマンスを達成し、その有効性と実用性を証明することを示しています。
コードとモデルはhttps://github.com/uestchjw/lifで入手できます。

要約(オリジナル)

Collaborative perception enhances environmental awareness through inter-agent communication and is regarded as a promising solution to intelligent transportation systems. However, existing collaborative methods for Unmanned Aerial Vehicles (UAVs) overlook the unique characteristics of the UAV perspective, resulting in substantial communication overhead. To address this issue, we propose a novel communication-efficient collaborative perception framework based on late-intermediate fusion, dubbed LIF. The core concept is to exchange informative and compact detection results and shift the fusion stage to the feature representation level. In particular, we leverage vision-guided positional embedding (VPE) and box-based virtual augmented feature (BoBEV) to effectively integrate complementary information from various agents. Additionally, we innovatively introduce an uncertainty-driven communication mechanism that uses uncertainty evaluation to select high-quality and reliable shared areas. Experimental results demonstrate that our LIF achieves superior performance with minimal communication bandwidth, proving its effectiveness and practicality. Code and models are available at https://github.com/uestchjw/LIF.

arxiv情報

著者 Jiuwu Hao,Liguo Sun,Yuting Wan,Yueyang Wu,Ti Xiang,Haolin Song,Pin Lv
発行日 2025-04-30 16:22:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI | Is Intermediate Fusion All You Need for UAV-based Collaborative Perception? はコメントを受け付けていません

JuDGE: Benchmarking Judgment Document Generation for Chinese Legal System

要約

このペーパーでは、中国の法制度における判断文書生成のパフォーマンスを評価するための新しいベンチマークである裁判官(判決文書生成評価)を紹介します。
このタスクを、ケースの特定の事実の説明から完全な法的判断文書を生成するものとして定義します。
このベンチマークを容易にするために、実際の法的ケースからの事実の説明からなる包括的なデータセットを構築し、それに対応する完全な判断文書と組み合わせて、生成された文書の品質を評価するための基本的な真理として機能します。
このデータセットは、タスクに追加の法的知識を提供する2つの外部の法的コーパスによってさらに補強されています。1つは法令と規制で構成され、もう1つは過去の判断文書の大規模なコレクションで構成されています。
法律専門家と協力して、さまざまな次元にわたる生成された判断文書の品質を評価するための包括的な自動評価フレームワークを確立します。
一般的なドメインLLMと法的ドメインLMSの両方を使用して、少数のショットコンテキスト内学習、微調整、およびマルチソース検索の高級世代(RAG)アプローチなど、さまざまなベースラインアプローチを評価します。
実験結果は、RAGアプローチがこのタスクのパフォーマンスを効果的に改善できるが、さらなる改善の余地がまだあることを示しています。
すべてのコードとデータセットは、https://github.com/oneal2000/judgeで入手できます。

要約(オリジナル)

This paper introduces JuDGE (Judgment Document Generation Evaluation), a novel benchmark for evaluating the performance of judgment document generation in the Chinese legal system. We define the task as generating a complete legal judgment document from the given factual description of the case. To facilitate this benchmark, we construct a comprehensive dataset consisting of factual descriptions from real legal cases, paired with their corresponding full judgment documents, which serve as the ground truth for evaluating the quality of generated documents. This dataset is further augmented by two external legal corpora that provide additional legal knowledge for the task: one comprising statutes and regulations, and the other consisting of a large collection of past judgment documents. In collaboration with legal professionals, we establish a comprehensive automated evaluation framework to assess the quality of generated judgment documents across various dimensions. We evaluate various baseline approaches, including few-shot in-context learning, fine-tuning, and a multi-source retrieval-augmented generation (RAG) approach, using both general and legal-domain LLMs. The experimental results demonstrate that, while RAG approaches can effectively improve performance in this task, there is still substantial room for further improvement. All the codes and datasets are available at: https://github.com/oneal2000/JuDGE.

arxiv情報

著者 Weihang Su,Baoqing Yue,Qingyao Ai,Yiran Hu,Jiaqi Li,Changyue Wang,Kaiyuan Zhang,Yueyue Wu,Yiqun Liu
発行日 2025-04-30 16:23:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.IR | JuDGE: Benchmarking Judgment Document Generation for Chinese Legal System はコメントを受け付けていません