An empathic GPT-based chatbot to talk about mental disorders with Spanish teenagers

要約

このペーパーでは、自己開示技術を通じて特定の精神障害の認識に若いスペイン人を引き付けるチャットボットベースのシステムを紹介します。
この研究は、12歳から18歳までのティーンエイジャーの人口で実施されました。
Dialogue Engineは閉じた会話とオープンな会話をミックスするため、特定の制御されたメッセージが送信され、特定の障害にチャットを集中させます。これは時間とともに変化します。
一連の試行質問に回答すると、システムは、より共感的なコミュニケーションを確立しようとして、その障害に対するユーザーの感性に従って、焦点の下で障害に関する会話を開始できます。
次に、GPT-3言語モデルに基づいたオープンな会話が開始され、ユーザーがより多くの自由で自分自身を表現できるようになります。
結果は、これらのシステムが若者にとって興味深いものであり、特定の精神障害に気付くのに役立つ可能性があることを示しています。

要約(オリジナル)

This paper presents a chatbot-based system to engage young Spanish people in the awareness of certain mental disorders through a self-disclosure technique. The study was carried out in a population of teenagers aged between 12 and 18 years. The dialogue engine mixes closed and open conversations, so certain controlled messages are sent to focus the chat on a specific disorder, which will change over time. Once a set of trial questions is answered, the system can initiate the conversation on the disorder under the focus according to the user’s sensibility to that disorder, in an attempt to establish a more empathetic communication. Then, an open conversation based on the GPT-3 language model is initiated, allowing the user to express themselves with more freedom. The results show that these systems are of interest to young people and could help them become aware of certain mental disorders.

arxiv情報

著者 Alba María Mármol-Romero,Manuel García-Vega,Miguel Ángel García-Cumbreras,Arturo Montejo-Ráez
発行日 2025-05-09 06:55:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.HC | An empathic GPT-based chatbot to talk about mental disorders with Spanish teenagers はコメントを受け付けていません

HORAE: A Domain-Agnostic Language for Automated Service Regulation

要約

人工知能は、サービス規制の分野に急速に侵入しています。
ただし、既存のAIベースの規制手法は、特定のアプリケーションドメインに合わせて調整されることが多いため、自動化された方法で一般化することは困難です。
このホワイトペーパーでは、多様なドメインのセットにわたるモデリング(マルチモーダル)レギュレーションルールのための統一された仕様言語であるHoraeを紹介します。
Horaeは、Horaeモデリングプロセスを自動化するRulegptという名前の微調整された大型言語モデルをさらに活用して、完全に自動化されたインテリジェントサービス規制のエンドツーエンドフレームワークを生成することにより、Horaeがどのようにインテリジェントサービス規制パイプラインを促進するかを紹介します。
私たちのフレームワークの実現可能性と有効性は、さまざまな現実世界の規制ドメインのベンチマークを通じて実証されています。
特に、7Bパラメーターを備えたオープンソースで微調整されたRulegptで、GPT-3.5を上回り、GPT-4Oと同等のパフォーマンスを発揮するのに十分であることを示しています。

要約(オリジナル)

Artificial intelligence is rapidly encroaching on the field of service regulation. However, existing AI-based regulation techniques are often tailored to specific application domains and thus are difficult to generalize in an automated manner. This paper presents Horae, a unified specification language for modeling (multimodal) regulation rules across a diverse set of domains. We showcase how Horae facilitates an intelligent service regulation pipeline by further exploiting a fine-tuned large language model named RuleGPT that automates the Horae modeling process, thereby yielding an end-to-end framework for fully automated intelligent service regulation. The feasibility and effectiveness of our framework are demonstrated over a benchmark of various real-world regulation domains. In particular, we show that our open-sourced, fine-tuned RuleGPT with 7B parameters suffices to outperform GPT-3.5 and perform on par with GPT-4o.

arxiv情報

著者 Yutao Sun,Mingshuai Chen,Tiancheng Zhao,Kangjia Zhao,He Li,Jintao Chen,Zhongyi Wang,Liqiang Lu,Xinkui Zhao,Shuiguang Deng,Jianwei Yin
発行日 2025-05-09 07:06:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | HORAE: A Domain-Agnostic Language for Automated Service Regulation はコメントを受け付けていません

SRA-MCTS: Self-driven Reasoning Augmentation with Monte Carlo Tree Search for Code Generation

要約

大規模な言語モデルは、単純なコード生成タスクで例外的なパフォーマンスを示していますが、複雑な問題に取り組む上で課題に直面しています。
これらの課題は、不十分な推論と問題の分解機能に起因する可能性があります。
この問題に対処するために、高品質の中間推論パスを自律的に生成するようにモデルを導く推論の高度化データ生成プロセスSRA-MCTSを提案します。
これにより、肯定的なフィードバックループが作成され、継続的な改善が可能になります。
私たちの方法は、追加の監督を必要とせずに、モデル自体を通して完全に動作します。
自然言語の推論パスを統合し、実行可能コードに変換することにより、このアプローチにより、分析の精度が保証され、複雑なタスクの解決の成功率が向上します。
実験結果は、追加の監督シグナルがなくても、私たちの方法が異なるモデルスケールにわたってパフォーマンスの改善を達成し、小さなモデルの自己改善の重要な可能性を示していることを示しています。
さらに、この方法は、従来のチェーンオブサート(COT)アプローチがパフォーマンスの劣化を示す場合、堅調なままです。
複雑な問題に対処するための言語モデルの能力を高めるために、トレーニングデータ内の推論プロセスのさらなる調査をお勧めします。
コードとデータはhttps://github.com/direct-bit/sra-mctsで公開されています。

要約(オリジナル)

Large language models demonstrate exceptional performance in simple code generation tasks but still face challenges in tackling complex problems. These challenges may stem from insufficient reasoning and problem decomposition capabilities. To address this issue, we propose a reasoning-augmented data generation process, SRA-MCTS, which guides the model to autonomously generate high-quality intermediate reasoning paths. This creates a positive feedback loop, enabling continuous improvement. Our method operates entirely through the model itself without requiring additional supervision. By synthesizing natural language reasoning paths and translating them into executable code, the approach ensures analytical accuracy and enhances the success rate in solving complex tasks. Experimental results show that, even without additional supervisory signals, our method achieves performance improvements across different model scales, demonstrating the significant potential of self-improvement in small models. Furthermore, the method remains robust when traditional Chain-of-Thought (CoT) approaches exhibit performance degradation, with notable improvements observed in diversity metrics such as pass@10. We encourage further exploration of reasoning processes within training data to enhance the ability of language models to address complex problems. Our code and data are public at https://github.com/DIRECT-BIT/SRA-MCTS.

arxiv情報

著者 Bin Xu,Yiguan Lin,Yinghao Li,Yang Gao
発行日 2025-05-09 07:24:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | SRA-MCTS: Self-driven Reasoning Augmentation with Monte Carlo Tree Search for Code Generation はコメントを受け付けていません

Evolutionary ecology of words

要約

大規模な言語モデル(LLM)の豊富な言語表現を利用することにより、進化的ゲーム理論とエージェントベースのモデルを拡張しようとする1つの試みとして、単語の進化生態学のモデルを提案します。
私たちのモデルは、エージェント間の相互作用のための多様で無限のオプションの出現と進化を可能にします。
母集団内で、各エージェントはLLMによって生成された短い単語(またはフレーズ)を所有し、空間環境内で移動します。
エージェントが隣接すると、彼らの相互作用の結果は、彼らの言葉の間の関係に基づいてLLMによって決定され、敗者の言葉は勝者の言葉に置き換えられます。
また、LLM出力に基づいた単語変異が発生する可能性があります。
「強い動物種」が生き残ると仮定して、予備的な実験を実施しました。
結果は、よく知られている種で構成される初期集団から、多くの種が徐々に、また句読点がある平衡方法で出現したことを示しました。
各試験では、多様な集団のユニークな進化が実証されており、陸生動物、海洋生物、絶滅種など、1つのタイプの大きな種が支配的になりました。
また、多様な種の出現と共存を実証し、大規模な集団を対象とした長期実験を実施しました。

要約(オリジナル)

We propose a model for the evolutionary ecology of words as one attempt to extend evolutionary game theory and agent-based models by utilizing the rich linguistic expressions of Large Language Models (LLMs). Our model enables the emergence and evolution of diverse and infinite options for interactions among agents. Within the population, each agent possesses a short word (or phrase) generated by an LLM and moves within a spatial environment. When agents become adjacent, the outcome of their interaction is determined by the LLM based on the relationship between their words, with the loser’s word being replaced by the winner’s. Word mutations, also based on LLM outputs, may occur. We conducted preliminary experiments assuming that “strong animal species’ would survive. The results showed that from an initial population consisting of well-known species, many species emerged both gradually and in a punctuated equilibrium manner. Each trial demonstrated the unique evolution of diverse populations, with one type of large species becoming dominant, such as terrestrial animals, marine life, or extinct species, which were ecologically specialized and adapted ones across diverse extreme habitats. We also conducted a long-term experiment with a large population, demonstrating the emergence and coexistence of diverse species.

arxiv情報

著者 Reiji Suzuki,Takaya Arita
発行日 2025-05-09 07:57:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 92B20, cs.AI, cs.CL, q-bio.PE | Evolutionary ecology of words はコメントを受け付けていません

Symbol-based entity marker highlighting for enhanced text mining in materials science with generative AI

要約

実験データセットの構築は、データ駆動型の科学的発見の範囲を拡大するために不可欠です。
自然言語処理(NLP)の最近の進歩により、構造化されていない科学文献からの構造化データの自動抽出が容易になりました。
既存のアプローチ – マルチステップで直接的な方法で価値のある機能を備えていますが、独立して適用すると制限があります。
ここでは、非構造化された科学テキストを構造化データに変換するための両方の方法の利点を統合する新しいハイブリッドテキストマイニングフレームワークを提案します。
私たちのアプローチは、最初に生のテキストをエンティティ認識テキストに変換し、その後構造化された形式に変換します。
さらに、全体的なデータ構造化フレームワークを超えて、エンティティマーカーを導入することにより、エンティティ認識パフォーマンスを強化します。シンボリックアノテーションを使用してターゲットエンティティを強調するシンプルで効果的な手法を導入します。
具体的には、エンティティマーカーベースのハイブリッドアプローチは、3つのベンチマークデータセット(Matscholar、SOFC、およびSOFC Slot NER)にわたって以前のエンティティ認識アプローチを常に上回るだけでなく、エンティティレベルF1スコアの58%の改善を最大58%改善する最終的な構造データの品質を向上させ、Direct-Level F1スコアで83%改善します。

要約(オリジナル)

The construction of experimental datasets is essential for expanding the scope of data-driven scientific discovery. Recent advances in natural language processing (NLP) have facilitated automatic extraction of structured data from unstructured scientific literature. While existing approaches-multi-step and direct methods-offer valuable capabilities, they also come with limitations when applied independently. Here, we propose a novel hybrid text-mining framework that integrates the advantages of both methods to convert unstructured scientific text into structured data. Our approach first transforms raw text into entity-recognized text, and subsequently into structured form. Furthermore, beyond the overall data structuring framework, we also enhance entity recognition performance by introducing an entity marker-a simple yet effective technique that uses symbolic annotations to highlight target entities. Specifically, our entity marker-based hybrid approach not only consistently outperforms previous entity recognition approaches across three benchmark datasets (MatScholar, SOFC, and SOFC slot NER) but also improve the quality of final structured data-yielding up to a 58% improvement in entity-level F1 score and up to 83% improvement in relation-level F1 score compared to direct approach.

arxiv情報

著者 Junhyeong Lee,Jong Min Yuk,Chan-Woo Lee
発行日 2025-05-09 07:58:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Symbol-based entity marker highlighting for enhanced text mining in materials science with generative AI はコメントを受け付けていません

Enhancing Target-unspecific Tasks through a Features Matrix

要約

大規模なビジョン言語モデルの迅速な学習の最近の開発により、ターゲット固有のタスクのパフォーマンスが大幅に向上しました。
ただし、これらの迅速な最適化方法は、ターゲット非特異的または一般化可能なタスクに効果的に取り組むのに苦労しています。
これは、過剰適合トレーニングにより、モデルが一般的な知識がターゲット非特定のタスクを強く促進することを忘れさせるという事実に起因する可能性があります。
この問題を軽減するために、ターゲット非特定のタスクでこれらのモデルを強化するように設計された新しい機能マトリックス(FM)正規化アプローチを提案します。
私たちの方法は、一般的な知識を抽出して活用し、機能マトリックス(FM)を形作ります。
具体的には、FMは、深く細かい視点からの多様な入力のセマンティクスをキャプチャし、過剰適合のリスクを軽減する本質的な一般的な知識を維持します。
代表的な評価は、次のことを示しています。1)FMは既存のフレームワークと汎用的で柔軟なモジュールとして互換性があり、2)FMは、ターゲット非特定のタスクを強化し、最先端のパフォーマンスを達成する上でその有効性を大幅に示しています。

要約(オリジナル)

Recent developments in prompt learning of large vision-language models have significantly improved performance in target-specific tasks. However, these prompt optimizing methods often struggle to tackle the target-unspecific or generalizable tasks effectively. It may be attributed to the fact that overfitting training causes the model to forget its general knowledge having strong promotion on target-unspecific tasks. To alleviate this issue, we propose a novel Features Matrix (FM) regularization approach designed to enhance these models on target-unspecific tasks. Our method extracts and leverages general knowledge, shaping a Features Matrix (FM). Specifically, the FM captures the semantics of diverse inputs from a deep and fine perspective, preserving essential general knowledge, which mitigates the risk of overfitting. Representative evaluations demonstrate that: 1) the FM is compatible with existing frameworks as a generic and flexible module, and 2) the FM significantly showcases its effectiveness in enhancing target-unspecific tasks, achieving state-of-the-art performance.

arxiv情報

著者 Fangming Cui,Yonggang Zhang,Xuan Wang,Xinmei Tian,Jun Yu
発行日 2025-05-09 09:09:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CV | Enhancing Target-unspecific Tasks through a Features Matrix はコメントを受け付けていません

Reimagining Urban Science: Scaling Causal Inference with Large Language Models

要約

都市の因果関係は、都市の複雑なダイナミクスを理解し、証拠に基づいた政策を通知するために不可欠です。
ただし、仮説生成の非効率性とバイアス、マルチモーダルデータの複雑さに対する障壁、および因果実験の方法論的脆弱性によって挑戦されています。
大規模な言語モデル(LLMS)の最近の進歩は、都市の因果分析がどのように行われるかを再考する機会を提供します。
この視点では、構造的ギャップを特定するための研究トピック、データソース、および方法論的アプローチを分類する分類を分析することにより、現在の都市因果研究を検証します。
次に、仮説の生成、データエンジニアリング、実験の設計と実行を担当する4つの異なるモジュラーエージェントで構成されるLLM駆動型の概念フレームワークであるAutourbanciを紹介します。
厳密さと透明性の評価基準を提案し、人間とのコラボレーション、公平性、および説明責任への影響を反映します。
私たちは、人間の専門知識の代替品としてではなく、参加を拡大し、再現性を改善し、より包括的な形態の都市因果推論のロックを解除するためのツールとして、Ai-Augmented Workflowを採用する新しい研究アジェンダを求めています。

要約(オリジナル)

Urban causal research is essential for understanding the complex dynamics of cities and informing evidence-based policies. However, it is challenged by the inefficiency and bias of hypothesis generation, barriers to multimodal data complexity, and the methodological fragility of causal experimentation. Recent advances in large language models (LLMs) present an opportunity to rethink how urban causal analysis is conducted. This Perspective examines current urban causal research by analyzing taxonomies that categorize research topics, data sources, and methodological approaches to identify structural gaps. We then introduce an LLM-driven conceptual framework, AutoUrbanCI, composed of four distinct modular agents responsible for hypothesis generation, data engineering, experiment design and execution, and results interpretation with policy recommendations. We propose evaluation criteria for rigor and transparency and reflect on implications for human-AI collaboration, equity, and accountability. We call for a new research agenda that embraces AI-augmented workflows not as replacements for human expertise but as tools to broaden participation, improve reproducibility, and unlock more inclusive forms of urban causal reasoning.

arxiv情報

著者 Yutong Xia,Ao Qu,Yunhan Zheng,Yihong Tang,Dingyi Zhuang,Yuxuan Liang,Shenhao Wang,Cathy Wu,Lijun Sun,Roger Zimmermann,Jinhua Zhao
発行日 2025-05-09 09:12:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CY, cs.MA | Reimagining Urban Science: Scaling Causal Inference with Large Language Models はコメントを受け付けていません

PART: Pre-trained Authorship Representation Transformer

要約

文書を書いている著者は、語彙、レジストリ、句読点、間違い、さらには絵文字の使用など、テキスト内の識別情報を刻印します。
以前の作品は、手作りの機能または分類タスクを使用して著者モデルを訓練し、ドメイン外の著者のパフォーマンスが低下しました。
スタイロメトリック表現を使用する方が適していますが、これ自体がオープンな研究の課題です。
このホワイトペーパーでは、セマンティクスの代わりに\ textBf {Authorship Embeddings}を学習するための対照的な訓練されたモデルフィットである部分を提案します。
1162の文学著者、17287年のブログポスター、135の企業メールアカウントに属する約1.5mのテキストでモデルをトレーニングします。
識別可能なライティングスタイルを備えた不均一なセット。
現在の課題に関するモデルを評価し、競争力のあるパフォーマンスを達成します。
また、250人の著者に制限された場合、ゼロショット72.39 \%の精度を達成するデータセットのテストスプリットに関するモデルを評価します。
著者の性別、年齢、職業などの観察機能を観察する機能を観察する、利用可能なデータセットで異なるデータの視覚化を伴う表現を定性的に評価します。

要約(オリジナル)

Authors writing documents imprint identifying information within their texts: vocabulary, registry, punctuation, misspellings, or even emoji usage. Previous works use hand-crafted features or classification tasks to train their authorship models, leading to poor performance on out-of-domain authors. Using stylometric representations is more suitable, but this by itself is an open research challenge. In this paper, we propose PART, a contrastively trained model fit to learn \textbf{authorship embeddings} instead of semantics. We train our model on ~1.5M texts belonging to 1162 literature authors, 17287 blog posters and 135 corporate email accounts; a heterogeneous set with identifiable writing styles. We evaluate the model on current challenges, achieving competitive performance. We also evaluate our model on test splits of the datasets achieving zero-shot 72.39\% accuracy when bounded to 250 authors, a 54\% and 56\% higher than RoBERTa embeddings. We qualitatively assess the representations with different data visualizations on the available datasets, observing features such as gender, age, or occupation of the author.

arxiv情報

著者 Javier Huertas-Tato,Alejandro Martin,David Camacho
発行日 2025-05-09 09:18:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | PART: Pre-trained Authorship Representation Transformer はコメントを受け付けていません

NeedleBench: Can LLMs Do Retrieval and Reasoning in Information-Dense Context?

要約

長いコンテキスト情報を処理する大規模な言語モデルの機能は、さまざまな現実世界のアプリケーションにわたって重要です。
既存の評価方法は、多くの場合、実際の長いテキストに依存しているため、モデルの固有の知識の影響を排除することを困難にしたり、ターゲットの長さを人為的に達成するための無関係なフィラーコンテンツを導入して評価の有効性を低減したりします。
これらの制限に対処するために、適応性のあるコンテキストの長さを持つバイリンガルの長いコンテキストタスクの検索と推論パフォーマンスを評価するための合成フレームワークであるニードルベンチを紹介します。
Needlebenchは、さまざまな深さでキーデータポイントを体系的に組み込み、モデル機能を厳密にテストするために埋め込みます。
タスクは2つのシナリオに分類されます。情報スパース。単純な検索タスクをシミュレートするための広範な無関係なテキスト内の最小限の関連性を特徴とします。
情報密度(先祖のトレースチャレンジ)。関連する情報がコンテキスト全体に継続的に配布され、複雑な推論タスクをシミュレートします。
私たちの実験では、DeepSeek-R1やOpenaiのO3などの最近の推論モデルが数学的推論において優れていますが、コンテキストの長さが短い場合でも、情報密度の高いシナリオでの継続的な検索と推論に苦労していることが明らかになりました。
また、「思考下」と呼ばれる現象を特徴づけます。ここでは、利用可能な情報にもかかわらず、モデルは前提条件を前提としています。
したがって、ニードルベンチは、LLMSのロングコンテキスト機能を評価および改善するために不可欠な重要な洞察とターゲットツールを提供します。
すべてのリソースは、OpenCompass:https://github.com/open-compass/opencompassで入手できます。

要約(オリジナル)

The capability of large language models to handle long-context information is crucial across various real-world applications. Existing evaluation methods often rely either on real-world long texts, making it difficult to exclude the influence of models’ inherent knowledge, or introduce irrelevant filler content to artificially achieve target lengths, reducing assessment effectiveness. To address these limitations, we introduce NeedleBench, a synthetic framework for assessing retrieval and reasoning performance in bilingual long-context tasks with adaptive context lengths. NeedleBench systematically embeds key data points at varying depths to rigorously test model capabilities. Tasks are categorized into two scenarios: information-sparse, featuring minimal relevant details within extensive irrelevant text to simulate simple retrieval tasks; and information-dense (the Ancestral Trace Challenge), where relevant information is continuously distributed throughout the context to simulate complex reasoning tasks. Our experiments reveal that although recent reasoning models like Deepseek-R1 and OpenAI’s o3 excel in mathematical reasoning, they struggle with continuous retrieval and reasoning in information-dense scenarios, even at shorter context lengths. We also characterize a phenomenon termed ‘under-thinking’, where models prematurely conclude reasoning despite available information. NeedleBench thus provides critical insights and targeted tools essential for evaluating and improving LLMs’ long-context capabilities. All resources are available at OpenCompass: https://github.com/open-compass/opencompass.

arxiv情報

著者 Mo Li,Songyang Zhang,Taolin Zhang,Haodong Duan,Yunxin Liu,Kai Chen
発行日 2025-05-09 09:23:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | NeedleBench: Can LLMs Do Retrieval and Reasoning in Information-Dense Context? はコメントを受け付けていません

Summarisation of German Judgments in conjunction with a Class-based Evaluation

要約

長い法的文書の自動化された要約は、日常業務の法律専門家にとって大きな援助となります。
デコーダーベースの大手言語モデルを微調整することにより、ドイツの判断の概要(指導原則)を自動的に作成します。
トレーニング前に法人に関する情報で判断を豊かにします。
作成された要約の評価については、その言語、適切、完全性、正確性を測定できるようにする一連の評価クラスを定義します。
我々の結果は、法律エンティティを採用することは生成モデルが関連するコンテンツを見つけるのに役立つことを示していますが、作成された要約の品質は実際に使用するのに十分ではありません。

要約(オリジナル)

The automated summarisation of long legal documents can be a great aid for legal experts in their daily work. We automatically create summaries (guiding principles) of German judgments by fine-tuning a decoder-based large language model. We enrich the judgments with information about legal entities before the training. For the evaluation of the created summaries, we define a set of evaluation classes which allows us to measure their language, pertinence, completeness and correctness. Our results show that employing legal entities helps the generative model to find the relevant content, but the quality of the created summaries is not yet sufficient for a use in practice.

arxiv情報

著者 Bianca Steffes,Nils Torben Wiedemann,Alexander Gratz,Pamela Hochreither,Jana Elina Meyer,Katharina Luise Schilke
発行日 2025-05-09 10:44:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Summarisation of German Judgments in conjunction with a Class-based Evaluation はコメントを受け付けていません