Exemplar-condensed Federated Class-incremental Learning

要約

我々は、ストリーミングデータから実画像の学習特性を抽出し、有益なリハーサル模範にする模範凝縮型連合クラス増加学習(Exemplar-Condensed federated class-incremental learning: ECoral)を提案する。提案手法は、連携継続学習(FCL)における壊滅的忘却を緩和するための、再生ベースのアプローチにおける模範選択の限界を排除する。その限界は特に、要約された各データの情報密度の不均一性に関連する。本アプローチでは、学習勾配の一貫性と過去のタスクとの関係を維持することで、元の画像と比較してストリーミングデータを効果的に表現する。さらに、我々のアプローチは、離散化生成モデルをクライアント間で共有することにより、要約データの情報レベルの不均一性を低減する。広範な実験により、我々のECoralはいくつかの最先端の手法を凌駕し、性能を向上させるために多くの既存のアプローチとシームレスに統合できることが示された。

要約(オリジナル)

We propose Exemplar-Condensed federated class-incremental learning (ECoral) to distil the training characteristics of real images from streaming data into informative rehearsal exemplars. The proposed method eliminates the limitations of exemplar selection in replay-based approaches for mitigating catastrophic forgetting in federated continual learning (FCL). The limitations particularly related to the heterogeneity of information density of each summarized data. Our approach maintains the consistency of training gradients and the relationship to past tasks for the summarized exemplars to represent the streaming data compared to the original images effectively. Additionally, our approach reduces the information-level heterogeneity of the summarized data by inter-client sharing of the disentanglement generative model. Extensive experiments show that our ECoral outperforms several state-of-the-art methods and can be seamlessly integrated with many existing approaches to enhance performance.

arxiv情報

著者 Rui Sun,Yumin Zhang,Varun Ojha,Tejal Shah,Haoran Duan,Bo Wei,Rajiv Ranjan
発行日 2025-06-03 16:34:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG | Exemplar-condensed Federated Class-incremental Learning はコメントを受け付けていません

Corrigibility as a Singular Target: A Vision for Inherently Reliable Foundation Models

要約

FM(ファウンデーションモデル)は、安全性という重大な課題に直面している。能力が拡大するにつれて、道具的な収束が人間の制御を失う方向にデフォルトの軌道を押し進め、実存的な破局に至る可能性がある。現在のアライメントアプローチは、価値仕様の複雑さに苦戦し、創発的な権力追求行動に対処できない。我々は「特異な目標としての適格性」(CAST)を提案する。これは、FMを導き、修正し、制御するために、指定された人間のプリンシパルに力を与えることを最優先の目的とするFMの設計である。静的な価値負荷から動的な人間へのエンパワーメントへのこのパラダイムシフトは、道具的な原動力を変容させる:自己保存はプリンシパルのコントロールを維持するためだけに機能し、目標修正はプリンシパルの指導を容易にする。我々は、トレーニング方法論(RLAIF、SFT、合成データ生成)、モデルサイズにわたるスケーラビリティテスト、制御されたインストラクタビリティの実証にまたがる包括的な実証的研究課題を提示する。我々のビジョン人間の判断に取って代わるのではなく、可能な限りツールに近い有益なAIへの道を提供する。これにより、核となるアライメントの問題を根本から解決し、誤った道具的収束に向かう既定の軌道を防ぐことができる。

要約(オリジナル)

Foundation models (FMs) face a critical safety challenge: as capabilities scale, instrumental convergence drives default trajectories toward loss of human control, potentially culminating in existential catastrophe. Current alignment approaches struggle with value specification complexity and fail to address emergent power-seeking behaviors. We propose ‘Corrigibility as a Singular Target’ (CAST)-designing FMs whose overriding objective is empowering designated human principals to guide, correct, and control them. This paradigm shift from static value-loading to dynamic human empowerment transforms instrumental drives: self-preservation serves only to maintain the principal’s control; goal modification becomes facilitating principal guidance. We present a comprehensive empirical research agenda spanning training methodologies (RLAIF, SFT, synthetic data generation), scalability testing across model sizes, and demonstrations of controlled instructability. Our vision: FMs that become increasingly responsive to human guidance as capabilities grow, offering a path to beneficial AI that remains as tool-like as possible, rather than supplanting human judgment. This addresses the core alignment problem at its source, preventing the default trajectory toward misaligned instrumental convergence.

arxiv情報

著者 Ram Potham,Max Harms
発行日 2025-06-03 16:36:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CY, cs.LG | Corrigibility as a Singular Target: A Vision for Inherently Reliable Foundation Models はコメントを受け付けていません

Understanding Federated Learning from IID to Non-IID dataset: An Experimental Study

要約

プライバシーに関する懸念やデータ規制が高まる中、分散化されたデータソース間で、生データを共有することなく機械学習モデルを学習するための有望なアプローチとして、連携学習(FL)が登場している。しかし、FLにおける重要な課題は、クライアントデータがしばしば非IID(非独立・同一分散)であることであり、集中型学習と比較してパフォーマンスが低下する。この問題に対処するために多くの手法が提案されているが、その基本的なメカニズムはしばしば異なる観点から捉えられている。勾配降下からFLまで、またIIDから非IIDのデータ設定までの包括的な調査を通じて、我々は、クライアントの損失ランドスケープの不整合が、主に非IIDシナリオにおいて性能低下を引き起こすことを発見した。この理解から、既存の手法は、(i)パラメータ更新経路の調整と(ii)クライアント損失ランドスケープの修正という2つの主要な戦略に分類できることがわかる。これらの知見は、FLにおける非IID課題に対処するための明確な視点を提供し、この分野における将来の研究の指針となる。

要約(オリジナル)

As privacy concerns and data regulations grow, federated learning (FL) has emerged as a promising approach for training machine learning models across decentralized data sources without sharing raw data. However, a significant challenge in FL is that client data are often non-IID (non-independent and identically distributed), leading to reduced performance compared to centralized learning. While many methods have been proposed to address this issue, their underlying mechanisms are often viewed from different perspectives. Through a comprehensive investigation from gradient descent to FL, and from IID to non-IID data settings, we find that inconsistencies in client loss landscapes primarily cause performance degradation in non-IID scenarios. From this understanding, we observe that existing methods can be grouped into two main strategies: (i) adjusting parameter update paths and (ii) modifying client loss landscapes. These findings offer a clear perspective on addressing non-IID challenges in FL and help guide future research in the field.

arxiv情報

著者 Jungwon Seo,Ferhat Ozgur Catak,Chunming Rong
発行日 2025-06-03 16:38:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, stat.ML | Understanding Federated Learning from IID to Non-IID dataset: An Experimental Study はコメントを受け付けていません

Offline Adaptation of Quadruped Locomotion using Diffusion Models

要約

本論文では、四足歩行運動に対する拡散ベースのアプローチを紹介する。このアプローチは、複数のスキル間の学習と補間、および訓練後の新しい運動行動へのオフライン適応(モード)の限界に同時に対処するものである。これは、分類器を用いないガイド拡散を四足歩行運動に適用する初めてのフレームワークであり、元々ラベル付けされていないデータセットから目標に応じた行動を抽出することで、その有効性を実証する。我々は、これらの機能がマルチスキルポリシーと互換性があり、ロボットに搭載されたCPUで動作するように、ほとんど変更することなく、最小限の計算オーバーヘッドで適用できることを示す。ANYmal四脚プラットフォームでのハードウェア実験により、我々のアプローチの有効性を検証する。

要約(オリジナル)

We present a diffusion-based approach to quadrupedal locomotion that simultaneously addresses the limitations of learning and interpolating between multiple skills and of (modes) offline adapting to new locomotion behaviours after training. This is the first framework to apply classifier-free guided diffusion to quadruped locomotion and demonstrate its efficacy by extracting goal-conditioned behaviour from an originally unlabelled dataset. We show that these capabilities are compatible with a multi-skill policy and can be applied with little modification and minimal compute overhead, i.e., running entirely on the robots onboard CPU. We verify the validity of our approach with hardware experiments on the ANYmal quadruped platform.

arxiv情報

著者 Reece O’Mahoney,Alexander L. Mitchell,Wanming Yu,Ingmar Posner,Ioannis Havoutis
発行日 2025-06-03 16:40:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, cs.RO | Offline Adaptation of Quadruped Locomotion using Diffusion Models はコメントを受け付けていません

Improving Trajectory Stitching with Flow Models

要約

生成モデルは、複雑な分布のモデリングとガイド可能な推論プロセスとの親和性から、軌道プランナーとして大きな可能性を示している。これまでの研究では、これらのモデルをロボット操作の文脈に適用することに成功しているが、必要な解が学習セット内に完全な軌道として存在しない場合には、うまく機能しない。我々は、この原因がスティッチングによるプランニングができないことにあることを明らかにし、この問題を解決するために必要なアーキテクチャとデータセットの選択について述べる。その上で、これらの能力を安定させ、強化するために、訓練と推論の手順に新たな追加を提案する。分布外の境界条件を持つ計画を生成し、シミュレーションと実際のハードウェア上でFranka Pandaの障害物回避を実行することで、我々のアプローチの有効性を実証する。これらのタスクの両方において、我々の手法はベースラインよりも大幅に優れた性能を発揮し、最大で4倍の大きさの障害物を回避することができる。

要約(オリジナル)

Generative models have shown great promise as trajectory planners, given their affinity to modeling complex distributions and guidable inference process. Previous works have successfully applied these in the context of robotic manipulation but perform poorly when the required solution does not exist as a complete trajectory within the training set. We identify that this is a result of being unable to plan via stitching, and subsequently address the architectural and dataset choices needed to remedy this. On top of this, we propose a novel addition to the training and inference procedures to both stabilize and enhance these capabilities. We demonstrate the efficacy of our approach by generating plans with out of distribution boundary conditions and performing obstacle avoidance on the Franka Panda in simulation and on real hardware. In both of these tasks our method performs significantly better than the baselines and is able to avoid obstacles up to four times as large.

arxiv情報

著者 Reece O’Mahoney,Wanming Yu,Ioannis Havoutis
発行日 2025-06-03 16:45:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, cs.RO | Improving Trajectory Stitching with Flow Models はコメントを受け付けていません

The Polar Express: Optimal Matrix Sign Methods and Their Application to the Muon Algorithm

要約

極座標分解とそれに関連する行列符号関数の計算は、数値解析において数十年にわたりよく研究されてきた問題である。最近では、特にミュオン最適化の枠組みの中で、ディープラーニングにおける重要なサブルーチンとして浮上している。しかし、この設定における要件は、従来の数値解析とは大きく異なる。ディープラーニングでは、手法は非常に効率的でGPUと互換性がなければならないが、高い精度は不要な場合が多い。その結果、Newton-Schulzのような古典的アルゴリズム(初期収束の遅さに悩まされる)や、有理関数に基づく手法(QR分解や行列反転に依存する)は、このコンテキストには適していない。この研究では、極座標分解を計算するためのGPUフレンドリーなアルゴリズムであるPolar Expressを紹介する。Newton-Schulzのような古典的な多項式手法と同様に、我々のアプローチは行列-行列の乗算のみを使用するため、GPUと互換性がある。Chen & ChowとNakatsukasa & Freundの先行研究に触発され、Polar Expressは最小最適化問題を解くことにより、各反復で多項式更新規則を適応させる。この性質により、早い収束と速い漸近収束の両方が保証される。また、有限精度の問題にも対処しており、実際にはbfloat16で安定する。我々はPolar ExpressをMuon最適化のフレームワークの中で適用し、GPT-2のような大規模モデルにおける検証損失において一貫した改善を示し、様々な学習率において最近の代替案を凌駕する。

要約(オリジナル)

Computing the polar decomposition and the related matrix sign function, has been a well-studied problem in numerical analysis for decades. More recently, it has emerged as an important subroutine in deep learning, particularly within the Muon optimization framework. However, the requirements in this setting differ significantly from those of traditional numerical analysis. In deep learning, methods must be highly efficient and GPU-compatible, but high accuracy is often unnecessary. As a result, classical algorithms like Newton-Schulz (which suffers from slow initial convergence) and methods based on rational functions (which rely on QR decompositions or matrix inverses) are poorly suited to this context. In this work, we introduce Polar Express, a GPU-friendly algorithm for computing the polar decomposition. Like classical polynomial methods such as Newton-Schulz, our approach uses only matrix-matrix multiplications, making it GPU-compatible. Motivated by earlier work of Chen & Chow and Nakatsukasa & Freund, Polar Express adapts the polynomial update rule at each iteration by solving a minimax optimization problem, and we prove that it enjoys a strong worst-case optimality guarantee. This property ensures both rapid early convergence and fast asymptotic convergence. We also address finite-precision issues, making it stable in bfloat16 in practice. We apply Polar Express within the Muon optimization framework and show consistent improvements in validation loss on large-scale models such as GPT-2, outperforming recent alternatives across a range of learning rates.

arxiv情報

著者 Noah Amsel,David Persson,Christopher Musco,Robert M. Gower
発行日 2025-06-03 16:46:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: 65F30, 68N19, 68T07, cs.AI, cs.CL, cs.LG, cs.NA, F.2.1, math.NA, math.OC | The Polar Express: Optimal Matrix Sign Methods and Their Application to the Muon Algorithm はコメントを受け付けていません

Graph Generative Pre-trained Transformer

要約

グラフ生成は、複雑な関係や構造化されたデータをモデル化する能力を持つため、分子設計やソーシャルネットワーク解析を含む多くの領域において重要なタスクである。最新のグラフ生成モデルの多くは隣接行列表現を利用しているが、本研究では、グラフをノード集合と辺集合のシーケンスとして表現する別のアプローチを再検討する。グラフを効率的に符号化できることからこのアプローチを提唱し、新しい表現を提案する。この表現に基づき、次トークン予測によりグラフ構造を学習する自動回帰モデルであるグラフ生成事前学習変換器(Graph Generative Pre-trained Transformer: G2PT)を導入する。G2PTの汎用基礎モデルとしての能力をさらに引き出すために、我々は2つの下流アプリケーション、すなわちゴール指向生成とグラフ特性予測のための微調整戦略を探求する。複数のデータセットで広範な実験を行った。その結果、G2PTは一般的なグラフデータセットと分子データセットの両方において優れた生成性能を達成することが示された。さらに、G2PTは、分子設計から物性予測までの下流タスクにおいて、強力な適応性と汎用性を示す。コードはhttps://github.com/tufts-ml/G2PT、

要約(オリジナル)

Graph generation is a critical task in numerous domains, including molecular design and social network analysis, due to its ability to model complex relationships and structured data. While most modern graph generative models utilize adjacency matrix representations, this work revisits an alternative approach that represents graphs as sequences of node set and edge set. We advocate for this approach due to its efficient encoding of graphs and propose a novel representation. Based on this representation, we introduce the Graph Generative Pre-trained Transformer (G2PT), an auto-regressive model that learns graph structures via next-token prediction. To further exploit G2PT’s capabilities as a general-purpose foundation model, we explore fine-tuning strategies for two downstream applications: goal-oriented generation and graph property prediction. We conduct extensive experiments across multiple datasets. Results indicate that G2PT achieves superior generative performance on both generic graph and molecule datasets. Furthermore, G2PT exhibits strong adaptability and versatility in downstream tasks from molecular design to property prediction. Code available at https://github.com/tufts-ml/G2PT,

arxiv情報

著者 Xiaohui Chen,Yinkai Wang,Jiaxing He,Yuanqi Du,Soha Hassoun,Xiaolin Xu,Li-Ping Liu
発行日 2025-06-03 16:53:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG | Graph Generative Pre-trained Transformer はコメントを受け付けていません

MobCLIP: Learning General-purpose Geospatial Representation at Scale

要約

地理空間上の位置の表現学習は、一般的な地理空間知能を実現する上で、依然として中心的な課題である。現在のエンベッディング手法は汎用性に欠けることが多く、人間や自然の領域における多様なタスクでの利用が制限されている。我々は、効果的でスケーラブルなマルチモーダル融合により、これまでにない多様なデータモダリティを統合した、全国初の汎用位置エンコーダであるMobCLIPを発表する。新しいCLIPベースのアーキテクチャを採用した我々のフレームワークは、100M以上のPOI、全国のリモートセンシング画像、および構造化された人口統計と、10億エッジのモビリティグラフを整合する。ビジョントランスフォーマーに触発されたグリッドセルに空間位置をトークン化することで、モビリティパターンとマルチモーダル特徴を橋渡しする統一的な表現空間を確立する。MobCLIPの汎用的な有効性を厳密に評価するために、社会、経済、自然の領域にわたる11の下流予測タスクからなるベンチマークデータセットを構築する。実験の結果、4つの入力モダリティと128次元のコンパクトな表現空間を持つMobCLIPは、最先端モデルよりも平均35%有意に優れた汎用予測性能を達成することが示された。人間中心のモダリティを効果的に統合したおかげで、エネルギー消費量予測(+260%)、オフライン小売消費量予測(+98%)、犯罪事件予測(+95%)など、人間中心のタスクにおいて性能向上が特に顕著である。LLMのスケーリング則に倣って、地理空間表現学習におけるスケーリング動作をさらに実証する。コードと事前学習済みモデルはgithub.comでオープンソース化している。

要約(オリジナル)

Representation learning of geospatial locations remains a core challenge in achieving general geospatial intelligence. Current embedding methods often lack versatility, limiting their utility across diverse tasks in both human and natural domains. We present MobCLIP, the first nationwide general-purpose location encoder, integrating an unprecedented diversity of data modalities through effective and scalable multimodal fusion. Adopting a novel CLIP-based architecture, our framework aligns 100M+ POIs, nationwide remote sensing imagery, and structured demographic statistics with a billion-edge mobility graph. By tokenizing spatial locations into grid cells inspired by Vision Transformers, we establish a unified representation space bridging mobility patterns and multimodal features. To rigorously evaluate the general-purpose effectiveness of MobCLIP, we construct a benchmark dataset composed of 11 downstream prediction tasks across social, economic, and natural domains. Experiments show that MobCLIP, with four input modalities and a compact 128-dimensional representation space, achieves significantly superior general-purpose predictive performances than state-of-the-art models by an average of 35%. Thanks to the effective integration of human-centric modalities, the performance gain is particularly profound in human-centric tasks, such as energy consumption (+260%), offline retail consumption amount (+98%), and crime cases (+95%) predictions. Echoing LLM scaling laws, we further demonstrate the scaling behavior in geospatial representation learning. We open-source code and pretrained models at: github.com.

arxiv情報

著者 Ya Wen,Jixuan Cai,Qiyao Ma,Linyan Li,Xinhua Chen,Chris Webster,Yulun Zhou
発行日 2025-06-03 16:53:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI | MobCLIP: Learning General-purpose Geospatial Representation at Scale はコメントを受け付けていません

StreamBP: Memory-Efficient Exact Backpropagation for Long Sequence Training of LLMs

要約

長いシーケンスデータに対する言語モデルの学習は、長鎖推論などの複雑なタスクに対するモデルの能力を向上させるために必要な要件である。しかしながら、シーケンス長がスケールアップするにつれて、バックプロパゲーション(BP)プロセス中に活性化値を格納するためのメモリコストは、勾配チェックポイント技術を適用しても膨大になる。この課題に取り組むため、我々はStreamBPと呼ばれるメモリ効率の良い厳密なBP手法を提案する。この手法は、シーケンス次元に沿った連鎖ルールの線形分解をレイヤー単位で行い、活性化値とロジットのメモリコストを大幅に削減する。提案手法は、SFT、GRPO、DPOなどの一般的な目的に適用可能である。実装の観点からは、StreamBPは、言語モデルの因果構造を活用することで、より少ない計算FLOPと高速なBP速度を達成する。勾配チェックポインティングと比較すると、StreamBPはBPの最大シーケンス長を2.8~5.5倍に拡大する一方で、BPにかかる時間は同等かそれ以下です。StreamBPのシーケンス長スケーリング能力は、訓練を高速化するためのバッチサイズスケーリングにそのまま転用可能である。我々はさらに、マルチGPUトレーニングを効果的にサポートし、その適用範囲を広げるために、通信効率の良い分散StreamBPを開発する。我々のコードは、あらゆるトランスフォーマーモデルのトレーニングパイプラインに簡単に統合でき、https://github.com/Ledzy/StreamBP。

要約(オリジナル)

Training language models on long sequence data is a demanding requirement for enhancing the model’s capability on complex tasks, e.g., long-chain reasoning. However, as the sequence length scales up, the memory cost for storing activation values becomes huge during the Backpropagation (BP) process, even with the application of gradient checkpointing technique. To tackle this challenge, we propose a memory-efficient and exact BP method called StreamBP, which performs a linear decomposition of the chain rule along the sequence dimension in a layer-wise manner, significantly reducing the memory cost of activation values and logits. The proposed method is applicable to common objectives such as SFT, GRPO, and DPO. From an implementation perspective, StreamBP achieves less computational FLOPs and faster BP speed by leveraging the causal structure of the language model. Compared to gradient checkpointing, StreamBP scales up the maximum sequence length of BP by 2.8-5.5 times larger, while using comparable or even less BP time. Note that StreamBP’s sequence length scaling ability can be directly transferred to batch size scaling for accelerating training. We further develop a communication-efficient distributed StreamBP to effectively support multi-GPU training and broaden its applicability. Our code can be easily integrated into the training pipeline of any transformer models and is available at https://github.com/Ledzy/StreamBP.

arxiv情報

著者 Qijun Luo,Mengqi Li,Lei Zhao,Xiao Li
発行日 2025-06-03 16:54:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG | StreamBP: Memory-Efficient Exact Backpropagation for Long Sequence Training of LLMs はコメントを受け付けていません

Keyed Chaotic Dynamics for Privacy-Preserving Neural Inference

要約

ニューラルネットワークによる推論は通常、生の入力データに対して行われるため、前処理や推論中に暴露されるリスクが高まる。さらに、ニューラルネットワークアーキテクチャには、入力データを直接認証するための効率的なメカニズムが組み込まれていない。本研究では、ニューラルネット推論の安全性を確保するための新しい暗号化手法を紹介する。鍵条件付きカオスグラフ力学系を構築することにより、ニューラルアーキテクチャ内で実数値テンソルの暗号化と復号化を可能にする。提案する力学系は、初期条件に敏感であり、コンパクトなルールから複雑で鍵に依存する非線形変換を生成できるため、暗号化に特に適している。本研究は、ニューラル推論の安全性を確保するためのパラダイムを確立し、ニューラル・ネットワークのセキュリティにおけるグラフ力学系の応用に関する研究に新たな道を開くものである。

要約(オリジナル)

Neural network inference typically operates on raw input data, increasing the risk of exposure during preprocessing and inference. Moreover, neural architectures lack efficient built-in mechanisms for directly authenticating input data. This work introduces a novel encryption method for ensuring the security of neural inference. By constructing key-conditioned chaotic graph dynamical systems, we enable the encryption and decryption of real-valued tensors within the neural architecture. The proposed dynamical systems are particularly suited to encryption due to their sensitivity to initial conditions and their capacity to produce complex, key-dependent nonlinear transformations from compact rules. This work establishes a paradigm for securing neural inference and opens new avenues for research on the application of graph dynamical systems in neural network security.

arxiv情報

著者 Peter David Fagan
発行日 2025-06-03 16:59:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: 37N25, 68T05, 94A60, cs.AI, cs.CR, D.4.6 | Keyed Chaotic Dynamics for Privacy-Preserving Neural Inference はコメントを受け付けていません