Modeling Personalized Difficulty of Rehabilitation Exercises Using Causal Trees

要約

リハビリテーションロボットは、リハビリテーションのためのゲームのような相互作用でよく使用され、リハビリテーションの演習を完了するための人の動機を高めます。
運動の相互作用全体で特定のユーザーの運動の難易度を調整することにより、ロボットはユーザーのリハビリテーションの結果と運動中の動機の両方を最大化できます。
以前のアプローチでは、エクササイズにはすべてのユーザーに等しく適用される一般的な難易度の値があると想定していますが、脳卒中の生存者は運動困難についてさまざまで独自の認識を持っていることを特定しました。
たとえば、一部の脳卒中の生存者は、垂直に到達するよりも垂直に到達していることがわかった人もいますが、垂直に到達するよりもはるかに困難に到達することがわかった人もいます。
このホワイトペーパーでは、ユーザーのパフォーマンスに基づいて運動の難易度を計算する因果樹木ベースの方法を策定します。
このアプローチは、エクササイズの難易度を正確にモデル化し、ユーザーと世話人の両方にとってその運動が困難な理由の容易に解釈可能なモデルを提供することがわかります。

要約(オリジナル)

Rehabilitation robots are often used in game-like interactions for rehabilitation to increase a person’s motivation to complete rehabilitation exercises. By adjusting exercise difficulty for a specific user throughout the exercise interaction, robots can maximize both the user’s rehabilitation outcomes and the their motivation throughout the exercise. Previous approaches have assumed exercises have generic difficulty values that apply to all users equally, however, we identified that stroke survivors have varied and unique perceptions of exercise difficulty. For example, some stroke survivors found reaching vertically more difficult than reaching farther but lower while others found reaching farther more challenging than reaching vertically. In this paper, we formulate a causal tree-based method to calculate exercise difficulty based on the user’s performance. We find that this approach accurately models exercise difficulty and provides a readily interpretable model of why that exercise is difficult for both users and caretakers.

arxiv情報

著者 Nathaniel Dennler,Zhonghao Shi,Uksang Yoo,Stefanos Nikolaidis,Maja Matarić
発行日 2025-05-07 17:21:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Modeling Personalized Difficulty of Rehabilitation Exercises Using Causal Trees はコメントを受け付けていません

ACE: A Security Architecture for LLM-Integrated App Systems

要約

LLM統合アプリシステムは、ユーザークエリに答えるためにインターリーブ計画と実行フェーズを使用してシステムLLMによって呼び出されるサードパーティアプリを使用して、大規模な言語モデル(LLMS)のユーティリティを拡張します。
これらのシステムは、悪意のあるアプリが、実行中に計画や実行、可用性の内訳、またはプライバシーの妥協の完全性違反を引き起こす可能性がある新しい攻撃ベクトルを導入します。
この作業では、LLM統合アプリでの実行の整合性と実行の整合性と可用性に影響を与える新しい攻撃を特定し、悪意のあるアプリからの攻撃を緩和するために設計された最近のソリューションであるIsolategPTに対してそれらを実証します。
システム計画と実行のセキュリティ保証を提供するLLM統合アプリシステムの新しい安全なアーキテクチャであるAbstract Concrete-Execute(ACE)を提案します。
具体的には、ACEは、信頼できる情報のみを使用して抽象実行計画を最初に作成し、抽象計画をインストールされたシステムアプリを使用して具体的な計画にマッピングすることにより、計画計画を2つのフェーズに分離します。
システムによって生成された計画が、構造化された計画出力の静的分析を介してユーザー指定の安全な情報の制約を満たすことを確認します。
実行中、ACEはアプリ間のデータと能力の障壁を強制し、信頼できる抽象計画に従って実行が実施されることを保証します。
私たちのシステムは、間接的な迅速な噴射攻撃に直面した制御フローの完全性のための標準的なベンチマーク、および新しく導入された攻撃からの標準的なベンチマークである、私たちのシステムが注射科のベンチマークからの攻撃に対して安全であることを実験的に示します。
私たちのアーキテクチャは、さまざまなレベルの信頼性を持つシステム施設を含むLLMベースのシステムを硬化させるための重要な進歩を表しています。

要約(オリジナル)

LLM-integrated app systems extend the utility of Large Language Models (LLMs) with third-party apps that are invoked by a system LLM using interleaved planning and execution phases to answer user queries. These systems introduce new attack vectors where malicious apps can cause integrity violation of planning or execution, availability breakdown, or privacy compromise during execution. In this work, we identify new attacks impacting the integrity of planning, as well as the integrity and availability of execution in LLM-integrated apps, and demonstrate them against IsolateGPT, a recent solution designed to mitigate attacks from malicious apps. We propose Abstract-Concrete-Execute (ACE), a new secure architecture for LLM-integrated app systems that provides security guarantees for system planning and execution. Specifically, ACE decouples planning into two phases by first creating an abstract execution plan using only trusted information, and then mapping the abstract plan to a concrete plan using installed system apps. We verify that the plans generated by our system satisfy user-specified secure information flow constraints via static analysis on the structured plan output. During execution, ACE enforces data and capability barriers between apps, and ensures that the execution is conducted according to the trusted abstract plan. We show experimentally that our system is secure against attacks from the INJECAGENT benchmark, a standard benchmark for control flow integrity in the face of indirect prompt injection attacks, and our newly introduced attacks. Our architecture represents a significant advancement towards hardening LLM-based systems containing system facilities of varying levels of trustworthiness.

arxiv情報

著者 Evan Li,Tushin Mallick,Evan Rose,William Robertson,Alina Oprea,Cristina Nita-Rotaru
発行日 2025-05-07 17:26:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG | ACE: A Security Architecture for LLM-Integrated App Systems はコメントを受け付けていません

Complexity Lower Bounds of Adaptive Gradient Algorithms for Non-convex Stochastic Optimization under Relaxed Smoothness

要約

非凸確率的最適化の最近の結果は、$(l_0、l_1)$ – 滑らかさ条件の下での一般的な適応アルゴリズム(例えば、adagrad)の収束を示していますが、収束速度は平滑性定数のような問題パラメーターの点で高次の多項式です。
このようなアルゴリズムによって保証された複雑さは、$ \ epsilon $–stationaryポイントを見つけるために$ \ theta \ left(\ delta l \ sigma^2 \ epsilon^{-4} \ right)の最適な複雑さよりも大幅に大きくなる可能性があります。
$ \ sigma^2 $は、確率勾配の分散です。
ただし、現在、これらの高次依存関係を引き締めることができるかどうかは現在不明です。
この質問に答えるために、問題パラメーター$ \ delta、l_0、l_1 $の観点から、$(L_0、l_1)$ – $(l_0、l_1)$のいくつかの適応最適化アルゴリズムの複雑さの下限を調査します。
Adagradの3つのバリエーションの複雑さを提供します。これは、少なくとも問題パラメーター$ \ Delta、L_0、L_1 $に少なくとも二次依存性を示しています。
特に、Adagrad-normの脱線化されたバリアントには、少なくとも$ \ omega \左(\ delta^2 l_1^2 \ sigma^2 \ epsilon^{-4} \ right)が必要であることを示します。
また、幅広いクラスの適応階段化を備えたSGD向けの下限を提供します。
我々の結果は、特定の適応アルゴリズムについて、$(L_0、L_1)$ – スムーズな設定は、初期の最適性ギャップと滑らかさ定数の観点から、標準の滑らかな設定よりも根本的に困難であることを示しています。

要約(オリジナル)

Recent results in non-convex stochastic optimization demonstrate the convergence of popular adaptive algorithms (e.g., AdaGrad) under the $(L_0, L_1)$-smoothness condition, but the rate of convergence is a higher-order polynomial in terms of problem parameters like the smoothness constants. The complexity guaranteed by such algorithms to find an $\epsilon$-stationary point may be significantly larger than the optimal complexity of $\Theta \left( \Delta L \sigma^2 \epsilon^{-4} \right)$ achieved by SGD in the $L$-smooth setting, where $\Delta$ is the initial optimality gap, $\sigma^2$ is the variance of stochastic gradient. However, it is currently not known whether these higher-order dependencies can be tightened. To answer this question, we investigate complexity lower bounds for several adaptive optimization algorithms in the $(L_0, L_1)$-smooth setting, with a focus on the dependence in terms of problem parameters $\Delta, L_0, L_1$. We provide complexity bounds for three variations of AdaGrad, which show at least a quadratic dependence on problem parameters $\Delta, L_0, L_1$. Notably, we show that the decorrelated variant of AdaGrad-Norm requires at least $\Omega \left( \Delta^2 L_1^2 \sigma^2 \epsilon^{-4} \right)$ stochastic gradient queries to find an $\epsilon$-stationary point. We also provide a lower bound for SGD with a broad class of adaptive stepsizes. Our results show that, for certain adaptive algorithms, the $(L_0, L_1)$-smooth setting is fundamentally more difficult than the standard smooth setting, in terms of the initial optimality gap and the smoothness constants.

arxiv情報

著者 Michael Crawshaw,Mingrui Liu
発行日 2025-05-07 17:40:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Complexity Lower Bounds of Adaptive Gradient Algorithms for Non-convex Stochastic Optimization under Relaxed Smoothness はコメントを受け付けていません

Likelihood-Free Adaptive Bayesian Inference via Nonparametric Distribution Matching

要約

可能性が分析的に利用できず、計算に扱いにくい場合、おおよそのベイジアン計算(ABC)が、おおよその後方推論のために広く使用されている方法論として浮上しています。
ただし、高次元の設定または拡散前における深刻な計算非効率性に苦しんでいます。
これらの制限を克服するために、従来のデータ空間の不一致をバイパスし、代わりにノンパラメトリック分布マッチングを介して後空間で分布を直接比較するフレームワークである適応ベイジアン推論(ABI)を提案します。
後部測定でのわずかに摘んだスライスされた小屋(MSW)距離を拡大し、その分位の表現を利用することにより、ABIは、後部分布間の発散を測定するという挑戦的な問題を1次元条件付き分位回帰タスクの扱いやすいシーケンスに変換します。
さらに、生成密度の推定を介して提案分布を更新することにより、後部近似を繰り返し改善する新しい適応拒絶反応サンプリングスキームを導入します。
理論的には、トリミングされたMSW距離のパラメトリック収束速度を確立し、耐性のしきい値が消えるとABI後部が真の後部に収束することを証明します。
広範な経験的評価を通じて、ABIは、特に高次元または依存の観察体制において、データベースのWasserstein ABC、SummaryベースのABC、および最先端のないシミュレーターを大幅に上回ることを実証します。

要約(オリジナル)

When the likelihood is analytically unavailable and computationally intractable, approximate Bayesian computation (ABC) has emerged as a widely used methodology for approximate posterior inference; however, it suffers from severe computational inefficiency in high-dimensional settings or under diffuse priors. To overcome these limitations, we propose Adaptive Bayesian Inference (ABI), a framework that bypasses traditional data-space discrepancies and instead compares distributions directly in posterior space through nonparametric distribution matching. By leveraging a novel Marginally-augmented Sliced Wasserstein (MSW) distance on posterior measures and exploiting its quantile representation, ABI transforms the challenging problem of measuring divergence between posterior distributions into a tractable sequence of one-dimensional conditional quantile regression tasks. Moreover, we introduce a new adaptive rejection sampling scheme that iteratively refines the posterior approximation by updating the proposal distribution via generative density estimation. Theoretically, we establish parametric convergence rates for the trimmed MSW distance and prove that the ABI posterior converges to the true posterior as the tolerance threshold vanishes. Through extensive empirical evaluation, we demonstrate that ABI significantly outperforms data-based Wasserstein ABC, summary-based ABC, and state-of-the-art likelihood-free simulators, especially in high-dimensional or dependent observation regimes.

arxiv情報

著者 Wenhui Sophia Lu,Wing Hung Wong
発行日 2025-05-07 17:50:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.CO, stat.ME, stat.ML | Likelihood-Free Adaptive Bayesian Inference via Nonparametric Distribution Matching はコメントを受け付けていません

Testing Juntas Optimally with Samples

要約

$ \ theta \ left(\ tfrac {1} {\ epsilon} \ left(\ sqrt {2^k \ log \ binom {n} {k}} + \ log \ binom {n} {k} {k} {k} {k} \ right for for for of of of of of of of of of of of of of sumples
$ k $ -juntaテスト。
これは、分布のないサンプルベースのモデルで、ブール機能の自然なクラスをテストするための最初の厳しいバウンドです。
また、機能選択の問題については、Juntaテスターが関連する変数のセットを学習しなければならないことを示しています。
寛容なJUNTAテストの場合、$ \ OMEGA(2^{(1-O(1))k} + \ log \ binom {n} {k})$の$ \ omega(2^{(1-o(1))k} + \ log \ binom {k})のサンプル低下を証明します。標準テストとは異なり、耐性テストと学習の間に大きなギャップはありません。

要約(オリジナル)

We prove tight upper and lower bounds of $\Theta\left(\tfrac{1}{\epsilon}\left( \sqrt{2^k \log\binom{n}{k} } + \log\binom{n}{k} \right)\right)$ on the number of samples required for distribution-free $k$-junta testing. This is the first tight bound for testing a natural class of Boolean functions in the distribution-free sample-based model. Our bounds also hold for the feature selection problem, showing that a junta tester must learn the set of relevant variables. For tolerant junta testing, we prove a sample lower bound of $\Omega(2^{(1-o(1)) k} + \log\binom{n}{k})$ showing that, unlike standard testing, there is no large gap between tolerant testing and learning.

arxiv情報

著者 Lorenzo Beretta,Nathaniel Harms,Caleb Koch
発行日 2025-05-07 17:50:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CC, cs.DS, cs.LG | Testing Juntas Optimally with Samples はコメントを受け付けていません

From Two Sample Testing to Singular Gaussian Discrimination

要約

一般的な分離可能でコンパクトなメトリック空間での2つの確率測定値の平等のテストは、適切な繁殖するカーネルヒルベルト空間に関する2つの対応するガウス測定の間の特異点のテストと同等であることを確立します。
対応するガウスは、確率測定値のカーネル平均および共分散埋め込みの概念によって定義されます。
特に高次元の設定では、2つの特異なガウス人を識別することは、ノンパラメトリックの2サンプルテストよりも情報理論の観点から基本的に簡単です。
私たちの証明は、ヒルバート空間でのガウスの特異性/等価性のためのフェルドマン・ハジェク基準を活用し、分布間の矛盾が対応するガウスの埋め込みを通じて大きく拡大されていることを示しています。
これは、優れた一般性における効率的な推論ツールの設計のために利用できる次元の祝福の新しいインスタンスのようです。

要約(オリジナル)

We establish that testing for the equality of two probability measures on a general separable and compact metric space is equivalent to testing for the singularity between two corresponding Gaussian measures on a suitable Reproducing Kernel Hilbert Space. The corresponding Gaussians are defined via the notion of kernel mean and covariance embedding of a probability measure. Discerning two singular Gaussians is fundamentally simpler from an information-theoretic perspective than non-parametric two-sample testing, particularly in high-dimensional settings. Our proof leverages the Feldman-Hajek criterion for singularity/equivalence of Gaussians on Hilbert spaces, and shows that discrepancies between distributions are heavily magnified through their corresponding Gaussian embeddings: at a population level, distinct probability measures lead to essentially separated Gaussian embeddings. This appears to be a new instance of the blessing of dimensionality that can be harnessed for the design of efficient inference tools in great generality.

arxiv情報

著者 Leonardo V. Santoro,Kartik G. Waghmare,Victor M. Panaretos
発行日 2025-05-07 17:56:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 46E22, 60G15, 62G10, cs.LG, math.ST, stat.ML, stat.TH | From Two Sample Testing to Singular Gaussian Discrimination はコメントを受け付けていません

Is the end of Insight in Sight ?

要約

物理学に基づいたニューラルネットワーク(PINN)ベースの深い学習アプリケーションの重量マトリックスは、ボルツマン方程式によって記述された希薄化ガスダイナミクス問題への深い学習アプリケーションを、物理的問題の数学的構造との明白なリンクを持たないことが示されています。
代わりに、重みはガウス分布ランダムマトリックスの近くに表示されます。
この方向での堅牢な評価をサポートするには、かなり多くの作業が必要ですが、これらの結果は、ボルツマン方程式の深部学習と数値解は、同じ物理的知識への2つの同等の、しかしほぼ異なる経路を表していることを示唆しています。
もしそうなら、説明可能なAIは非現実的なターゲットであり、おそらく不適切なターゲットでさえあるかもしれません。

要約(オリジナル)

It is shown that the weight matrices of a Physics-informed neural network (PINN)-based deep learning application to a rarefied gas dynamics problem described by the Boltzmann equation bear no evident link to the mathematical structure of the physical problem. Instead, the weights appear close to Gaussian distributed random matrices. Although significantly more work is needed to support a robust assessment in this direction, these results suggest that deep-learning and the numerical solution of the Boltzmann equation represent two equivalent, but largely distinct paths to the same physical knowledge. If so, Explainable AI might be an unrealistic target and possibly even an ill-posed one.

arxiv情報

著者 Jean-Michel Tucny,Mihir Durve,Sauro Succi
発行日 2025-05-07 19:57:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, physics.comp-ph, physics.data-an | Is the end of Insight in Sight ? はコメントを受け付けていません

Towards Universal and Black-Box Query-Response Only Attack on LLMs with QROA

要約

大規模な言語モデル(LLMS)の迅速な採用は、重要なセキュリティと倫理的脆弱性、特に敵対的操作に対する感受性を明らかにしています。
このペーパーでは、悪意のある指示に追加されたときにLLMアライメントセーフガードをバイパスできる敵対的な接尾辞を特定するために設計された新しいブラックボックスジェイルブレイク方法であるQROAを紹介します。
既存のサフィックスベースの脱獄アプローチとは異なり、QROAはモデルのロジットまたはその他の内部情報へのアクセスを必要としません。
また、LLMSの標準クエリ応答インターフェイスのみを介して動作する人間が作成したテンプレートへの依存を排除​​します。
QROAは、最適化の盗賊問題として攻撃をフレーミングすることにより、サロゲートモデルとトークンレベルの最適化を採用して、接尾辞のバリエーションを効率的に調査します。
さらに、個々のモデルの普遍的な敵対的な接尾辞を識別する拡張機能であるQROA-UNVを提案し、幅広い指示にわたって1つのクエリの脱獄を可能にします。
複数のモデルでのテストは、80 \%を超える攻撃成功率(ASR)を示しています。
これらの調査結果は、重要な脆弱性を強調し、高度な防御の必要性を強調し、安全なAI展開のためのより堅牢な安全評価の開発に貢献します。
コードは、次のリンクで公開されています:https://github.com/qroa/qroa

要約(オリジナル)

The rapid adoption of Large Language Models (LLMs) has exposed critical security and ethical vulnerabilities, particularly their susceptibility to adversarial manipulations. This paper introduces QROA, a novel black-box jailbreak method designed to identify adversarial suffixes that can bypass LLM alignment safeguards when appended to a malicious instruction. Unlike existing suffix-based jailbreak approaches, QROA does not require access to the model’s logit or any other internal information. It also eliminates reliance on human-crafted templates, operating solely through the standard query-response interface of LLMs. By framing the attack as an optimization bandit problem, QROA employs a surrogate model and token level optimization to efficiently explore suffix variations. Furthermore, we propose QROA-UNV, an extension that identifies universal adversarial suffixes for individual models, enabling one-query jailbreaks across a wide range of instructions. Testing on multiple models demonstrates Attack Success Rate (ASR) greater than 80\%. These findings highlight critical vulnerabilities, emphasize the need for advanced defenses, and contribute to the development of more robust safety evaluations for secure AI deployment. The code is made public on the following link: https://github.com/qroa/QROA

arxiv情報

著者 Hussein Jawad,Yassine Chenik,Nicolas J. -B. Brunel
発行日 2025-05-06 22:24:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG | Towards Universal and Black-Box Query-Response Only Attack on LLMs with QROA はコメントを受け付けていません

SLOT: Structuring the Output of Large Language Models

要約

構造化された出力は、エージェントや情報抽出などの重要なアプリケーションでは、大規模な言語モデル(LLM)に不可欠です。
その機能にもかかわらず、LLMはしばしば事前定義されたスキーマから逸脱する出力を生成し、信頼できるアプリケーション開発を大幅に妨げます。
非構造化されたLLM出力を正確な構造化された形式に変換するモデルと存在するアプローチであるスロット(構造化されたLLM出力トランス)を提示します。
既存のソリューションは主に制約されたデコード技術に依存しているか、特定のモデルと密接に結合していますが、スロットは微調整された軽量言語モデルをポスト処理層として採用し、さまざまなLLMSおよびスキーマ仕様にわたって柔軟性を達成します。
スキーマの精度とコンテンツの忠実度の両方を定量化する正式な評価方法論とともに、データキュレーションと統合のための体系的なパイプラインを紹介します。
我々の結果は、制約されたデコードを備えた微調整されたミストラル-7Bモデルが、ほぼ完全なスキーマ精度(99.5%)とコンテンツの類似性(94.0%)を達成し、Claude-3.5-Sonnetを大幅なマージン(+25および+20パーセントポイント)で上回ることを示しています。
特に、LLAMA-3.2-1Bのようなコンパクトモデルでさえ、スロットを装備した場合、はるかに大きな独自モデルの構造化された出力機能に一致するか、それを超えて、リソース制約の環境で信頼できる構造生成を可能にします。

要約(オリジナル)

Structured outputs are essential for large language models (LLMs) in critical applications like agents and information extraction. Despite their capabilities, LLMs often generate outputs that deviate from predefined schemas, significantly hampering reliable application development. We present SLOT (Structured LLM Output Transformer), a model-agnostic approach that transforms unstructured LLM outputs into precise structured formats. While existing solutions predominantly rely on constrained decoding techniques or are tightly coupled with specific models, SLOT employs a fine-tuned lightweight language model as a post-processing layer, achieving flexibility across various LLMs and schema specifications. We introduce a systematic pipeline for data curation and synthesis alongside a formal evaluation methodology that quantifies both schema accuracy and content fidelity. Our results demonstrate that fine-tuned Mistral-7B model with constrained decoding achieves near perfect schema accuracy (99.5%) and content similarity (94.0%), outperforming Claude-3.5-Sonnet by substantial margins (+25 and +20 percentage points, respectively). Notably, even compact models like Llama-3.2-1B can match or exceed the structured output capabilities of much larger proprietary models when equipped with SLOT, enabling reliable structured generation in resource-constrained environments.

arxiv情報

著者 Darren Yow-Bang Wang,Zhengyuan Shen,Soumya Smruti Mishra,Zhichao Xu,Yifei Teng,Haibo Ding
発行日 2025-05-06 23:29:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | SLOT: Structuring the Output of Large Language Models はコメントを受け付けていません

Designing Speech Technologies for Australian Aboriginal English: Opportunities, Risks and Participation

要約

オーストラリアでは、クレオールや地元の国際言語を含む接触後の言語品種が、先住民族のコミュニティと英語の話者との間の強制接触の結果として現れました。
これらの接触品種は広く使用されていますが、言語技術ではあまりサポートされていません。
このギャップは、これらの品種を使用して先住民族のコミュニティのための民間および経済社会への参加に対する障壁を提示し、現代の先住民の社会言語学的アイデンティティの少数類を再現します。
この論文は、この文脈に関する3つの質問に関するものです。
まず、音声技術は、地元の先住民族の英語であるオーストラリアのアボリジニ英語のスピーカーをサポートできますか?
第二に、そのようなプロジェクトにはどのようなリスクが固有のものですか?
第三に、このコンテキストにはどのような技術開発慣行が適切であり、研究者はリスクを軽減するために意味のあるコミュニティ参加をどのように統合できますか?
私たちは、オーストラリアのアボリジニ英語の音声技術を改善することを目的とした現実世界のプロジェクトのデザインプラクティスを探求するケーススタディを通じて、機会が存在すると主張し、これを実証します。
プロジェクト全体で、文化的に適切かつ参加型プロセスを統合した方法について説明します。
参加型および文化的に安全な慣行が制定されていれば、実際の経済的および社会文化的利益を提供する接触品種を含む先住民族のコミュニティが使用する言語のサポートの増加を求めています。

要約(オリジナル)

In Australia, post-contact language varieties, including creoles and local varieties of international languages, emerged as a result of forced contact between Indigenous communities and English speakers. These contact varieties are widely used, yet are poorly supported by language technologies. This gap presents barriers to participation in civil and economic society for Indigenous communities using these varieties, and reproduces minoritisation of contemporary Indigenous sociolinguistic identities. This paper concerns three questions regarding this context. First, can speech technologies support speakers of Australian Aboriginal English, a local indigenised variety of English? Second, what risks are inherent in such a project? Third, what technology development practices are appropriate for this context, and how can researchers integrate meaningful community participation in order to mitigate risks? We argue that opportunities do exist — as well as risks — and demonstrate this through a case study exploring design practices in a real-world project aiming to improve speech technologies for Australian Aboriginal English. We discuss how we integrated culturally appropriate and participatory processes throughout the project. We call for increased support for languages used by Indigenous communities, including contact varieties, which provide practical economic and socio-cultural benefits, provided that participatory and culturally safe practices are enacted.

arxiv情報

著者 Ben Hutchinson,Celeste Rodríguez Louro,Glenys Collard,Ned Cooper
発行日 2025-05-07 00:53:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Designing Speech Technologies for Australian Aboriginal English: Opportunities, Risks and Participation はコメントを受け付けていません