TimeMixer++: A General Time Series Pattern Machine for Universal Predictive Analysis

要約

時系列分析は多くのアプリケーションで重要な役割を果たし、予測、分類、異常検出、代入などのタスクをサポートします。
この作業では、強力な表現機能とパターン抽出機能を通じて幅広い時系列タスクで優れた性能を発揮するように設計されたモデルであるタイム シリーズ パターン マシン (TSPM) を紹介します。
従来の時系列モデルは、普遍的なパターンを捉えるのに苦労することが多く、さまざまなタスクにわたる有効性が制限されます。
これに対処するために、時間領域で複数のスケールを定義し、周波数領域でさまざまな解像度を定義し、さまざまな混合戦略を採用して、複雑なタスク適応型時系列パターンを抽出します。
具体的には、(1) マルチ解像度時間イメージング (MRTI)、(2) 時間画像分解 (TID)、(3) マルチスケール混合 (MCM)、を使用してマルチスケール時系列を処理する汎用 TSPM を紹介します。
(4) 包括的な時間パターンを抽出するための多重解像度ミキシング (MRM)。
MRTI は、マルチスケール時系列をマルチ解像度時間画像に変換し、時間領域と周波数領域の両方でパターンをキャプチャします。
TID は二重軸の注意を活用して季節パターンとトレンド パターンを抽出しますが、MCM はスケール全体でこれらのパターンを階層的に集約します。
MRM は、解像度全体ですべての表現を適応的に統合します。
この手法は、8 つの時系列分析タスクにわたって最先端のパフォーマンスを実現し、汎用モデルとタスク固有のモデルの両方を常に上回っています。
私たちの研究は、次世代の TSPM に向けた有望な一歩を示し、時系列分析のさらなる進歩への道を切り開きます。

要約(オリジナル)

Time series analysis plays a critical role in numerous applications, supporting tasks such as forecasting, classification, anomaly detection, and imputation. In this work, we present the time series pattern machine (TSPM), a model designed to excel in a broad range of time series tasks through powerful representation and pattern extraction capabilities. Traditional time series models often struggle to capture universal patterns, limiting their effectiveness across diverse tasks. To address this, we define multiple scales in the time domain and various resolutions in the frequency domain, employing various mixing strategies to extract intricate, task-adaptive time series patterns. Specifically, we introduce a general-purpose TSPM that processes multi-scale time series using (1) multi-resolution time imaging (MRTI), (2) time image decomposition (TID), (3) multi-scale mixing (MCM), and (4) multi-resolution mixing (MRM) to extract comprehensive temporal patterns. MRTI transforms multi-scale time series into multi-resolution time images, capturing patterns across both temporal and frequency domains. TID leverages dual-axis attention to extract seasonal and trend patterns, while MCM hierarchically aggregates these patterns across scales. MRM adaptively integrates all representations across resolutions. This method achieves state-of-the-art performance across 8 time series analytical tasks, consistently surpassing both general-purpose and task-specific models. Our work marks a promising step toward the next generation of TSPMs, paving the way for further advancements in time series analysis.

arxiv情報

著者 Shiyu Wang,Jiawei Li,Xiaoming Shi,Zhou Ye,Baichuan Mo,Wenze Lin,Shengtong Ju,Zhixuan Chu,Ming Jin
発行日 2024-10-21 14:06:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | TimeMixer++: A General Time Series Pattern Machine for Universal Predictive Analysis はコメントを受け付けていません

Latent Skill Discovery for Chain-of-Thought Reasoning

要約

思考連鎖 (CoT) プロンプトは、特に複雑な推論タスクに取り組む場合に、大規模言語モデル (LLM) に対する一般的なコンテキスト内学習 (ICL) アプローチです。
従来の ICL アプローチでは、入力された質問と同様の質問を含む例を使用してプロンプトを構築します。
ただし、CoT プロンプトでは、例の中に重要な中間推論ステップ (理論的根拠) が含まれるため、質問そのものではなく、これらの理論的根拠に基づいてサンプルを選択する必要があります。
既存の方法では、人間の専門家または事前トレーニングを受けた LLM が、選択をガイドするためのスキル、論理的根拠の高レベルの抽象化を説明する必要があります。
ただし、これらの方法は多くの場合コストが高く、拡張が困難です。
代わりに、この論文では、潜在推論スキル (LaRS) と呼ばれる新しいアプローチを紹介します。これは、推論スキルと呼ばれる潜在変数を使用して、教師なし学習を使用して理論的根拠の潜在空間表現を作成します。
同時に、LaRS は、特定の質問に対して必要な推論スキルを決定するための推論ポリシーを学習します。
次に、過去の例と質問の間の推論スキルを調整することにより、ICL の例が選択されます。
このアプローチは理論的に根拠があり、計算効率が高く、補助的な LLM 推論や手動のプロンプト設計が不要になります。
実証結果は、LaRS が常に SOTA スキルベースの選択方法よりも優れたパフォーマンスを示し、サンプル バンクを 4 倍高速に処理し、選択段階での LLM 推論を半分に削減し、次善のサンプル バンクに対する堅牢性を示していることを示しています。

要約(オリジナル)

Chain-of-thought (CoT) prompting is a popular in-context learning (ICL) approach for large language models (LLMs), especially when tackling complex reasoning tasks. Traditional ICL approaches construct prompts using examples that contain questions similar to the input question. However, CoT prompting, which includes crucial intermediate reasoning steps (rationales) within its examples, necessitates selecting examples based on these rationales rather than the questions themselves. Existing methods require human experts or pre-trained LLMs to describe the skill, a high-level abstraction of rationales, to guide the selection. These methods, however, are often costly and difficult to scale. Instead, this paper introduces a new approach named Latent Reasoning Skills (LaRS) that employs unsupervised learning to create a latent space representation of rationales, with a latent variable called a reasoning skill. Concurrently, LaRS learns a reasoning policy to determine the required reasoning skill for a given question. Then the ICL examples are selected by aligning the reasoning skills between past examples and the question. This approach is theoretically grounded and compute-efficient, eliminating the need for auxiliary LLM inference or manual prompt design. Empirical results demonstrate that LaRS consistently outperforms SOTA skill-based selection methods, processing example banks four times faster, reducing LLM inferences during the selection stage by half, and showing greater robustness to sub-optimal example banks.

arxiv情報

著者 Zifan Xu,Haozhu Wang,Dmitriy Bespalov,Xuan Wang,Peter Stone,Yanjun Qi
発行日 2024-10-21 14:21:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | Latent Skill Discovery for Chain-of-Thought Reasoning はコメントを受け付けていません

Generalized Group Data Attribution

要約

データ アトリビューション (DA) メソッドは、モデル出力に対する個々のトレーニング データ ポイントの影響を定量化し、説明可能性、データ選択、ノイズのあるラベルの識別などの幅広い用途に使用できます。
ただし、既存の DA 手法は多くの場合、計算量が多く、大規模な機械学習モデルへの適用が制限されています。
この課題に対処するために、一般化グループ データ アトリビューション (GGDA) フレームワークを導入します。これは、個別のポイントではなくトレーニング ポイントのグループに帰属させることで DA を計算的に簡素化します。
GGDA は、既存のアトリビューション手法を包含する一般的なフレームワークであり、新しい DA 手法が出現するたびに適用できます。
これにより、ユーザーはニーズに基づいて効率と忠実性の間のトレードオフを最適化できます。
私たちの経験的結果は、GGDA を Influence Functions、TracIn、TRAK などの一般的な DA メソッドに適用すると、アトリビューションの忠実度を適切にトレードオフしながら、標準の DA メソッドよりも最大 10 倍から 50 倍の高速化をもたらすことを示しています。
データセットのプルーニングやノイズの多いラベルの識別などの下流アプリケーションでは、GGDA が計算効率を大幅に向上させて有効性を維持し、これまで実現不可能だった大規模な機械学習シナリオでの実用的なアプリケーションを可能にすることを実証します。

要約(オリジナル)

Data Attribution (DA) methods quantify the influence of individual training data points on model outputs and have broad applications such as explainability, data selection, and noisy label identification. However, existing DA methods are often computationally intensive, limiting their applicability to large-scale machine learning models. To address this challenge, we introduce the Generalized Group Data Attribution (GGDA) framework, which computationally simplifies DA by attributing to groups of training points instead of individual ones. GGDA is a general framework that subsumes existing attribution methods and can be applied to new DA techniques as they emerge. It allows users to optimize the trade-off between efficiency and fidelity based on their needs. Our empirical results demonstrate that GGDA applied to popular DA methods such as Influence Functions, TracIn, and TRAK results in upto 10x-50x speedups over standard DA methods while gracefully trading off attribution fidelity. For downstream applications such as dataset pruning and noisy label identification, we demonstrate that GGDA significantly improves computational efficiency and maintains effectiveness, enabling practical applications in large-scale machine learning scenarios that were previously infeasible.

arxiv情報

著者 Dan Ley,Suraj Srinivas,Shichang Zhang,Gili Rusak,Himabindu Lakkaraju
発行日 2024-10-21 14:36:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML | Generalized Group Data Attribution はコメントを受け付けていません

On-Device LLMs for SMEs: Challenges and Opportunities

要約

このペーパーでは、ハードウェアとソフトウェアの両方の観点に焦点を当て、中小企業 (SME) のコンテキスト内で大規模言語モデル (LLM) をデバイス上に展開するためのインフラストラクチャ要件を体系的にレビューします。
ハードウェアの観点から、GPU や TPU などのプロセッシング ユニットの利用、効率的なメモリとストレージ ソリューション、効果的な導入戦略について説明し、中小企業環境に特有の限られた計算リソースの課題に対処します。
ソフトウェアの観点から、フレームワークの互換性、オペレーティング システムの最適化、リソースに制約のある環境に合わせた特殊なライブラリの使用について調査します。
このレビューは、まずデバイス上に LLM を導入する際に中小企業が直面する特有の課題を特定し、次にハードウェアの革新とソフトウェアの適応の両方がこれらの障害を克服するために提供する機会を探ることを目的として構成されています。
このような構造化されたレビューは実践的な洞察を提供し、LLM を統合する際の中小企業の技術的回復力を強化することでコミュニティに大きく貢献します。

要約(オリジナル)

This paper presents a systematic review of the infrastructure requirements for deploying Large Language Models (LLMs) on-device within the context of small and medium-sized enterprises (SMEs), focusing on both hardware and software perspectives. From the hardware viewpoint, we discuss the utilization of processing units like GPUs and TPUs, efficient memory and storage solutions, and strategies for effective deployment, addressing the challenges of limited computational resources typical in SME settings. From the software perspective, we explore framework compatibility, operating system optimization, and the use of specialized libraries tailored for resource-constrained environments. The review is structured to first identify the unique challenges faced by SMEs in deploying LLMs on-device, followed by an exploration of the opportunities that both hardware innovations and software adaptations offer to overcome these obstacles. Such a structured review provides practical insights, contributing significantly to the community by enhancing the technological resilience of SMEs in integrating LLMs.

arxiv情報

著者 Jeremy Stephen Gabriel Yee Zhi Wen,Pai Chet Ng,Zhengkui Wang,Ian McLoughlin,Aik Beng Ng,Simon See
発行日 2024-10-21 14:48:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T07, cs.AI, cs.CL, I.2 | On-Device LLMs for SMEs: Challenges and Opportunities はコメントを受け付けていません

Critical Example Mining for Vehicle Trajectory Prediction using Flow-based Generative Models

要約

自動運転車には、複雑な運転シナリオにおける正確な軌道予測が不可欠です。
実際には、運転シナリオが異なると、軌道予測モデルの難易度も異なります。
ただし、既存の研究のほとんどは、入力シナリオの基礎となる分布を無視して、予測結果の平均精度に焦点を当てています。
この論文では、データ駆動型のアプローチを利用して軌跡の希少性を推定する重要な例のマイニング方法を提案します。
提案された方法は、観測値の希少性推定と軌跡全体を組み合わせることで、特定の予測モデルにデータを入力する前に、予測が比較的困難なデータのサブセットを効果的に識別します。
実験結果は、異なる下流予測モデルに適用すると、マイニングされたサブセットの予測誤差が高く、5% サンプルをマイニングした場合に +108.1% の誤差 (データセットの平均と比較して 2 倍以上) に達することが示されています。
さらなる分析により、マイニングされたクリティカルな例には、急ブレーキやキャンセルされた車線変更などの珍しいケースが含まれていることが示されており、これは予測モデルの理解を深め、パフォーマンスを向上させるのに役立ちます。

要約(オリジナル)

Precise trajectory prediction in complex driving scenarios is essential for autonomous vehicles. In practice, different driving scenarios present varying levels of difficulty for trajectory prediction models. However, most existing research focuses on the average precision of prediction results, while ignoring the underlying distribution of the input scenarios. This paper proposes a critical example mining method that utilizes a data-driven approach to estimate the rareness of the trajectories. By combining the rareness estimation of observations with whole trajectories, the proposed method effectively identifies a subset of data that is relatively hard to predict BEFORE feeding them to a specific prediction model. The experimental results show that the mined subset has higher prediction error when applied to different downstream prediction models, which reaches +108.1% error (greater than two times compared to the average on dataset) when mining 5% samples. Further analysis indicates that the mined critical examples include uncommon cases such as sudden brake and cancelled lane-change, which helps to better understand and improve the performance of prediction models.

arxiv情報

著者 Zhezhang Ding,Huijing Zhao
発行日 2024-10-21 15:02:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI | Critical Example Mining for Vehicle Trajectory Prediction using Flow-based Generative Models はコメントを受け付けていません

Fine-Tuning LLMs for Reliable Medical Question-Answering Services

要約

私たちは、微調整されたラージ言語モデル (LLM) を使用して医療情報の精度と信頼性を向上させる、医療質問応答 (QA) サービスへの高度なアプローチを紹介します。
私たちの研究は、LLaMA-2 や Mistral などのモデルの最適化に焦点を当てており、正確で信頼性の高い医学的回答を提供することに大きな期待が寄せられています。
包括的なデータセットを活用することで、rsDoRA+ や ReRAG などの微調整技術を適用しました。
rsDoRA+ は、分解されたモデルの重み、低ランク行列のさまざまな学習率、およびランクの安定化の組み合わせを通じてモデルのパフォーマンスを強化し、効率の向上につながります。
ReRAG は、オンデマンドの検索と質問の書き換えを統合し、回答の精度をさらに高めます。
このアプローチにより、医療提供者は信頼性の高い情報に迅速にアクセスできるようになり、より効率的な意思決定を支援し、患者の信頼を高めることができます。
私たちの取り組みは、微調整された LLM が医療情報サービスの品質とアクセシビリティを大幅に向上させ、最終的にはすべての人にとってより良い医療成果に貢献する可能性を浮き彫りにしています。

要約(オリジナル)

We present an advanced approach to medical question-answering (QA) services, using fine-tuned Large Language Models (LLMs) to improve the accuracy and reliability of healthcare information. Our study focuses on optimizing models like LLaMA-2 and Mistral, which have shown great promise in delivering precise, reliable medical answers. By leveraging comprehensive datasets, we applied fine-tuning techniques such as rsDoRA+ and ReRAG. rsDoRA+ enhances model performance through a combination of decomposed model weights, varied learning rates for low-rank matrices, and rank stabilization, leading to improved efficiency. ReRAG, which integrates retrieval on demand and question rewriting, further refines the accuracy of the responses. This approach enables healthcare providers to access fast, dependable information, aiding in more efficient decision-making and fostering greater patient trust. Our work highlights the potential of fine-tuned LLMs to significantly improve the quality and accessibility of medical information services, ultimately contributing to better healthcare outcomes for all.

arxiv情報

著者 Ali Anaissi,Ali Braytee,Junaid Akram
発行日 2024-10-21 15:12:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | Fine-Tuning LLMs for Reliable Medical Question-Answering Services はコメントを受け付けていません

Multi-Sensor Fusion for UAV Classification Based on Feature Maps of Image and Radar Data

要約

最新の UAV は、独自のコスト、柔軟性、速度、効率性を備えているため、現代社会の多くの用途において魅力的な選択肢となっています。
しかし、これにより報告される悪意のあるインシデントや偶発的なインシデントの数が増え続けており、UAV の検出および分類メカニズムの開発の必要性が不可欠になっています。
すでに処理されたマルチセンサーデータを新しいディープニューラルネットワークに融合して、UAV検出に向けた分類精度を向上させるシステムを開発するための方法論を提案します。
DNN モデルは、熱、光電子、およびレーダー データに関連する個々の物体検出および分類モデルから抽出された高レベルの特徴を融合します。
さらに、モデルの畳み込みニューラル ネットワーク (CNN) ベースのアーキテクチャにも重点が置かれています。これは、熱センサーと光センサーの抽出された画像特徴を積み重ねることによって 3 つのセンサー モダリティの特徴を組み合わせ、各センサー単独よりも高い分類精度を実現します。

要約(オリジナル)

The unique cost, flexibility, speed, and efficiency of modern UAVs make them an attractive choice in many applications in contemporary society. This, however, causes an ever-increasing number of reported malicious or accidental incidents, rendering the need for the development of UAV detection and classification mechanisms essential. We propose a methodology for developing a system that fuses already processed multi-sensor data into a new Deep Neural Network to increase its classification accuracy towards UAV detection. The DNN model fuses high-level features extracted from individual object detection and classification models associated with thermal, optronic, and radar data. Additionally, emphasis is given to the model’s Convolutional Neural Network (CNN) based architecture that combines the features of the three sensor modalities by stacking the extracted image features of the thermal and optronic sensor achieving higher classification accuracy than each sensor alone.

arxiv情報

著者 Nikos Sakellariou,Antonios Lalas,Konstantinos Votis,Dimitrios Tzovaras
発行日 2024-10-21 15:12:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, eess.SP | Multi-Sensor Fusion for UAV Classification Based on Feature Maps of Image and Radar Data はコメントを受け付けていません

Neural Quantum Propagators for Driven-Dissipative Quantum Dynamics

要約

強力なレーザー駆動のオープン量子システムのダイナミクスを記述することは、高度に複雑な運動方程式の解決を必要とする非常に困難なタスクです。
機械学習技術は、個々の量子状態の時間発展をシミュレートするために適用され、ある程度の成功を収めていますが、時間依存演算子 (さまざまな状態を発展させることができる) を近似するための機械学習技術の使用は、ほとんど解明されていないままです。
この研究では、波動関数や密度行列ではなく伝播器を近似することによって駆動散逸量子力学を解決するユニバーサル ニューラル ネットワーク フレームワークである駆動型神経量子伝播器 (NQP) を開発します。
NQP は、はるかに短い時間ウィンドウでトレーニングされた場合でも、任意の初期量子状態を処理し、さまざまな外部フィールドに適応し、長時間のダイナミクスをシミュレートできます。
さらに、外部フィールドを適切に構成することで、訓練された NQP をさまざまなハミルトニアンによって管理されるシステムに転送できます。
スピンボソンと三状態遷移ガンマモデルを研究することで、私たちのアプローチの有効性を実証します。

要約(オリジナル)

Describing the dynamics of strong-laser driven open quantum systems is a very challenging task that requires the solution of highly involved equations of motion. While machine learning techniques are being applied with some success to simulate the time evolution of individual quantum states, their use to approximate time-dependent operators (that can evolve various states) remains largely unexplored. In this work, we develop driven neural quantum propagators (NQP), a universal neural network framework that solves driven-dissipative quantum dynamics by approximating propagators rather than wavefunctions or density matrices. NQP can handle arbitrary initial quantum states, adapt to various external fields, and simulate long-time dynamics, even when trained on far shorter time windows. Furthermore, by appropriately configuring the external fields, our trained NQP can be transferred to systems governed by different Hamiltonians. We demonstrate the effectiveness of our approach by studying the spin-boson and the three-state transition Gamma models.

arxiv情報

著者 Jiaji Zhang,Carlos L. Benavides-Riveros,Lipeng Chen
発行日 2024-10-21 15:13:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, physics.chem-ph, quant-ph | Neural Quantum Propagators for Driven-Dissipative Quantum Dynamics はコメントを受け付けていません

TabSeq: A Framework for Deep Learning on Tabular Data via Sequential Ordering

要約

表形式データの効果的な分析は、深層学習において依然として重大な問題を引き起こしています。これは主に、表形式データセットの特徴が異種であることが多く、関連性のレベルが異なるためです。
この研究では、特徴を順番に並べるための新しいフレームワークである TabSeq を導入し、学習プロセスを最適化するという重要なニーズに対処します。
特徴は常に同じように情報を提供するとは限らず、特定の深層学習モデルでは、そのランダムな配置がモデルの学習能力を妨げる可能性があります。
このような特徴の最適なシーケンス順序を見つけることで、深層学習モデルの学習プロセスを改善できる可能性があります。
この研究で提供する新しい特徴順序付け手法はクラスタリングに基づいており、ローカル順序付けとグローバル順序付けの両方が組み込まれています。
これは、ノイズ除去オートエンコーダー ネットワークでマルチヘッド アテンション メカニズムとともに使用するように設計されています。
私たちのフレームワークはクラスタリングを使用して、同等の機能を調整し、データ構成を改善します。
マルチヘッド アテンションは本質的な特性に焦点を当てますが、ノイズ除去オートエンコーダーは歪んだ入力から再構築することで重要な側面を強調します。
この方法により、冗長性を低下させながら、表形式のデータから学習する機能が向上します。
私たちの研究では、生の抗体マイクロアレイと他の 2 つの実際の生物医学データセットを使用した適切な特徴配列の再配置によるパフォーマンスの向上を実証し、特徴の順序付けの影響を検証しています。
これらの結果は、特徴の順序付けが表形式データの深層学習を改善するための実行可能なアプローチとなり得ることを示しています。

要約(オリジナル)

Effective analysis of tabular data still poses a significant problem in deep learning, mainly because features in tabular datasets are often heterogeneous and have different levels of relevance. This work introduces TabSeq, a novel framework for the sequential ordering of features, addressing the vital necessity to optimize the learning process. Features are not always equally informative, and for certain deep learning models, their random arrangement can hinder the model’s learning capacity. Finding the optimum sequence order for such features could improve the deep learning models’ learning process. The novel feature ordering technique we provide in this work is based on clustering and incorporates both local ordering and global ordering. It is designed to be used with a multi-head attention mechanism in a denoising autoencoder network. Our framework uses clustering to align comparable features and improve data organization. Multi-head attention focuses on essential characteristics, whereas the denoising autoencoder highlights important aspects by rebuilding from distorted inputs. This method improves the capability to learn from tabular data while lowering redundancy. Our research, demonstrating improved performance through appropriate feature sequence rearrangement using raw antibody microarray and two other real-world biomedical datasets, validates the impact of feature ordering. These results demonstrate that feature ordering can be a viable approach to improved deep learning of tabular data.

arxiv情報

著者 Al Zadid Sultan Bin Habib,Kesheng Wang,Mary-Anne Hartley,Gianfranco Doretto,Donald A. Adjeroh
発行日 2024-10-21 15:21:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | TabSeq: A Framework for Deep Learning on Tabular Data via Sequential Ordering はコメントを受け付けていません

Proceedings of The second international workshop on eXplainable AI for the Arts (XAIxArts)

要約

Explainable AI for the Arts (XAIxArts) に関するこの 2 回目の国際ワークショップでは、HCI、インタラクション デザイン、AI、Explainable AI (XAI)、デジタル アートの研究者コミュニティが集まり、XAI for the Arts の役割を探りました。
米国シカゴの第 16 回 ACM Conference on Creativity and Cognition (C&C 2024) で開催されたワークショップ。

要約(オリジナル)

This second international workshop on explainable AI for the Arts (XAIxArts) brought together a community of researchers in HCI, Interaction Design, AI, explainable AI (XAI), and digital arts to explore the role of XAI for the Arts. Workshop held at the 16th ACM Conference on Creativity and Cognition (C&C 2024), Chicago, USA.

arxiv情報

著者 Nick Bryan-Kinns,Corey Ford,Shuoyang Zheng,Helen Kennedy,Alan Chamberlain,Makayla Lewis,Drew Hemment,Zijin Li,Qiong Wu,Lanxi Xiao,Gus Xia,Jeba Rezwana,Michael Clemens,Gabriel Vigliensoni
発行日 2024-10-21 15:24:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC, cs.MM, cs.SD, eess.AS | Proceedings of The second international workshop on eXplainable AI for the Arts (XAIxArts) はコメントを受け付けていません