Speeding up design and making to reduce time-to-project and time-to-market: an AI-Enhanced approach in engineering education

要約

このペーパーでは、組み込みシステムコース用のソフトウェアアーキテクチャにChatGptやGithub CopilotなどのAIツールの統合について説明します。
AIサポートされたワークフローにより、学生は複雑なプロジェクトを迅速にプロトタイプすることができ、Slam Roboticsなどの実際のアプリケーションを強調しました。
結果は、AIが増強され、人間の意思決定に取って代わらず、問題解決、開発、より洗練された結果を強化し、より洗練された結果をデモスタートしました。

要約(オリジナル)

This paper explores the integration of AI tools, such as ChatGPT and GitHub Copilot, in the Software Architecture for Embedded Systems course. AI-supported workflows enabled students to rapidly prototype complex projects, emphasizing real-world applications like SLAM robotics. Results demon-started enhanced problem-solving, faster development, and more sophisticated outcomes, with AI augmenting but not replacing human decision-making.

arxiv情報

著者 Giovanni Adorni,Daniele Grosso
発行日 2025-03-20 16:32:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, I.2 | Speeding up design and making to reduce time-to-project and time-to-market: an AI-Enhanced approach in engineering education はコメントを受け付けていません

Structured-Noise Masked Modeling for Video, Audio and Beyond

要約

マスクされたモデリングは強力な自己監視学習フレームワークとして浮上していますが、既存の方法は、さまざまなモダリティの構造的特性を無視して、ランダムマスキングに大きく依存しています。
この作業では、構造化されたノイズベースのマスキングを紹介します。これは、ビデオおよびオーディオデータの空間的、時間的、およびスペクトル特性と自然に整合するシンプルで効果的なアプローチです。
ホワイトノイズを明確なカラーノイズ分布にフィルタリングすることにより、手作りのヒューリスティックやデータへのアクセスを必要とせずに、モダリティ固有のパターンを保存する構造化されたマスクを生成します。
私たちのアプローチは、計算オーバーヘッドなしでマスクされたビデオおよびオーディオモデリングフレームワークのパフォーマンスを改善します。
広範な実験は、構造化されたノイズマスキングが、標準および高度なマスクモデリング方法のためのランダムマスキングよりも一貫した改善を達成し、表現学習のためのモダリティ認識マスキング戦略の重要性を強調することを示しています。

要約(オリジナル)

Masked modeling has emerged as a powerful self-supervised learning framework, but existing methods largely rely on random masking, disregarding the structural properties of different modalities. In this work, we introduce structured noise-based masking, a simple yet effective approach that naturally aligns with the spatial, temporal, and spectral characteristics of video and audio data. By filtering white noise into distinct color noise distributions, we generate structured masks that preserve modality-specific patterns without requiring handcrafted heuristics or access to the data. Our approach improves the performance of masked video and audio modeling frameworks without any computational overhead. Extensive experiments demonstrate that structured noise masking achieves consistent improvement over random masking for standard and advanced masked modeling methods, highlighting the importance of modality-aware masking strategies for representation learning.

arxiv情報

著者 Aritra Bhowmik,Fida Mohammad Thoker,Carlos Hinojosa,Bernard Ghanem,Cees G. M. Snoek
発行日 2025-03-20 16:34:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.SD | Structured-Noise Masked Modeling for Video, Audio and Beyond はコメントを受け付けていません

LLM-SR: Scientific Equation Discovery via Programming with Large Language Models

要約

数学的方程式は、さまざまな科学分野で複雑な自然現象を説明するのに不当に効果的でした。
ただし、データからこのような洞察に富んだ方程式を発見すると、非常に大きな組み合わせ仮説スペースをナビゲートする必要性があるため、重要な課題があります。
一般的にシンボリック回帰手法として知られている方程式発見の現在の方法は、データだけから方程式を抽出することに主に焦点を当て、科学者が通常依存するドメイン固有の事前知識を無視することがよくあります。
また、表現ツリーなどの限られた表現を使用し、検索空間と方程式の表現力を制約します。
このギャップを埋めるために、LLM-SRを紹介します。LLM-SRは、大規模な言語モデル(LLM)の広範な科学的知識と堅牢なコード生成機能を活用して、データから科学的方程式を発見する新しいアプローチを紹介します。
具体的には、LLM-SRは方程式を数学演算子のプログラムとして扱い、LLMSの科学的特徴と方程式に対する進化的検索と組み合わせます。
LLMは、新しい方程式のスケルトン仮説を繰り返し提案し、ドメインの知識から引き出し、パラメーターを推定するためにデータに対して最適化されます。
多様な科学ドメイン(物理学、生物学など)にわたる4つのベンチマーク問題でLLM-SRを評価します。これは、発見プロセスをシミュレートし、LLMの朗読を防ぐために慎重に設計されています。
我々の結果は、LLM-SRが、特に領域外のテスト設定で、最先端のシンボリック回帰ベースラインを大幅に上回る物理的に正確な方程式を発見したことを示しています。
また、LLM-SRによる科学的前症の組み込みにより、ベースラインよりも効率的な方程式スペース探索が可能になることも示しています。
コードとデータが利用可能です:https://github.com/deep-symbolic-mathematics/llm-sr

要約(オリジナル)

Mathematical equations have been unreasonably effective in describing complex natural phenomena across various scientific disciplines. However, discovering such insightful equations from data presents significant challenges due to the necessity of navigating extremely large combinatorial hypothesis spaces. Current methods of equation discovery, commonly known as symbolic regression techniques, largely focus on extracting equations from data alone, often neglecting the domain-specific prior knowledge that scientists typically depend on. They also employ limited representations such as expression trees, constraining the search space and expressiveness of equations. To bridge this gap, we introduce LLM-SR, a novel approach that leverages the extensive scientific knowledge and robust code generation capabilities of Large Language Models (LLMs) to discover scientific equations from data. Specifically, LLM-SR treats equations as programs with mathematical operators and combines LLMs’ scientific priors with evolutionary search over equation programs. The LLM iteratively proposes new equation skeleton hypotheses, drawing from its domain knowledge, which are then optimized against data to estimate parameters. We evaluate LLM-SR on four benchmark problems across diverse scientific domains (e.g., physics, biology), which we carefully designed to simulate the discovery process and prevent LLM recitation. Our results demonstrate that LLM-SR discovers physically accurate equations that significantly outperform state-of-the-art symbolic regression baselines, particularly in out-of-domain test settings. We also show that LLM-SR’s incorporation of scientific priors enables more efficient equation space exploration than the baselines. Code and data are available: https://github.com/deep-symbolic-mathematics/LLM-SR

arxiv情報

著者 Parshin Shojaee,Kazem Meidani,Shashank Gupta,Amir Barati Farimani,Chandan K Reddy
発行日 2025-03-20 16:37:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG, cs.NE | LLM-SR: Scientific Equation Discovery via Programming with Large Language Models はコメントを受け付けていません

Multi-Output Distributional Fairness via Post-Processing

要約

後処理アプローチは、直感性、計算コストの低さ、優れたスケーラビリティのために、機械学習モデルの公平性を高めるための顕著なテクニックになりつつあります。
ただし、ほとんどの既存の後処理方法は、タスク固有の公平性測定用に設計されており、単一出力モデルに限定されています。
このホワイトペーパーでは、マルチタスク/マルチクラスの分類と表現学習に使用されるマルチアウトプットモデルのポストプロセッシング方法を紹介し、モデルの分布パリティ、タスクと存在する公平性尺度を強化します。
分布パリティを達成するための既存の方法は、モデルの出力の(逆)累積密度関数に依存しており、単一の出力モデルへの適用性を制限しています。
以前の作品を拡張して、最適な輸送マッピングを使用して、異なるグループ間のモデルの出力を経験的なWasserstein Barycenterに移動することを提案します。
正確なバリセンターとコンピューティングの複雑さを減らすために近似手法が適用され、このプロセスをサンプル外データに拡張するためにカーネル回帰法が提案されています。
私たちの実証研究は、マルチタスク/マルチクラスの分類と表現学習タスクに関するさまざまなベースラインに対する提案されたアプローチを評価し、提案されたアプローチの有効性を実証します。

要約(オリジナル)

The post-processing approaches are becoming prominent techniques to enhance machine learning models’ fairness because of their intuitiveness, low computational cost, and excellent scalability. However, most existing post-processing methods are designed for task-specific fairness measures and are limited to single-output models. In this paper, we introduce a post-processing method for multi-output models, such as the ones used for multi-task/multi-class classification and representation learning, to enhance a model’s distributional parity, a task-agnostic fairness measure. Existing methods for achieving distributional parity rely on the (inverse) cumulative density function of a model’s output, restricting their applicability to single-output models. Extending previous works, we propose to employ optimal transport mappings to move a model’s outputs across different groups towards their empirical Wasserstein barycenter. An approximation technique is applied to reduce the complexity of computing the exact barycenter and a kernel regression method is proposed to extend this process to out-of-sample data. Our empirical studies evaluate the proposed approach against various baselines on multi-task/multi-class classification and representation learning tasks, demonstrating the effectiveness of the proposed approach.

arxiv情報

著者 Gang Li,Qihang Lin,Ayush Ghosh,Tianbao Yang
発行日 2025-03-20 16:42:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG, stat.ML | Multi-Output Distributional Fairness via Post-Processing はコメントを受け付けていません

OmniGeo: Towards a Multimodal Large Language Models for Geospatial Artificial Intelligence

要約

マルチモーダル大手言語モデル(LLMS)の急速な進歩により、人工知能の新しいフロンティアが開かれ、テキスト、画像、空間情報などの多様な大規模なデータ型の統合が可能になりました。
このホワイトペーパーでは、地理空間データ(GEOAI)のマルチモーダルLLM(MLLM)の可能性を調査します。これは、地理セマンティクス、健康地理、都市地理学、都市の認識、リモートセンシングなどのドメインの課題に対処するために空間データを活用する分野です。
衛星画像、地理空間メタデータ、テキストの説明など、異種のデータソースを処理および分析できる地理空間用途に合わせたMLLM(Omnigeo)を提案します。
自然言語の理解と空間的推論の強みを組み合わせることにより、私たちのモデルは、指示のフォローとGeoaiシステムの正確性の能力を高めます。
結果は、私たちのモデルが、多様な地理空間タスクでタスク固有のモデルと既存のLLMを上回り、ゼロショットの地理空間タスクで競争結果を達成しながら、マルチモダリティの性質に効果的に対処することを示しています。
私たちのコードは公開後にリリースされます。

要約(オリジナル)

The rapid advancement of multimodal large language models (LLMs) has opened new frontiers in artificial intelligence, enabling the integration of diverse large-scale data types such as text, images, and spatial information. In this paper, we explore the potential of multimodal LLMs (MLLM) for geospatial artificial intelligence (GeoAI), a field that leverages spatial data to address challenges in domains including Geospatial Semantics, Health Geography, Urban Geography, Urban Perception, and Remote Sensing. We propose a MLLM (OmniGeo) tailored to geospatial applications, capable of processing and analyzing heterogeneous data sources, including satellite imagery, geospatial metadata, and textual descriptions. By combining the strengths of natural language understanding and spatial reasoning, our model enhances the ability of instruction following and the accuracy of GeoAI systems. Results demonstrate that our model outperforms task-specific models and existing LLMs on diverse geospatial tasks, effectively addressing the multimodality nature while achieving competitive results on the zero-shot geospatial tasks. Our code will be released after publication.

arxiv情報

著者 Long Yuan,Fengran Mo,Kaiyu Huang,Wenjie Wang,Wangyuxuan Zhai,Xiaoyu Zhu,You Li,Jinan Xu,Jian-Yun Nie
発行日 2025-03-20 16:45:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI | OmniGeo: Towards a Multimodal Large Language Models for Geospatial Artificial Intelligence はコメントを受け付けていません

LegalCore: A Dataset for Event Coreference Resolution in Legal Documents

要約

ドキュメントでのイベントとそれらのコアファレンスの言及を認識することは、テキストの意味的な意味を理解するために不可欠です。
イベントのコアレーション解決に関する既存の研究は、ほとんどニュース記事に限定されています。
このホワイトペーパーでは、包括的なイベントおよびイベントコアファレンス情報が注釈が付けられているLegal DomainであるLegalCoreの最初のデータセットを紹介します。
このデータセットで注釈を付けた法的契約書は、ニュース記事の数倍長く、ドキュメントごとに平均長さは約25kトークンです。
注釈は、法的文書には密集したイベントに言及されており、イベントの言及間の短距離と超長距離のコアレファレンスリンクの両方を備えていることを示しています。
さらに、イベント検出とイベントコアレーション解像度の両方の解像度タスクの両方のこのデータセットで主流の大規模言語モデル(LLMS)をベンチマークし、このデータセットが最先端のオープンソースと独自のLLMに大きな課題をもたらし、監視されたベースラインよりも著しく悪いパフォーマンスを発揮することがわかります。
データセットとコードを公開します。

要約(オリジナル)

Recognizing events and their coreferential mentions in a document is essential for understanding semantic meanings of text. The existing research on event coreference resolution is mostly limited to news articles. In this paper, we present the first dataset for the legal domain, LegalCore, which has been annotated with comprehensive event and event coreference information. The legal contract documents we annotated in this dataset are several times longer than news articles, with an average length of around 25k tokens per document. The annotations show that legal documents have dense event mentions and feature both short-distance and super long-distance coreference links between event mentions. We further benchmark mainstream Large Language Models (LLMs) on this dataset for both event detection and event coreference resolution tasks, and find that this dataset poses significant challenges for state-of-the-art open-source and proprietary LLMs, which perform significantly worse than a supervised baseline. We will publish the dataset as well as the code.

arxiv情報

著者 Kangda Wei,Xi Shi,Jonathan Tong,Sai Ramana Reddy,Anandhavelu Natarajan,Rajiv Jain,Aparna Garimella,Ruihong Huang
発行日 2025-03-20 16:45:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | LegalCore: A Dataset for Event Coreference Resolution in Legal Documents はコメントを受け付けていません

Knowledge-guided machine learning model with soil moisture for corn yield prediction under drought conditions

要約

リモートセンシング(RS)技術は、広範な地上観測の非接触獲得を可能にすることにより、トウモロコシの収量予測のための貴重なツールになりました。
従来のプロセスベース(PB)モデルは、固定入力機能によって制限され、大量のRSデータを組み込むのに苦労しています。
対照的に、機械学習(ML)モデルは、解釈が限られている「ブラックボックス」であると批判されることがよくあります。
これらの制限に対処するために、知識誘導機械学習(KGML)を使用しました。これは、両方のアプローチと完全に使用されたRSデータの強みを組み合わせました。
しかし、以前のKGMLメソッドは、植物の成長における土壌水分の重要な役割を見落としていました。
このギャップを埋めるために、植物の発達における重要な役割を強調するために、土壌水分を中間変数として使用して、土壌水分(KGML-SM)フレームワークを使用した知識誘導機械学習を提案しました。
さらに、モデルが干ばつ条件下で過大評価される可能性があるという事前知識に基づいて、干ばつの影響を受けた地域で予測される収量を罰する干ばつが認識した損失機能を設計しました。
私たちの実験は、KGML-SMモデルが他のMLモデルよりも優れていることを示しました。
最後に、干ばつ、土壌水分、およびトウモロコシの収量予測の関係を調査し、さまざまな特徴の重要性を評価し、土壌水分が異なる地域と期間にわたってトウモロコシの収穫予測にどのように影響するかを分析しました。

要約(オリジナル)

Remote sensing (RS) techniques, by enabling non-contact acquisition of extensive ground observations, have become a valuable tool for corn yield prediction. Traditional process-based (PB) models are limited by fixed input features and struggle to incorporate large volumes of RS data. In contrast, machine learning (ML) models are often criticized for being “black boxes” with limited interpretability. To address these limitations, we used Knowledge-Guided Machine Learning (KGML), which combined the strengths of both approaches and fully used RS data. However, previous KGML methods overlooked the crucial role of soil moisture in plant growth. To bridge this gap, we proposed the Knowledge-Guided Machine Learning with Soil Moisture (KGML-SM) framework, using soil moisture as an intermediate variable to emphasize its key role in plant development. Additionally, based on the prior knowledge that the model may overestimate under drought conditions, we designed a drought-aware loss function that penalizes predicted yield in drought-affected areas. Our experiments showed that the KGML-SM model outperformed other ML models. Finally, we explored the relationships between drought, soil moisture, and corn yield prediction, assessing the importance of various features and analyzing how soil moisture impacts corn yield predictions across different regions and time periods.

arxiv情報

著者 Xiaoyu Wang,Yijia Xu,Jingyi Huang,Zhengwei Yang,Zhou Zhang
発行日 2025-03-20 16:52:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Knowledge-guided machine learning model with soil moisture for corn yield prediction under drought conditions はコメントを受け付けていません

Enhancing Software Quality Assurance with an Adaptive Differential Evolution based Quantum Variational Autoencoder-Transformer Model

要約

AIを搭載した品質エンジニアリングプラットフォームは、人工知能を使用して、自動化された欠陥予測と最適化されたパフォーマンスを介してソフトウェアの品質評価を高め、機能抽出を改善します。
既存のモデルは、不均衡、パターン認識の複雑さ、効果のない特徴抽出、および一般化の弱点とともに、ノイズの多いデータ型に対処するのが困難になります。
この研究でこれらの既存の課題を克服するために、量子変異性の自動エンコーダートランスフォーカー(QVAET)を組み合わせて高次元の潜在的特徴を獲得し、コンテキスト依存関係を維持し、順番に依存して順番に維持するための量子変異体トランスフォーカー(QVAET)を組み合わせた、新しいモデル適応微分進化に基づく量子変動変換モデル(ADE-QVAET)を開発します。
適応微分進化(ADE)最適化は、モデルの収束と予測パフォーマンスを強化する適応パラメーターチューニング方法を利用します。
ADE-QVAETは、高度なAI技術を統合して、質の高いエンジニアリングアプリケーション向けのトップレベルのAI駆動型テクノロジーを表すスケーラブルで正確なソフトウェア欠陥予測の堅牢なソリューションを作成します。
提案されているADE-QVAETモデルは、98.08%、92.45%、94.67%、および98.12%のトレーニング率(TP)90の間に、高精度、精度、リコール、およびF1スコアを達成します。

要約(オリジナル)

An AI-powered quality engineering platform uses artificial intelligence to boost software quality assessments through automated defect prediction and optimized performance alongside improved feature extraction. Existing models result in difficulties addressing noisy data types together with imbalances, pattern recognition complexities, ineffective feature extraction, and generalization weaknesses. To overcome those existing challenges in this research, we develop a new model Adaptive Differential Evolution based Quantum Variational Autoencoder-Transformer Model (ADE-QVAET), that combines a Quantum Variational Autoencoder-Transformer (QVAET) to obtain high-dimensional latent features and maintain sequential dependencies together with contextual relationships, resulting in superior defect prediction accuracy. Adaptive Differential Evolution (ADE) Optimization utilizes an adaptive parameter tuning method that enhances model convergence and predictive performance. ADE-QVAET integrates advanced AI techniques to create a robust solution for scalable and accurate software defect prediction that represents a top-level AI-driven technology for quality engineering applications. The proposed ADE-QVAET model attains high accuracy, precision, recall, and f1-score during the training percentage (TP) 90 of 98.08%, 92.45%, 94.67%, and 98.12%.

arxiv情報

著者 Seshu Babu Barma,Mohanakrishnan Hariharan,Satish Arvapalli
発行日 2025-03-20 16:55:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.ET | Enhancing Software Quality Assurance with an Adaptive Differential Evolution based Quantum Variational Autoencoder-Transformer Model はコメントを受け付けていません

HiQ-Lip: The First Quantum-Classical Hierarchical Method for Global Lipschitz Constant Estimation of ReLU Networks

要約

ニューラルネットワークのグローバルなリプシッツ定数を推定することは、それらの堅牢性と一般化能力を理解し、改善するために重要です。
ただし、正確な計算はNPハードであり、現在のセミデフィニットプログラミング(SDP)メソッドは、メモリの使用量や処理速度の低下などの課題に直面しています。
この論文では、\ TextBf {Hiq-Lip}を提案します。これは、コヒーレントISINGマシン(CIM)を活用してグローバルなリプシッツ定数を推定するハイブリッド量子古典的な階層方法です。
推定に取り組み、それを二次制約のないバイナリ最適化(QUBO)問題に変換し、マルチレベルのグラフの粗大化と改良戦略を実装して、現代の量子ハードウェアの制約に適応します。
完全に接続されたニューラルネットワークに関する実験的評価は、HIQ-LIPが最先端の方法に匹敵する推定値を提供するだけでなく、計算プロセスを大幅に加速することを示しています。
256の隠されたニューロンを備えた2層ニューラルネットワークを含む特定のテストでは、HIQ-LIPは解決速度を2倍にし、既存の最良の方法であるLipoptよりも正確な上限を提供します。
これらの調査結果は、ニューラルネットワークの堅牢性の推定を進める上で、小規模な量子デバイスの有望なユーティリティを強調しています。

要約(オリジナル)

Estimating the global Lipschitz constant of neural networks is crucial for understanding and improving their robustness and generalization capabilities. However, precise calculations are NP-hard, and current semidefinite programming (SDP) methods face challenges such as high memory usage and slow processing speeds. In this paper, we propose \textbf{HiQ-Lip}, a hybrid quantum-classical hierarchical method that leverages Coherent Ising Machines (CIMs) to estimate the global Lipschitz constant. We tackle the estimation by converting it into a Quadratic Unconstrained Binary Optimization (QUBO) problem and implement a multilevel graph coarsening and refinement strategy to adapt to the constraints of contemporary quantum hardware. Our experimental evaluations on fully connected neural networks demonstrate that HiQ-Lip not only provides estimates comparable to state-of-the-art methods but also significantly accelerates the computation process. In specific tests involving two-layer neural networks with 256 hidden neurons, HiQ-Lip doubles the solving speed and offers more accurate upper bounds than the existing best method, LiPopt. These findings highlight the promising utility of small-scale quantum devices in advancing the estimation of neural network robustness.

arxiv情報

著者 Haoqi He,Yan Xiao
発行日 2025-03-20 16:58:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, quant-ph | HiQ-Lip: The First Quantum-Classical Hierarchical Method for Global Lipschitz Constant Estimation of ReLU Networks はコメントを受け付けていません

Palatable Conceptions of Disembodied Being: Terra Incognita in the Space of Possible Minds

要約

現代の具体的でないAIシステムのエキゾチックな特徴と互換性があり、哲学的精査に耐えることができる意識の概念を明確にすることは可能ですか?
そのような概念に準拠したエンティティには、主観的な時間と自己性がどのように現れるでしょうか?
これらの質問に答えようとすると、比phor的にさえ、意識の言語をブレークポイントに伸ばします。
最終的に、この試みは、仏教の意味で空虚のようなものを生み出し、主観性と自己性への二元論の傾向を損なうのに役立ちます。

要約(オリジナル)

Is it possible to articulate a conception of consciousness that is compatible with the exotic characteristics of contemporary, disembodied AI systems, and that can stand up to philosophical scrutiny? How would subjective time and selfhood show up for an entity that conformed to such a conception? Trying to answer these questions, even metaphorically, stretches the language of consciousness to breaking point. Ultimately, the attempt yields something like emptiness, in the Buddhist sense, and helps to undermine our dualistic inclinations towards subjectivity and selfhood.

arxiv情報

著者 Murray Shanahan
発行日 2025-03-20 17:05:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI | Palatable Conceptions of Disembodied Being: Terra Incognita in the Space of Possible Minds はコメントを受け付けていません