要約
計算技術を使用して構造化されたASCIIアートを生成するには、審美的な表現と計算精度の間の慎重な相互作用が必要であり、視覚情報をシンボリックテキスト文字に効果的に変換できるモデルが必要です。
畳み込みニューラルネットワーク(CNN)はこのドメインで有望を示していますが、ディープラーニングアーキテクチャと古典的な機械学習方法の比較パフォーマンスは未踏のままです。
このペーパーでは、現代のMLおよびDLメソッドの適用を調査して、構造化されたASCII ARTを生成し、忠実度、キャラクター分類の精度、および出力品質の3つの重要な基準に焦点を当てています。
ランダムフォレスト、サポートベクターマシン(SVM)、K-nearest Neighbors(K-NN)などの古典的なアプローチとともに、多層パーセプロン(MLPS)、ResNet、MobileNETV2を含む深い学習アーキテクチャを調査します。
私たちの結果は、複雑なニューラルネットワークアーキテクチャが高品質のASCIIアートを生産するのに不足しているのに対し、単純さにもかかわらず、古典的な機械学習分類器はCNNと同様のパフォーマンスを達成することを示しています。
私たちの調査結果は、出力品質を備えたモデルモデルのシンプルさのブリッジングにおける古典的な方法の強さを強調し、低次元の画像データのASCIIアート統合と機械学習に関する新しい洞察を提供します。
要約(オリジナル)
Generating structured ASCII art using computational techniques demands a careful interplay between aesthetic representation and computational precision, requiring models that can effectively translate visual information into symbolic text characters. Although Convolutional Neural Networks (CNNs) have shown promise in this domain, the comparative performance of deep learning architectures and classical machine learning methods remains unexplored. This paper explores the application of contemporary ML and DL methods to generate structured ASCII art, focusing on three key criteria: fidelity, character classification accuracy, and output quality. We investigate deep learning architectures, including Multilayer Perceptrons (MLPs), ResNet, and MobileNetV2, alongside classical approaches such as Random Forests, Support Vector Machines (SVMs) and k-Nearest Neighbors (k-NN), trained on an augmented synthetic dataset of ASCII characters. Our results show that complex neural network architectures often fall short in producing high-quality ASCII art, whereas classical machine learning classifiers, despite their simplicity, achieve performance similar to CNNs. Our findings highlight the strength of classical methods in bridging model simplicity with output quality, offering new insights into ASCII art synthesis and machine learning on image data with low dimensionality.
arxiv情報
著者 | Sai Coumar,Zachary Kingston |
発行日 | 2025-03-18 16:07:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google