要約
生成人工知能(AI)システムが誤った情報を「幻覚」する傾向はよく知られています。
存在しない情報源へのAI生成された引用は、ピアレビューされた出版物の参照リストに登場しました。
ここでは、この問題の解決策を提案します。透明性とオープンネスプロモーション(上)データ共有ガイドライン、アメリカ司法との生成AIの衝突、および米国の特許および商標事務所への先行技術の提出によって設定された先例からインスピレーションを得ています。
ジャーナルは、著者が原稿とともに各引用ソースの全文を提出する必要があり、それにより、著者が全文を作成できない資料を引用することを妨げる必要があります。
このソリューションでは、幻覚の参照に対してジャーナルを効果的に免疫する一方で、著者または編集者の側で限定的な追加作業が必要です。
要約(オリジナル)
The tendency of generative artificial intelligence (AI) systems to ‘hallucinate’ false information is well-known; AI-generated citations to non-existent sources have made their way into the reference lists of peer-reviewed publications. Here, I propose a solution to this problem, taking inspiration from the Transparency and Openness Promotion (TOP) data sharing guidelines, the clash of generative AI with the American judiciary, and the precedent set by submissions of prior art to the United States Patent and Trademark Office. Journals should require authors to submit the full text of each cited source along with their manuscripts, thereby preventing authors from citing any material whose full text they cannot produce. This solution requires limited additional work on the part of authors or editors while effectively immunizing journals against hallucinated references.
arxiv情報
著者 | Alex Glynn |
発行日 | 2025-03-25 17:12:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google