要約
この論文では、材料の代替によるレシピのパーソナライズという課題に取り組みます。
私たちは大規模言語モデル (LLM) を利用して、特定のレシピ コンテキスト内で妥当な代替材料を予測するように設計された材料代替システムを構築します。
このタスクでの LLM の使用がほとんど行われていないことを考慮して、最適な LLM、プロンプト、および微調整セットアップを決定するために一連の広範な実験を実行します。
さらに、マルチタスク学習、2 段階の微調整、直接優先最適化 (DPO) などの方法を実験します。
実験は、公開されている Recipe1MSub コーパスを使用して行われます。
微調整と DPO の後、Mistral7-Base LLM によって最良の結果が得られます。
この結果は、同じコーパスで利用可能な Hit@1 スコア 22.04 の強力なベースラインを上回っています。
したがって、この研究は、LLM ベースの材料代替を利用することで、パーソナライズされた創造的な料理体験を可能にするための重要な一歩であると私たちは信じています。
要約(オリジナル)
In this paper, we address the challenge of recipe personalization through ingredient substitution. We make use of Large Language Models (LLMs) to build an ingredient substitution system designed to predict plausible substitute ingredients within a given recipe context. Given that the use of LLMs for this task has been barely done, we carry out an extensive set of experiments to determine the best LLM, prompt, and the fine-tuning setups. We further experiment with methods such as multi-task learning, two-stage fine-tuning, and Direct Preference Optimization (DPO). The experiments are conducted using the publicly available Recipe1MSub corpus. The best results are produced by the Mistral7-Base LLM after fine-tuning and DPO. This result outperforms the strong baseline available for the same corpus with a Hit@1 score of 22.04. Thus we believe that this research represents a significant step towards enabling personalized and creative culinary experiences by utilizing LLM-based ingredient substitution.
arxiv情報
著者 | Thevin Senath,Kumuthu Athukorala,Ransika Costa,Surangika Ranathunga,Rishemjit Kaur |
発行日 | 2024-12-06 10:21:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google