Unraveling the Dominance of Large Language Models Over Transformer Models for Bangla Natural Languag

本文是LLM系列文章,针对《Unraveling the Dominance of Large Language Models Over Transformer Models for Bangla Natural Language Inference: A Comprehensive Study》的翻译。

揭示大型语言模型对 Transformer 模型在孟加拉自然语言推理中的主导地位:一项综合研究

摘要

自然语言推理 (NLI) 是自然语言处理 (NLP) 的基石,提供对文本配对之间蕴涵关系的见解。它是自然语言理解 (NLU) 的关键组成部分,展示了从口头或书面交互中提取信息的能力。NLI 主要关注确定两个陈述之间的蕴涵关系,称为前提和假设。当前提在逻辑上暗示假设时,这对被标记为“蕴涵”。如果假设与前提相矛盾,则对将获得“矛盾”标签。当没有足够的证据建立联系时,该对被描述为 “中立”。尽管大型语言模型 (LLM) 在各种任务中取得了成功,但它们在 NLI 中的有效性仍然受到资源域准确性低、模型过度自信和难以捕捉人类判断分歧等问题的限制。本研究解决了在孟加拉语等资源匮乏的语言中评估 LLM 的未充分探索的领域。通过全面评估,我们评估了著名的 LLM 和最先进的 (SOTA) 模型在孟加拉语 NLP 任务中的表现,重点是自然语言推理。利用 XNLI 数据集,我们进行了零样本和少样本评估,将 GPT-3.5 Turbo 和 Gemini 1.5 Pro 等 LLM

猜你喜欢

转载自blog.csdn.net/c_cpp_csharp/article/details/143492246