Are Large Language Models Actually Good at Text Style Transfer?

本文是LLM系列文章,针对《Are Large Language Models Actually Good at Text Style Transfer?》的翻译。

大型语言模型实际上擅长文本样式迁移吗

摘要

我们分析了大型语言模型 (LLM) 在文本样式迁移 (TST) 上的性能,特别关注三种语言的情感迁移和文本解毒:英语、印地语和孟加拉语。文本样式迁移涉及修改文本的语言样式,同时保留其核心内容。我们使用零样本和少数样本提示以及对公开可用的数据集进行参数高效微调来评估预训练 LLM 的能力。我们使用自动指标、GPT-4 和人工评估的评估表明,虽然一些提示 LLM 在英语中表现良好,但它们在其他语言(印地语、孟加拉语)上的表现仍然处于平均水平。但是,与 zero-shot 和 fewshot 提示相比,微调显著改善了结果,使其可与以前的最先进的技术相媲美。这强调了专用数据集和专用模型对有效 TST 的必要性。

1 引言

2 相关工作

3 实验

4 结果与分析

5 结论

我们评估了 LLM 对文本风格迁移的有效性,重点关注英语、印地语和孟加拉语的情感迁移和文本解毒。我们在零样本和少数样本提示以及参数高效

猜你喜欢

转载自blog.csdn.net/c_cpp_csharp/article/details/143210607