ICML 2024
1 背景
- LLM 能否解决数学问题是一个热点,现在有一些方法通过指令调整(Instruction Tuning)在一定程度上提升LLMs的数学解决能力
- 但现有的数学推理数据集规模有限,这限制了模型能力的进一步提升
- 目前方法尝试使用先进的LLMs(如GPT-3.5和GPT-4)来扩充现有的高质量数学数据集
- 但这些方法生成的新例子与原始训练集中的例子相似度过高,限制了它们在生成大规模数学数据集方面的能力
- ——>本文提出了一种名为MathScale的概念简单且可扩展的方法,来生成高质量数学推理数据集
- 与此同时,论文构建了MWPBENCH
- 包含十个数据集的数学文字问题(Math Word Problems)基准测试集
- 涵盖了从小学到大学以及竞赛级别的数学问题