实时追踪科研动态丨Meta AI、清华大学、香港大学等机构8.14精选新论文,附ChatPaper综述

作为科研人员,每天需要检索和浏览大量的学术文献,以获取最新的科技进展和研究成果。然而,传统的检索和阅读方式已经无法满足科研人的需求。

ChatPaper,一款集检索、阅读、知识问答于一体的文献知识工具。帮助你快提高检索、阅读论文效率,获取最新领域研究动态,让科研工作更加游刃有余。

在这里插入图片描述

结合前沿动态订阅功能,精选arXiv当日热门新论文,形成论文综述,让大家更加快速了解前沿动态。

如果想要对某篇论文进行深入对话,可以直接复制论文链接到浏览器上或者直达ChatPaper页面:https://www.aminer.cn/chat/g/explain

2023年8月14日精选新论文列表:
1.Composable Function-preserving Expansions for Transformer Architectures 阅读原文

https://www.aminer.cn/pub/64d9a6813fda6d7f061d30d1/

ChatPaper综述:在训练最先进的神经网络模型时,计算和时间成本是很高的。而模型规模被认为是实现和改进最先进模型的关键因素。增加神经网络的规模通常需要从头开始重新初始化所有的参数,因为这意味着模型参数的改变,不允许从较小的模型中直接传递知识。为了解决这个问题,该论文提出了六种可组合的转换方法,通过保持功能性来逐步增加基于Transformer的神经网络的规模,从而允许根据需要扩展模型的容量。对于每种转换,该论文提供了在最小初始化约束下确保精确功能保持的证明。所提出的方法可能通过在训练过程中逐步扩展架构,为更大更强大的模型提供高效的训练流程。

2.Improving Joint Speech-Text Representations Without Alignment 阅读原文

https://www.aminer.cn/pub/64d9a6873fda6d7f061d372d/

ChatPaper综述:论文解决了语音和文本之间序列长度不匹配的问题,并提出了一种一致性损失来改善这个问题。在之前的方法中,为了处理语音和文本之间的长度差异,需要使用上采样启发式方法或显式的对齐模型,但这些方法相对复杂。本文的研究表明,通过忽略序列长度,联合语音-文本编码器可以自然地实现跨模态一致的表示。因此,作者提出了一种一致性损失,它可以容忍不同长度的序列并假设最佳的对齐方式。实验证明,这种损失可以提高后续的识别误率(WER),在大型单语和多语言系统中都有效。

3.Self-Alignment with Instruction Backtranslation 阅读原文

https://www.aminer.cn/pub/64d9a6873fda6d7f061d37b9/

ChatPaper综述:研究解决了构建高质量指导语言模型的问题,并提出了一种可扩展的方法。通过自动生成指导引导语,并从中选择高质量的例子进行自我训练,从而使语言模型能够在没有教师信号的情况下对人类编写的文本进行标注。通过两次迭代的改进,该模型在Alpaca排行榜上表现优于其他基于LLaMa的模型,并且不依赖于蒸馏数据,表明自我对齐的效果非常好。

4.BOLAA: Benchmarking and Orchestrating LLM-augmented Autonomous Agents 阅读原文

https://www.aminer.cn/pub/64d9a6813fda6d7f061d303e/

ChatPaper综述:文章主要说明了两个问题:第一个问题是关于LAA(LLM-augmented Autonomous Agents)的研究和探索仍处于初级阶段,目前只有有限的探索可用。为了解决这个问题,作者提供了关于LAA的综合比较,包括智能体架构和LLM骨干的比较,并提出了一种新的策略来协调多个LAA的交流。第二个问题是关于设计LAA架构和选择LLM的最佳选择以及两者的兼容性。

5.Foundation Model is Efficient Multimodal Multitask Model Selector 阅读原文

https://www.aminer.cn/pub/64d9a6873fda6d7f061d37bc/

ChatPaper综述:论文探索了一个尚未充分研究但非常重要的问题:在不对预训练神经网络进行微调的情况下,如何预测它们在每个多模态任务上的性能,例如图像识别、引用、字幕生成、视觉问题回答和文本问题回答。一种暴力的方法是对所有模型在所有目标数据集上进行微调,但这会带来高昂的计算成本。尽管最近的先进方法采用轻量级的度量方法来衡量模型的可迁移性,但它们往往严重依赖于单一任务的先验知识,因此在多模态多任务的场景中无法应用。为了解决这个问题,我们提出了一种高效的多任务模型选择器(EMMS),它利用大规模的基础模型将不同下游任务的各种标签格式(例如类别、文本和边界框)转换为统一的噪声标签嵌入。EMMS可以通过简单的加权线性回归来估计模型的可迁移性,该问题可以通过交替最小化算法高效地解决,并且具有收敛保证。对24个数据集上的5个下游任务进行的大量实验证明,EMMS快速、有效,并且足够通用,可以评估预训练模型的可迁移性,使其成为多任务场景中的第一个模型选择方法。

6.LittleMu: Deploying an Online Virtual Teaching Assistant via Heterogeneous Sources Integration and Chain of Teach Prompts阅读原文

https://www.aminer.cn/pub/64d9a6813fda6d7f061d3022/

ChatPaper综述:论文针对在线教育平台缺乏真实场景和训练数据的复杂性,提出了一种虚拟MOOC教学助手LittleMu。通过结构化、半结构化和非结构化的知识源的异构集成,LittleMu能够为广泛的问题提供准确的答案。同时,该系统还设计了名为"Chain of Teach"的示范来处理复杂的未收集问题。除了问题回答外,该系统还开发了其他教育服务,如基于知识的闲聊。通过离线评估和在线部署,作者测试了系统的性能。自2020年5月以来,LittleMu系统已经在XuetangX MOOC平台上为超过80,000个用户提供了超过300,000个查询,并持续为教育提供更加便利和公平的贡献。

7.DiLogics: Creating Web Automation Programs With Diverse Logics 阅读原文

https://www.aminer.cn/pub/64d9a6813fda6d7f061d2faf/

ChatPaper综述:网络自动化可以提高生产效率,但将任务准确地转化为网络操作并扩展到新的规范是具有挑战性的。现有工具可以自动化执行相同UI操作的任务(例如,按顺序在每个字段中输入文本),但不支持根据不同的输入条件执行不同操作的任务。该文介绍了DiLogics,这是一个利用自然语言处理辅助用户创建能处理不同规范的网络自动化程序的示范编程系统。DiLogics首先将输入数据语义分段为结构化任务步骤。通过记录每个步骤的用户示范,DiLogics将网络宏泛化为新颖但语义相似的任务要求。我们的评估表明,非专家可以有效使用DiLogics来创建满足多样输入指令的自动化程序。DiLogics提供了一种高效、直观和富有表达力的方法来开发满足多样规范的网络自动化程序。


如何使用ChatPaper?

使用ChatPaper的方法很简单,打开AMiner首页,从页面顶部导航栏或者右下角便可进入ChatPaper页面。

在这里插入图片描述

在ChatPaper页面中,可以选择基于单篇文献进行对话和基于全库(个人文献库)对话,可选择上传本地PDF或者直接在AMiner上检索文献。

ChatPaper使用教程:点此查看

猜你喜欢

转载自blog.csdn.net/AI_Conf/article/details/132295725
今日推荐