强化学习——MDPs求解之动态规划
文章浏览阅读1.3k次。本文详细介绍了强化学习中的策略评估、策略提升、策略迭代和值迭代算法,阐述了动态规划在马尔科夫决策过程中的应用。通过Python实现格子世界中的策略迭代和值迭代,展示了这两种方法在寻找最优策略上的差异和效果。
推荐5个在线工具,最后一个简直太有用了!
文章浏览阅读623次。目录1. AI人工智能图片放大介绍网址2. 图片背景消除介绍网址3. 像素风头像生成介绍网址4. 手机电脑等设备的展示模型介绍网址5. 在线PS介绍网址1. AI人工智能图片放大介绍这款在线工具使用最新人工智能深度学习技术——深度卷积神经网络。它会将噪点和锯齿的部分进行补充,实现图片的无损放大。使用其他的放大方法如PS或PhotoZoom,放大的图片后依然有明显的模糊感,边缘的重影以及噪点。而这个工具是针对放大图片的线条、颜色、网点等特点,做特殊的算法调整,所以放大效果非常出色, 色彩保留较好, 图片_一个工具太有用,你们就看不到它的美了。
强化学习——蒙特卡洛方法
文章浏览阅读1.9k次。本文介绍了强化学习中的预测与控制问题,详细阐述了蒙特卡洛方法在预测问题和控制问题中的应用。蒙特卡洛方法通过经验平均回报来估计值函数,区别于动态规划中的模型依赖。文中探讨了first-visit和every-visit策略,以及on-policy和off-policy的区别。同时,讲解了重要性采样在off-policy预测问题中的作用,以及增量式求均值的方法。最后,介绍了off-policy控制问题的解决策略。
用Python做一个“以图搜番“的应用程序,再也不用愁动漫图片的出处了!
文章浏览阅读4.7k次。本文介绍如何使用Python和PyQT5构建一个「以图搜番」的应用程序,通过trace.moe API实现动漫图片的出处查询。教程涉及PyQT5界面设计、视频部件插入、使用Nuitka打包成exe文件,并提供了详细步骤和资源链接。
五个有趣又涨姿势的网站,第二个太棒了,强烈推荐!
文章浏览阅读9.5w次。1. 动漫圣地巡礼网址https://anime-tourism.jp/推荐理由喜欢动漫的朋友不要错过,这个网站收录了很多爱好者圣地巡礼的图片和视频。圣地巡礼(日语:聖地巡礼せいちじゅんれい)原本是宗教用语,指前往宗教中的圣地进行礼拜,在ACG圈中所说的“圣地巡礼”,是指爱好者前往喜欢的作品取景的实际地区(「アニメの聖地」),去寻找作品中的感受与思绪的一种行为。2. 全历史网址https://www.allhistory.com/推荐理由对于想了解国内外历史的朋友,一定要去这个网站转转_圣地巡礼网站
【视频篇】创作的基石,如何找素材?
文章浏览阅读461次。本文分享了作者在寻找视频创作素材时的经验,包括图片、图标、动漫、GIF动图和电影截图等各类资源的来源网站。推荐了如Pexels、THE STOCKS、Iconfont、pixiv等高质量平台,并提供了搜图导航大招,帮助读者更高效地找到所需素材。
OpenAI董事会主席Bret Taylor的Agent公司Sierra:专注于赋能下一代企业用户体验
文章浏览阅读1.6k次,点赞20次,收藏14次。Bret Taylor 讨论了 AI Agent的演变和未来,强调了它们彻底改变客户体验和重新定义人机交互的潜力。_brett taylor sierra
重磅 | 清华大学刘知远老师领衔的大模型公开课2024年第二季来了!助教阵容强大,零基础大模型从入门到精通,看这个就够了!
文章浏览阅读1.5k次,点赞12次,收藏26次。本课程旨在为清华大学致理书院的学生提供关于大模型的最新动态,帮助学生了解人工智能的最新进展,并通过实践项目深入探索大模型的应用与挑战。_大模型公开课
清华大模型公开课第二季 | Lecture 2 神经网络与大模型基础 Part 1
文章浏览阅读662次,点赞5次,收藏11次。本文深入探讨了神经网络和大型语言模型的基础知识,包括神经网络的结构、激活函数的选择、以及RNN、CNN和Transformer在语言模型中的应用。
公开课 | 2024最新清华大模型公开课 第3课 神经网络与大模型基础 Part 2
文章浏览阅读527次,点赞5次,收藏9次。本文深入探讨了神经网络、大模型及其在语言任务中的应用,分析了大模型的发展历程、认知能力和多领域应用。
公开课 | 2024最新清华大模型公开课 第4课 大模型学习方法
文章浏览阅读883次,点赞35次,收藏32次。本文深入探讨了大模型的训练方法,包括预训练、后训练、具体模型的介绍、语言建模的本质、对齐和后训练、参数高效的微调、指令微调和偏好学习,以及未来的研究方向。观点与结论大模型通过预训练和后训练两个阶段,能够在多领域发挥作用。语言建模的核心在于使用前面的标记(token)来预测下一个标记,这种能力可以扩展到多任务学习。对齐和后训练是确保模型输出符合人类期望的关键步骤。参数高效的微调方法,如Adapter、Prefix Tuning和LoRA,可以大幅降低微调所需的资源。
公开课 | 2024清华大模型公开课 第5课 大模型前沿架构 Part 1(RAG、MoE)
文章浏览阅读1k次,点赞15次,收藏24次。本文深入探讨了检索增强式语言模型和Mixture-of-Experts(MOE)模型在大模型前沿框架中的应用和挑战,强调了通过外部知识和模块化建模提高模型性能的重要性。
公开课 | 2024清华大模型公开课 第6课 大模型前沿架构 Part 2(长文本、Scaling Law)
文章浏览阅读901次,点赞23次,收藏23次。本文深入探讨了大型语言模型在处理长文本和Scaling Law方面的挑战与解决方案,强调了模型复杂度、计算资源和数据处理的重要性。
公开课 | 2024清华大模型公开课 第7课 Hugging Face 生态
文章浏览阅读990次,点赞26次,收藏9次。本文深入介绍了Hugging Face生态系统及其在推动开源机器学习中的作用,强调了协作和开源工具在加速机器学习研究和应用中的重要性。本文深入介绍了Hugging Face生态系统及其在推动开源机器学习中的作用,强调了协作和开源工具在加速机器学习研究和应用中的重要性。
公开课 | 2024清华大模型公开课 第8课 大模型实战指导
文章浏览阅读953次,点赞18次,收藏12次。本文详细介绍了2024年构建大型语言模型的现状,包括数据准备、模型训练、架构设计、并行化技术以及模型部署和推理的最新进展。
今日推荐
周排行