手把手教你训练一个属于你自己的core ml模型

版权声明:欢迎指出错误,作者极懒,常常懒得修改 https://blog.csdn.net/KevinAshen/article/details/88919594

前言

  • 最近项目里想要使用core ml进行图像识别,作为小组里唯一有Xcode10的人,模型训练这块成功落在了我的头上
  • 这篇文章将介绍如何训练一个自己的简单的core ml模型

参考文章

简单认识

  • 如果对于人工智能,图像识别没有较直观的认识,推荐看第一篇参考文章,其中对于黑盒白盒的例子简单易懂
  • 如果对于core ml缺乏了解,想知道其特点是什么,推荐看第二篇参考文章
  • core ml确实已经将人工智能里图像识别这块的难度降到了最低,训练一个模型,需要的仅仅是准备适当的训练集,简直没有任何门槛
  • 使用core ml训练模型必须得有Xcode10,但不是说Xcode9不能用训练出来的模型,仅仅是不能训练

开始训练

  • 首先创建一个Swift Playground文件,选择默认的Blank
  • 然后输入下面的代码
// Import CreateMLUI to train the image classifier in the UI.
// For other Create ML tasks, import CreateML instead.
import CreateMLUI 

let builder = MLImageClassifierBuilder()
builder.showInLiveView()

运行之后打开Assistant editor,将训练集拖入

  • 训练集是一个文件夹,其中的子文件夹名字就是该子文件夹图集的识别名,例如我想做一个识别猫狗的模型,就应该在文件夹里分两个子文件夹,一个叫Dog,一个叫Cat(注意必须起英文名,中文名最后会变成乱码,亲测)
  • 然后理论上来讲你就已经训练完了,接下来会需要你拖入一个测试集,在测试集,之后就能拿出去用了
  • 具体的调用方法,可以看我这篇博客一篇文章教你看懂.mlmodle的方法头文件

猜你喜欢

转载自blog.csdn.net/KevinAshen/article/details/88919594