iOS写在定制相机之前

  • 问题

    不是所有的拍照UIImagePickerController都能搞定,理由如下:

    1.产品不整点幺蛾子,哪来体验创新

    2.设计不整点幺蛾子,怎能体现用心

    3.运营:这体验跟某宝某信咋不一样???

    4.开发:我是被逼成大佬的!!!1.2.3.层层施压,大厂能搞得,你咋搞不了

  • 思路:

    定制相机,绕不开的问题:UIImagePickerController中那块实时场景怎么搞?

    方案上一般是采用AVCaptureSession + AVCaptureVideoPreviewLayer

    AVCaptureVideoPreviewLayer继承CALayer, 设置bounds、frame, 可满足简单需求

    But, 横竖屏切换、iPhone与iPad共用、视图效果调整【毕竟上面的1.2.话语权普遍大过开发】等此类情况下,frame的方式哪有约束来的实在

    每个view都有一个layer属性,定制view的layer为AVCaptureVideoPreviewLayer, view约束调整改变frame即可

  • 上菜

    • 定义一个view
    @interface AVPreView : UIView
    
    @end
    • 设置layerClass
    + (Class)layerClass {
        return [AVCaptureVideoPreviewLayer class];
    }
    • 为了实时场景,layer即AVCaptureVideoPreviewLayer 是需要设置一个session的
    // 设置属性
    @property (nonatomic, strong) AVCaptureSession *session;
    
    // Getter & Setter
    - (AVCaptureSession *)session {
        return [(AVCaptureVideoPreviewLayer *)self.layer session];
    }
    
    - (void)setSession:(AVCaptureSession *)session {
        [(AVCaptureVideoPreviewLayer *)self.layer setSession:session];
    }
    
    • 需要设置聚焦之类的,此时需要对view上触碰的点转换成摄像头的位置
    -(CGPoint)captureDevicePointForPoint:(CGPoint)point{
        AVCaptureVideoPreviewLayer *layer = (AVCaptureVideoPreviewLayer *)self.layer;
        //将屏幕上点击的位置转化成摄像头的位置
        return [layer captureDevicePointOfInterestForPoint:point];
    }
  • Game Over. Code不行,多敲敲。

猜你喜欢

转载自blog.51cto.com/15070994/2631754