###开篇 好久没写简书,因为好奇的我跑去学习直播了,今天就分享一下我的感慨。
// 显示GIF加载动画
- (void)showGifLoding:(NSArray *)images inView:(UIView *)view
{
if (!images.count) {
images = @[[UIImage imageNamed:@"hold1_60x72"], [UIImage imageNamed:@"hold2_60x72"], [UIImage imageNamed:@"hold3_60x72"]];
}
UIImageView *gifView = [[UIImageView alloc] init];
if (!view) {
view = self.view;
}
[view addSubview:gifView];
[gifView mas_makeConstraints:^(MASConstraintMaker *make) {
make.center.equalTo(@0);
make.width.equalTo(@60);
make.height.equalTo(@70);
}];
self.gifView = gifView;
[gifView playGifAnim:images];
}
// 取消GIF加载动画
- (void)hideGufLoding
{
[self.gifView stopGifAnim];
self.gifView = nil;
}
复制代码
- 直播中网络的实时提醒,网络的改变可能会对直播的效果造成较大的影响,因此对网络变化的监测是必要的。或者使用别的方法实现也可以。
// 1.获得网络监控的管理者
AFNetworkReachabilityManager *manager = [AFNetworkReachabilityManager sharedManager];
// 2.设置网络状态改变后的处理
[manager setReachabilityStatusChangeBlock:^(AFNetworkReachabilityStatus status) {
// 当网络状态改变了, 就会调用这个block
switch (status) {
case AFNetworkReachabilityStatusUnknown: // 未知网络
{
[MBProgressHUD showSuccess:@"未知网络"];
break;
}
case AFNetworkReachabilityStatusNotReachable: // 没有网络(断网)
{
[MBProgressHUD showSuccess:@"无网络连接"];
break;
}
case AFNetworkReachabilityStatusReachableViaWWAN: // 手机自带网络
{
[MBProgressHUD showSuccess:@"4G/3G流量状态"];
break;
}
case AFNetworkReachabilityStatusReachableViaWiFi: // WIFI
{
[MBProgressHUD showSuccess:@"当前为WIFI环境"];
break;
}
}
}];
// 3.开始监控
[manager startMonitoring];
复制代码
- 弹幕
弹幕实质是多个精灵的时间上的渲染方式. PC/Web上已经有很成熟的解决方案了; Android上比较有名的是BiliBili开源的DanmakuFlameMaster,今天我们用的轮子叫做,BarrageRenderer,省去了自己做弹幕的难度,节约了时间。
_renderer = [[BarrageRenderer alloc] init];
复制代码
设置之后我们对弹幕的数量和生产的方法进行设置,这里用的是开源的plist文件,因此弹幕也是plist文件中读取的内容,在实际的项目中,我们可以根据后台返回的数据去进行解析,同样我们可以输入弹幕来展示。
- (void)autoSendBarrage
{
NSInteger spriteNumber = [_renderer spritesNumberWithName:nil];
if (spriteNumber <= 50) { // 限制屏幕上的弹幕量
[_renderer receive:[self walkTextSpriteDescriptorWithDirection:BarrageWalkDirectionR2L]];
}
}
#pragma mark - 弹幕描述符生产方法
long _index = 0;
/// 生成精灵描述 - 过场文字弹幕
- (BarrageDescriptor *)walkTextSpriteDescriptorWithDirection:(NSInteger)direction
{
BarrageDescriptor * descriptor = [[BarrageDescriptor alloc]init];
descriptor.spriteName = NSStringFromClass([BarrageWalkTextSprite class]);
descriptor.params[@"text"] = self.danMuText[arc4random_uniform((uint32_t)self.danMuText.count)];
descriptor.params[@"textColor"] = Color(arc4random_uniform(256), arc4random_uniform(256), arc4random_uniform(256));
descriptor.params[@"speed"] = @(100 * (double)random()/RAND_MAX+50);
descriptor.params[@"direction"] = @(direction);
descriptor.params[@"clickAction"] = ^{
UIAlertView *alertView = [[UIAlertView alloc]initWithTitle:@"提示" message:@"弹幕被点击" delegate:nil cancelButtonTitle:@"取消" otherButtonTitles:nil];
[alertView show];
};
return descriptor;
}
- (NSArray *)danMuText
{
return [NSArray arrayWithContentsOfFile:[[NSBundle mainBundle] pathForResource:@"danmu.plist" ofType:nil]];
}
复制代码
-
推流端的实现 推流端的实现是直播中不可缺少的,相对于自己实现一个推流,比较简单的方式还是利用已知的框架,这里我们使用的是优酷的开源框架LFLiveKit,使我们的开发更加简便。 我们可以自己在电脑端搭建一个服务器来进行测试,具体方法放两个传送门,我也是从这里学习的感谢开源,快速集成iOS基于RTMP的视频推流,HLS-搭建Nginx流媒体服务器 参照以上教程,我们成功的实现了推流的目的。 ###感慨 少量的代码或许能对某些模块提供帮助,但是如何把代码整合并集成到我们的项目中,完成我们自己想要实现的逻辑,同样是很重要的。 ###遇到的坑 当按照github上大家的方法进行推流后,模拟器运行没有问题,但是连接真机,瞬间懵了,发生了什么。一般这个形式出现的bug是看起来比较唬人的bug。刚开始怀疑缺少第三方库,后来查了查没有,然后依赖库,发现不是,最终我们终于有了怀疑的对象。