开源一个上架App Store的相机App

移动开发 iOS
Osho 相机是我独立开发上架的一个相机 App,它支持1:1,4:3,16:9多种分辨率拍摄,滤镜可在取景框的实时预览,拍摄过程可与滤镜实时合成,支持分段拍摄,支持回删等特性。下面先分享分享开发这个 App 的一些心得体会,文末会给出项目的下载地址,阅读本文可能需要一点点 AVFoundation 开发的基础。

Osho 相机是我独立开发上架的一个相机 App,App Store地址:https://itunes.apple.com/cn/app/osho/id1203312279?mt=8。它支持1:1,4:3,16:9多种分辨率拍摄,滤镜可在取景框的实时预览,拍摄过程可与滤镜实时合成,支持分段拍摄,支持回删等特性。下面先分享分享开发这个 App 的一些心得体会,文末会给出项目的下载地址,阅读本文可能需要一点点 AVFoundation 开发的基础。  

 

1、GLKView和GPUImageVideoCamera

一开始取景框的预览我是基于 GLKView 做的,GLKView 是苹果对 OpenGL 的封装,我们可以使用它的回调函数 -glkView:drawInRect: 进行对处理后的 samplebuffer 渲染的工作(samplebuffer 是在相机回调 didOutputSampleBuffer 产生的),附上当初简版代码:

  1. - (CIImage *)renderImageInRect:(CGRect)rect { 
  2.  
  3.     CMSampleBufferRef sampleBuffer = _sampleBufferHolder.sampleBuffer; 
  4.  
  5.   
  6.  
  7.     if (sampleBuffer != nil) { 
  8.  
  9.         UIImage *originImage = [self imageFromSamplePlanerPixelBuffer:sampleBuffer]; 
  10.  
  11.         if (originImage) { 
  12.  
  13.            if (self.filterName && self.filterName.length > 0) { 
  14.  
  15.   
  16.  
  17.                GPUImageOutput<GPUImageInput> *filter; 
  18.  
  19.                 if ([self.filterType isEqual: @"1"]) { 
  20.  
  21.                     Class class = NSClassFromString(self.filterName); 
  22.  
  23.                     filter = [[class alloc] init]; 
  24.  
  25.                 } else { 
  26.  
  27.                     NSBundle *bundle = [NSBundle bundleForClass:self.class]; 
  28.  
  29.                     NSURL *filterAmaro = [NSURL fileURLWithPath:[bundle pathForResource:self.filterName ofType:@"acv"]]; 
  30.  
  31.                     filter = [[GPUImageToneCurveFilter alloc] initWithACVURL:filterAmaro]; 
  32.  
  33.                 } 
  34.  
  35.                 [filter forceProcessingAtSize:originImage.size]; 
  36.  
  37.                 GPUImagePicture *pic = [[GPUImagePicture alloc] initWithImage:originImage]; 
  38.  
  39.                 [pic addTarget:filter]; 
  40.  
  41.                 [filter useNextFrameForImageCapture]; 
  42.  
  43.                 [filter addTarget:self.gpuImageView]; 
  44.  
  45.                 [pic processImage];               
  46.  
  47.                 UIImage *filterImage = [filter imageFromCurrentFramebuffer]; 
  48.  
  49.                 //UIImage *filterImage = [filter imageByFilteringImage:originImage]; 
  50.  
  51.   
  52.  
  53.                 _CIImage = [[CIImage alloc] initWithCGImage:filterImage.CGImage options:nil]; 
  54.  
  55.             } else { 
  56.  
  57.             _CIImage = [CIImage imageWithCVPixelBuffer:CMSampleBufferGetImageBuffer(sampleBuffer)]; 
  58.  
  59.         } 
  60.  
  61.     }   
  62.  
  63.     CIImage *image = _CIImage; 
  64.  
  65.   
  66.  
  67.     if (image != nil) { 
  68.  
  69.         image = [image imageByApplyingTransform:self.preferredCIImageTransform]; 
  70.  
  71.   
  72.  
  73.         if (self.scaleAndResizeCIImageAutomatically) { 
  74.  
  75.            image = [self scaleAndResizeCIImage:image forRect:rect]; 
  76.  
  77.         } 
  78.  
  79.     } 
  80.  
  81.   
  82.  
  83.     return image; 
  84.  
  85.  
  86.   
  87.  
  88. - (void)glkView:(GLKView *)view drawInRect:(CGRect)rect { 
  89.  
  90.     @autoreleasepool { 
  91.  
  92.         rect = CGRectMultiply(rect, self.contentScaleFactor); 
  93.  
  94.         glClearColor(0, 0, 0, 0); 
  95.  
  96.         glClear(GL_COLOR_BUFFER_BIT); 
  97.  
  98.   
  99.  
  100.         CIImage *image = [self renderImageInRect:rect]; 
  101.  
  102.   
  103.  
  104.         if (image != nil) { 
  105.  
  106.             [_context.CIContext drawImage:image inRect:rect fromRect:image.extent]; 
  107.  
  108.         } 
  109.  
  110.     } 
  111.  
  112.  

这样的实现在低端机器上取景框会有明显的卡顿,而且 ViewController 上的列表几乎无法滑动,虽然手势倒是还可以支持。 因为要实现分段拍摄与回删等功能,采用这种方式的初衷是期望更高度的自定义,而不去使用 GPUImageVideoCamera, 毕竟我得在 AVCaptureVideoDataOutputSampleBufferDelegate, AVCaptureAudioDataOutputSampleBufferDelegate 这两个回调做文章,为了满足需求,所以得在不侵入 GPUImage 源代码的前提下点功夫。

怎么样才能在不破坏 GPUImageVideoCamera 的代码呢?我想到两个方法,第一个是创建一个类,然后把 GPUImageVideoCamera 里的代码拷贝过来,这么做简单粗暴,缺点是若以后 GPUImage 升级了,代码维护起来是个小灾难;再来说说第二个方法——继承,继承是个挺优雅的行为,可它的麻烦在于获取不到私有变量,好在有强大的 runtime,解决了这个棘手的问题。下面是用 runtime 获取私有变量:

  1. - (AVCaptureAudioDataOutput *)gpuAudioOutput { 
  2.  
  3.     Ivar var = class_getInstanceVariable([super class], "audioOutput"); 
  4.  
  5.     id nameVar = object_getIvar(self, var); 
  6.  
  7.     return nameVar; 
  8.  
  9.  

至此取景框实现了滤镜的渲染并保证了列表的滑动帧率。

2、实时合成以及 GPUImage 的 outputImageOrientation

顾名思义,outputImageOrientation 属性和图像方向有关的。GPUImage 的这个属性是对不同设备的在取景框的图像方向做过优化的,但这个优化会与 videoOrientation 产生冲突,它会导致切换摄像头导致图像方向不对,也会造成拍摄完之后的视频方向不对。 最后的解决办法是确保摄像头输出的图像方向正确,所以将其设置为 UIInterfaceOrientationPortrait,而不对 videoOrientation 进行设置,剩下的问题就是怎样处理拍摄完成之后视频的方向。

先来看看视频的实时合成,因为这里包含了对用户合成的 CVPixelBufferRef 资源处理。还是使用继承的方式继承 GPUImageView,其中使用了 runtime 调用私有方法:

  1. SEL s = NSSelectorFromString(@"textureCoordinatesForRotation:"); 
  2.  
  3. IMP imp = [[GPUImageView class] methodForSelector:s]; 
  4.  
  5. GLfloat *(*func)(id, SEL, GPUImageRotationMode) = (void *)imp; 
  6.  
  7. GLfloat *result = [GPUImageView class] ? func([GPUImageView class], s, inputRotation) : nil; 
  8.  
  9.   
  10.  
  11. ...... 
  12.  
  13.   
  14.  
  15. glVertexAttribPointer(self.gpuDisplayTextureCoordinateAttribute, 2, GL_FLOAT, 0, 0, result);  

直奔重点——CVPixelBufferRef 的处理,将 renderTarget 转换为 CGImageRef 对象,再使用 UIGraphics 获得经 CGAffineTransform 处理过方向的 UIImage,此时 UIImage 的方向并不是正常的方向,而是旋转过90度的图片,这么做的目的是为 videoInput 的 transform 属性埋下伏笔。下面是 CVPixelBufferRef 的处理代码:

  1. int width = self.gpuInputFramebufferForDisplay.size.width; 
  2.  
  3. int height = self.gpuInputFramebufferForDisplay.size.height; 
  4.  
  5.   
  6.  
  7. renderTarget = self.gpuInputFramebufferForDisplay.gpuBufferRef; 
  8.  
  9.   
  10.  
  11. NSUInteger paddedWidthOfImage = CVPixelBufferGetBytesPerRow(renderTarget) / 4.0; 
  12.  
  13. NSUInteger paddedBytesForImage = paddedWidthOfImage * (int)height * 4; 
  14.  
  15.   
  16.  
  17. glFinish(); 
  18.  
  19. CVPixelBufferLockBaseAddress(renderTarget, 0); 
  20.  
  21. GLubyte *data = (GLubyte *)CVPixelBufferGetBaseAddress(renderTarget); 
  22.  
  23. CGDataProviderRef ref = CGDataProviderCreateWithData(NULL, data, paddedBytesForImage, NULL); 
  24.  
  25. CGColorSpaceRef colorspace = CGColorSpaceCreateDeviceRGB(); 
  26.  
  27. CGImageRef iref = CGImageCreate((int)width, (int)height, 8, 32, CVPixelBufferGetBytesPerRow(renderTarget), colorspace, kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst, ref, NULLNO, kCGRenderingIntentDefault); 
  28.  
  29.   
  30.  
  31. UIGraphicsBeginImageContext(CGSizeMake(height, width)); 
  32.  
  33. CGContextRef cgcontext = UIGraphicsGetCurrentContext(); 
  34.  
  35. CGAffineTransform transform = CGAffineTransformIdentity; 
  36.  
  37. transform = CGAffineTransformMakeTranslation(height / 2.0, width / 2.0); 
  38.  
  39. transform = CGAffineTransformRotate(transform, M_PI_2); 
  40.  
  41. transform = CGAffineTransformScale(transform, 1.0, -1.0); 
  42.  
  43. CGContextConcatCTM(cgcontext, transform); 
  44.  
  45.   
  46.  
  47. CGContextSetBlendMode(cgcontext, kCGBlendModeCopy); 
  48.  
  49. CGContextDrawImage(cgcontext, CGRectMake(0.0, 0.0, width, height), iref); 
  50.  
  51. UIImage *image = UIGraphicsGetImageFromCurrentImageContext(); 
  52.  
  53. UIGraphicsEndImageContext(); 
  54.  
  55. self.img = image; 
  56.  
  57.   
  58.  
  59. CFRelease(ref); 
  60.  
  61. CFRelease(colorspace); 
  62.  
  63. CGImageRelease(iref); 
  64.  
  65. CVPixelBufferUnlockBaseAddress(renderTarget, 0); 

 而 videoInput 的 transform 属性设置如下:

  1. _videoInput.transform = CGAffineTransformRotate(_videoConfiguration.affineTransform, -M_PI_2); 

经过这两次方向的处理,合成的小视频终于方向正常了。此处为简版的合成视频代码:

  1. CIImage *image = [[CIImage alloc] initWithCGImage:img.CGImage options:nil]; 
  2.  
  3. CVPixelBufferLockBaseAddress(pixelBuffer, 0); 
  4.  
  5. [self.context.CIContext render:image toCVPixelBuffer:pixelBuffer]; 
  6.  
  7. ... 
  8.  
  9. [_videoPixelBufferAdaptor appendPixelBuffer:pixelBuffer withPresentationTime:bufferTimestamp]  

可以看到关键点还是在于上面继承自 GPUImageView 这个类获取到的 renderTarget 属性,它应该即是取景框实时预览的结果,我在最初的合成中是使用 sampleBuffer 转 UIImage,再通过 GPUImage 添加滤镜,最后将 UIImage 再转 CIImage,这么做导致拍摄时会卡。当时我几乎想放弃了,甚至想采用拍好后再加滤镜的方式绕过去,最后这些不纯粹的方法都被我 ban 掉了。

既然滤镜可以在取景框实时渲染,我想到了 GPUImageView 可能有料。在阅读过 GPUImage 的诸多源码后,终于在 GPUImageFramebuffer.m 找到了一个叫 renderTarget 的属性。至此,合成的功能也告一段落。

3、关于滤镜

这里主要分享个有意思的过程。App 里有三种类型的滤镜。基于 glsl 的、直接使用 acv 的以及直接使用 lookuptable 的。lookuptable 其实也是 photoshop 可导出的一种图片,但一般的软件都会对其加密,下面简单提下我是如何反编译“借用”某软件的部分滤镜吧。使用 Hopper Disassembler 软件进行反编译,然后通过某些关键字的搜索,幸运地找到了下图的一个方法名。 

 

 

 

reverse 只能说这么多了….在开源代码里我已将这一类敏感的滤镜剔除了。

小结

开发相机 App 是个挺有意思的过程,在其中邂逅不少优秀开源代码,向开源代码学习,才能避免自己总是写出一成不变的代码。最后附上项目的开源地址 https://github.com/hawk0620/ZPCamera,希望能够帮到有需要的朋友,也欢迎 star 和 pull request。 

责任编辑:庞桂玉 来源: iOS大全
相关推荐

2019-07-04 14:11:48

App StoreiOS应用开发

2022-01-17 09:22:42

SwiftUI App Store开源

2020-02-22 13:00:26

App StoreiOSOffice

2012-04-25 22:41:37

APP

2012-06-15 09:43:20

苹果App Store盗版书

2011-12-28 10:09:53

云计算App StoreCA

2013-08-05 14:52:01

苹果微信5.0App Store

2013-08-06 14:37:37

App Store定价移动应用定价移动应用市场

2011-12-31 21:19:56

App Store

2013-01-21 10:27:47

苹果App Store下架

2017-08-14 10:05:50

开发者App Store

2021-06-22 16:21:40

鸿蒙HarmonyOS应用

2013-07-30 16:27:20

App Store潜规则

2012-06-15 09:35:17

2012-03-07 10:50:39

APP经验

2010-08-26 11:00:23

2012-04-26 13:30:05

iPhoneApp Store发布程序

2011-10-11 08:39:04

LinuxApp store

2023-07-04 08:53:06

2023-05-19 19:35:11

ChatGPT数据泄露
点赞
收藏

51CTO技术栈公众号