我正在使用AVVideoComposition API从本地视频中获取CIImage,在缩小CIImage之后,我在尝试获取CVPixelBuffer时得到了nil。
在缩小源帧之前,我要得到原始帧CVPixelBuffer。
有什么理由让缓冲区在缩小后是nil ?
示例:
AVVideoComposition(asset: asset) { [weak self] request in
let source = request.sourceImage
let pixelBuffer = source.pixelBuffer // return value
let scaledDown = source.transformed(by: .init(scaleX: 0.5, y: 0.5))
let scaledPixelBuffer // return nil
})发布于 2022-05-29 18:14:28
我认为你们样品的最后一行是不完整的。你是说let scaledPixelBuffer = scaledDown.pixelBuffer吗?如果是的话,那是的,这是行不通的。原因是,只有在直接从pixelBuffer创建CIImage的情况下,CIImage属性才可用。从医生那里:
如果该映像是使用
init(cvPixelBuffer:)初始化程序创建的,则该属性的值是提供图像的底层图像数据的CVPixelBuffer对象。…否则,该属性的值为nil。
传递给组合块的CIImage是从AVFoundation提供的像素缓冲区创建的。但是,当应用过滤器或对其进行转换时,需要使用CIContext显式地将结果图像呈现到像素缓冲区中,否则不会得到结果。
如果要更改组合使用的视频帧的大小,可以使用AVMutableVideoComposition,并在初始化后将其renderSize设置为所需的大小:
let composition = AVMutableVideoComposition(asset: asset) { … }
composition.renderSize = CGSize(width: 1280, height: 720)https://stackoverflow.com/questions/72425288
复制相似问题