使用iPhone相机作为亮度传感器

时间:2011-06-14 18:01:40

标签: iphone ios

我正在尝试将前置摄像头用作亮度传感器(显然没有用于调整屏幕亮度的单独亮度传感器的公共API。)

我设法使用AVCaptureVideoOutput设置视频捕获会话并从视频中抓取帧,并计算帧中的亮度。但是,相机会不断调整曝光设置以补偿亮度,这对于录制视频非常有意义,但却无法获得实际的亮度值。

例如,如果我将手指放在相机上,亮度值会迅速降至0,但几秒后它会在相机补偿后再次向上爬回。

那么......有没有办法手动设置曝光并禁用自动调整?我尝试设置AVCaptureDevice.exposureMode,但它似乎没有任何区别。

或者,有没有办法以某种方式从捕获输出中获取曝光信息,所以我可以适当地偏置亮度计算?

更新: 我能够以这种方式获得EXIF信息;现在我只需要弄清楚如何偏向亮度计算。

NSDictionary* dict = (NSDictionary*) CMGetAttachment(sampleBuffer, kCGImagePropertyExifDictionary, NULL);
NSString* exp = [nsDict objectForKey:@"ExposureTime"];

1 个答案:

答案 0 :(得分:2)

您是否记得在设置曝光模式前致电lockForConfiguration

您可以使用CVBufferGetAttachment在可以从样本缓冲区获取的像素缓冲区中访问各种元数据;它可能包括曝光状态。