iOSカメラで環境光感パラメータを取得する方法
ここでは、iOSがカメラを利用して環境光感パラメータを取得する方法を紹介します。
多くは言いません。コードは以下の通りです。まずAVFoundationフレームとImageIO/ImageIO.h声明ファイルを導入する AVCapture Video DataOutput SampleBufferDelegate契約に従う AVCapture Sessionオブジェクトは属性として定義し、オブジェクトがAVCapture Sessionオブジェクトをずっと引用していることを確保する。そうでなければ、lightSensitive方法でAVCapture Sessionオブジェクトを定義して初期化すると、AVCapture Sessionオブジェクトが早期にリリースされることになります。失効する AVCaptureVideo Data Output SampleBufferDelegateの代理方法を実現し、パラメータbrighttnes Valueは周囲の環境の明るさパラメータです。範囲は-5~12の間です。パラメータ値が大きいほど、環境が明るい 以上が本文の全部です。皆さんの勉強に役に立つように、私たちを応援してください。
多くは言いません。コードは以下の通りです。
#import "LightSensitiveViewController.h"
@import AVFoundation;
#import <ImageIO/ImageIO.h>
@interface LightSensitiveViewController ()< AVCaptureVideoDataOutputSampleBufferDelegate>
@property (nonatomic, strong) AVCaptureSession *session;
@end
@implementation LightSensitiveViewController
- (void)viewDidLoad {
[super viewDidLoad];
// Do any additional setup after loading the view.
self.view.backgroundColor = [UIColor whiteColor];
self.navigationItem.title = @" ";
[self lightSensitive];
}
- (void)didReceiveMemoryWarning {
[super didReceiveMemoryWarning];
// Dispose of any resources that can be recreated.
}
#pragma mark-
- (void)lightSensitive {
// 1.
AVCaptureDevice *device = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo];
// 2.
AVCaptureDeviceInput *input = [[AVCaptureDeviceInput alloc]initWithDevice:device error:nil];
// 3.
AVCaptureVideoDataOutput *output = [[AVCaptureVideoDataOutput alloc] init];
[output setSampleBufferDelegate:self queue:dispatch_get_main_queue()];
// AVCaptureSession
self.session = [[AVCaptureSession alloc]init];
//
[self.session setSessionPreset:AVCaptureSessionPresetHigh];
//
if ([self.session canAddInput:input]) {
[self.session addInput:input];
}
if ([self.session canAddOutput:output]) {
[self.session addOutput:output];
}
// 9.
[self.session startRunning];
}
#pragma mark- AVCaptureVideoDataOutputSampleBufferDelegate
- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection {
CFDictionaryRef metadataDict = CMCopyDictionaryOfAttachments(NULL,sampleBuffer, kCMAttachmentMode_ShouldPropagate);
NSDictionary *metadata = [[NSMutableDictionary alloc] initWithDictionary:(__bridge NSDictionary*)metadataDict];
CFRelease(metadataDict);
NSDictionary *exifMetadata = [[metadata objectForKey:(NSString *)kCGImagePropertyExifDictionary] mutableCopy];
float brightnessValue = [[exifMetadata objectForKey:(NSString *)kCGImagePropertyExifBrightnessValue] floatValue];
NSLog(@"%f",brightnessValue);
// brightnessValue
AVCaptureDevice *device = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo];
BOOL result = [device hasTorch];//
if ((brightnessValue < 0) && result) {//
[device lockForConfiguration:nil];
[device setTorchMode: AVCaptureTorchModeOn];//
[device unlockForConfiguration];
}else if((brightnessValue > 0) && result) {//
[device lockForConfiguration:nil];
[device setTorchMode: AVCaptureTorchModeOff];//
[device unlockForConfiguration];
}
}
@end
注意点: