iOSカメラで環境光感パラメータを取得する方法


ここでは、iOSがカメラを利用して環境光感パラメータを取得する方法を紹介します。
多くは言いません。コードは以下の通りです。

#import "LightSensitiveViewController.h"

@import AVFoundation;

#import <ImageIO/ImageIO.h>

@interface LightSensitiveViewController ()< AVCaptureVideoDataOutputSampleBufferDelegate>

@property (nonatomic, strong) AVCaptureSession *session;

@end

@implementation LightSensitiveViewController

- (void)viewDidLoad {
  [super viewDidLoad];
  // Do any additional setup after loading the view.
  self.view.backgroundColor = [UIColor whiteColor];

  self.navigationItem.title = @"  ";
  [self lightSensitive];
}

- (void)didReceiveMemoryWarning {
  [super didReceiveMemoryWarning];
  // Dispose of any resources that can be recreated.
}

#pragma mark-   
- (void)lightSensitive {

  // 1.      
  AVCaptureDevice *device = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo];

  // 2.     
  AVCaptureDeviceInput *input = [[AVCaptureDeviceInput alloc]initWithDevice:device error:nil];

  // 3.       
  AVCaptureVideoDataOutput *output = [[AVCaptureVideoDataOutput alloc] init];
  [output setSampleBufferDelegate:self queue:dispatch_get_main_queue()];


  // AVCaptureSession  
  self.session = [[AVCaptureSession alloc]init];
  //          
  [self.session setSessionPreset:AVCaptureSessionPresetHigh];
  //          
  if ([self.session canAddInput:input]) {
    [self.session addInput:input];
  }
  if ([self.session canAddOutput:output]) {
    [self.session addOutput:output];
  }

  // 9.    
  [self.session startRunning];

}

#pragma mark- AVCaptureVideoDataOutputSampleBufferDelegate   
- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection {

  CFDictionaryRef metadataDict = CMCopyDictionaryOfAttachments(NULL,sampleBuffer, kCMAttachmentMode_ShouldPropagate);
  NSDictionary *metadata = [[NSMutableDictionary alloc] initWithDictionary:(__bridge NSDictionary*)metadataDict];
  CFRelease(metadataDict);
  NSDictionary *exifMetadata = [[metadata objectForKey:(NSString *)kCGImagePropertyExifDictionary] mutableCopy];
  float brightnessValue = [[exifMetadata objectForKey:(NSString *)kCGImagePropertyExifBrightnessValue] floatValue];

  NSLog(@"%f",brightnessValue);


  //   brightnessValue           
  AVCaptureDevice *device = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo];
  BOOL result = [device hasTorch];//           
  if ((brightnessValue < 0) && result) {//      

    [device lockForConfiguration:nil];

    [device setTorchMode: AVCaptureTorchModeOn];// 

    [device unlockForConfiguration];

  }else if((brightnessValue > 0) && result) {//      

    [device lockForConfiguration:nil];
    [device setTorchMode: AVCaptureTorchModeOff];// 
    [device unlockForConfiguration];

  }

}

@end
注意点:
  • まずAVFoundationフレームとImageIO/ImageIO.h声明ファイルを導入する
  • AVCapture Video DataOutput SampleBufferDelegate契約に従う
  • AVCapture Sessionオブジェクトは属性として定義し、オブジェクトがAVCapture Sessionオブジェクトをずっと引用していることを確保する。そうでなければ、lightSensitive方法でAVCapture Sessionオブジェクトを定義して初期化すると、AVCapture Sessionオブジェクトが早期にリリースされることになります。失効する
  • AVCaptureVideo Data Output SampleBufferDelegateの代理方法を実現し、パラメータbrighttnes Valueは周囲の環境の明るさパラメータです。範囲は-5~12の間です。パラメータ値が大きいほど、環境が明るい
  • 以上が本文の全部です。皆さんの勉強に役に立つように、私たちを応援してください。