Получение значений экспозиции с камеры на iPhone OS 4.0

Значения экспозиции с камеры можно получить при съемке (без сохранения в SavedPhotos). Приложение экспонометр на iPhone делает это, вероятно, с помощью какого-то частного API.

Это приложение делает это только на iPhone 3GS, поэтому я предполагаю, что это может быть каким-то образом связано с данными EXIF, которые заполняются этой информацией при создании изображения.

Все это относится к 3GS.

Что-нибудь изменилось с iPhone OS 4.0? Есть ли сейчас обычный способ получить эти значения?

Есть ли у кого-нибудь рабочий пример кода для получения этих значений настроек камеры / фото?

Спасибо


person Bojan Milankovic    schedule 03.07.2010    source источник


Ответы (4)


С AVFoundation в iOS 4.0 вы можете повлиять на экспозицию, обратитесь конкретно к AVCaptureDevice, вот ссылка Ссылка на AVCaptureDevice. Не уверен, что это именно то, что вы хотите, но вы можете осмотреть AVFoundation и, возможно, найти что-то полезное.

person Daniel    schedule 03.07.2010
comment
Мне нужно получить значение экспозиции, которое имеет камера, когда она делает снимок. В зависимости от освещенности камера устанавливает это значение во время фотосъемки. - person Bojan Milankovic; 03.07.2010

Если вам нужна информация об экспозиции в реальном времени *, вы можете записать видео с помощью AVCaptureVideoDataOutput. Каждый кадр CMSampleBuffer наполнен интересными данными, описывающими текущее состояние камеры.

* до 30 кадров в секунду

person Rhythmic Fistman    schedule 22.05.2011
comment
Спасибо!! Это было именно то, что я искал. На всякий случай, вот как я получил метаданные EXIF ​​из CMSampleBuffer: NSDictionary *metadata = (__bridge NSDictionary *)CMGetAttachment(sampleBuffer, kCGImagePropertyExifDictionary, NULL); Просто не забудьте включить ImageIO для констант EXIF. - person Mr. T; 26.09.2013
comment
Это должен быть принятый ответ. Вопрос спрашивает, как получить значение. - person fizzybear; 24.01.2020

Думаю, я наконец нашел путь к реальным данным EXIF. Пройдет некоторое время, прежде чем у меня появится реальный код для публикации, но я решил, что тем временем это следует опубликовать.

Google captureStillImageAsynchronouslyFromConnection. Это функция AVCaptureStillImageOutput, и ниже приводится выдержка из документации (которую долго искали):

imageDataSampleBuffer - захваченные данные. Вложения буфера могут содержать метаданные, соответствующие формату данных изображения. Например, буфер, содержащий данные JPEG, может содержать словарь kCGImagePropertyExifDictionary в качестве вложения. См. В ImageIO / CGImageProperties.h список ключей и типов значений.

Пример работы с AVCaptureStillImageOutput см. В примере кода WWDC 2010 в разделе AVCam.

Мира, О.

person Oded Ben Dov    schedule 02.08.2010

Вот полное решение. Не забудьте импортировать соответствующие фреймворки и заголовки. В методе exifAttachments var in capturenow вы найдете все данные, которые вам нужны.

#import <AVFoundation/AVFoundation.h>
#import <ImageIO/CGImageProperties.h>

AVCaptureStillImageOutput *stillImageOutput;
AVCaptureSession *session;    

- (void)viewDidLoad
    {
        [super viewDidLoad];
        [self setupCaptureSession];
        // Do any additional setup after loading the view, typically from a nib.    
    }

    -(void)captureNow{


        AVCaptureConnection *videoConnection = nil;
        for (AVCaptureConnection *connection in stillImageOutput.connections)
        {
            for (AVCaptureInputPort *port in [connection inputPorts])
            {
                if ([[port mediaType] isEqual:AVMediaTypeVideo] )
                {
                    videoConnection = connection;
                    break;
                }
            }
            if (videoConnection) { break; }
        }

        [stillImageOutput captureStillImageAsynchronouslyFromConnection:videoConnection
         completionHandler:^(CMSampleBufferRef imageDataSampleBuffer, NSError *__strong error) {
            CFDictionaryRef exifAttachments = CMGetAttachment( imageDataSampleBuffer, kCGImagePropertyExifDictionary, NULL);
            if (exifAttachments)
            {
                // Do something with the attachments.
                NSLog(@"attachements: %@", exifAttachments);
            }
            else
              NSLog(@"no attachments");

            NSData *imageData = [AVCaptureStillImageOutput jpegStillImageNSDataRepresentation:imageDataSampleBuffer];
            UIImage *image = [[UIImage alloc] initWithData:imageData];
            }];

    }


    // Create and configure a capture session and start it running
    - (void)setupCaptureSession
    {
        NSError *error = nil;

        // Create the session
        session = [[AVCaptureSession alloc] init];

        // Configure the session to produce lower resolution video frames, if your
        // processing algorithm can cope. We'll specify medium quality for the
        // chosen device.
        session.sessionPreset = AVCaptureSessionPreset352x288;

        // Find a suitable AVCaptureDevice
        AVCaptureDevice *device = [AVCaptureDevice
                                   defaultDeviceWithMediaType:AVMediaTypeVideo];
        [device lockForConfiguration:nil];

        device.whiteBalanceMode = AVCaptureWhiteBalanceModeLocked;
        device.focusMode = AVCaptureFocusModeLocked;
        [device unlockForConfiguration];

        // Create a device input with the device and add it to the session.
        AVCaptureDeviceInput *input = [AVCaptureDeviceInput deviceInputWithDevice:device
                                                                            error:&error];
        if (!input) {
            // Handling the error appropriately.
        }
        [session addInput:input];




        stillImageOutput = [AVCaptureStillImageOutput new];
        NSDictionary *outputSettings = [[NSDictionary alloc] initWithObjectsAndKeys: AVVideoCodecJPEG, AVVideoCodecKey, nil];
        [stillImageOutput setOutputSettings:outputSettings];
        if ([session canAddOutput:stillImageOutput])
            [session addOutput:stillImageOutput];


        // Start the session running to start the flow of data
        [session startRunning];
        [self captureNow];

    }
person Vlad Polyanskiy    schedule 10.04.2013