Одноранговое видео в iOS

Я пытаюсь передать буферы видео в реальном времени с одного iPhone на другой iPhone (называемый клиентским iPhone) для предварительного просмотра, а также принимать команды от клиентского iPhone. Я думаю о стандартном способе достижения этого. Ближайшее, что я нашел, - это AVCaptureMultipeerVideoDataOutput на Github.

Тем не менее, он по-прежнему использует структуру подключения Multipeer, и я думаю, что она все еще требует некоторой настройки на обоих iPhone. Я хочу, чтобы в идеале на обоих iPhone не требовалась настройка, если на обоих iPhone включен Wi-Fi (или, если возможно, Bluetooth), одноранговые узлы должны узнавать друг друга в приложении и запрашивать у пользователя информацию об обнаружении устройства. Каковы стандартные способы достижения этого и какие-либо ссылки на образец кода?

РЕДАКТИРОВАТЬ: Я получил работу через многопользовательское соединение после написания кода с нуля. На данный момент я отправляю пиксельные буферы на одноранговое устройство, уменьшая масштаб и сжимая данные в формате jpeg. На удаленном устройстве у меня есть настройка UIImage, где я отображаю данные каждый раз во время кадра. Однако я думаю, что UIKit может быть не лучшим способом отображения данных, даже если изображения маленькие. Как мне отобразить эти данные с помощью OpenGLES? Возможно ли прямое декодирование jpeg в Opengles?


person Deepak Sharma    schedule 10.01.2017    source источник
comment
Многопользовательская связь AFAIK имеет все API, необходимые для ваших требований обнаружения и потоковой передачи живых сеансов. Если вы не хотите использовать его, другим вариантом будет использование AirPlay, но это обходной путь, и он не сможет помочь при обнаружении ближайших клиентских iPhone.   -  person Bluewings    schedule 10.01.2017
comment
Я пробовал образцы кодов MC, но не могу соединить устройства и отправить данные. Мне нужен простой интерфейс, в котором один iPhone выдает всплывающее окно, чтобы выбрать однорангового узла, как только он будет обнаружен. Выбор однорангового узла запускает поток данных. Я не могу заставить его работать ни с одним из доступных примеров кодов, включая код от Apple в групповом чате MC.   -  person Deepak Sharma    schedule 10.01.2017


Ответы (1)


Комментарии:

На данный момент я отправляю пиксельные буферы на одноранговое устройство, уменьшая масштаб и сжимая данные в формате jpeg. На удаленном устройстве у меня есть настройка UIImage, где я отображаю данные каждый раз во время кадра. Однако я думаю, что UIKit может быть не лучшим способом отображения данных, даже если изображения маленькие.

Оказывается, это лучший способ передать изображение через структуру Multipeer Connectivity. Я перепробовал все альтернативы:

  1. Я сжал кадры с помощью VideoToolbox. Слишком медленно.
  2. Я сжал кадры с помощью сжатия. Слишком медленно, но лучше.

Позвольте мне привести код для №2:

На устройстве iOS, передающем данные изображения:

- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection
{
    CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
    CVPixelBufferLockBaseAddress(imageBuffer,0);
    __block uint8_t *baseAddress = (uint8_t *)CVPixelBufferGetBaseAddress(imageBuffer);
    dispatch_async(self.compressionQueue, ^{
        uint8_t *compressed = malloc(sizeof(uint8_t) * 1228808);
        size_t compressedSize = compression_encode_buffer(compressed, 1228808, baseAddress, 1228808, NULL, COMPRESSION_ZLIB);
        NSData *data = [NSData dataWithBytes:compressed length:compressedSize];
        NSLog(@"Sending size: %lu", [data length]);
        dispatch_async(dispatch_get_main_queue(), ^{
            __autoreleasing NSError *err;
            [((ViewController *)self.parentViewController).session sendData:data toPeers:((ViewController *)self.parentViewController).session.connectedPeers withMode:MCSessionSendDataReliable error:&err];
        });
    });
    CVPixelBufferUnlockBaseAddress(imageBuffer, 0);
}

На устройстве iOS, отображающем данные изображения:

typedef struct {
    size_t length;
    void *data;
} ImageCacheDataStruct;

- (void)session:(nonnull MCSession *)session didReceiveData:(nonnull NSData *)data fromPeer:(nonnull MCPeerID *)peerID
{
    NSLog(@"Receiving size: %lu", [data length]);
    uint8_t *original = malloc(sizeof(uint8_t) * 1228808);
    size_t originalSize = compression_decode_buffer(original, 1228808, [data bytes], [data length], NULL, COMPRESSION_ZLIB);

    CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
    CGContextRef newContext = CGBitmapContextCreate(original, 640, 480, 8, 2560, colorSpace, kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst);
    CGImageRef newImage = CGBitmapContextCreateImage(newContext);

    UIImage *image = [[UIImage alloc] initWithCGImage:newImage scale:1 orientation:UIImageOrientationUp];

    CGContextRelease(newContext);
    CGColorSpaceRelease(colorSpace);
    CGImageRelease(newImage);

    if (image) {
        dispatch_async(dispatch_get_main_queue(), ^{
            [((ViewerViewController *)self.childViewControllers.lastObject).view.layer setContents:(__bridge id)image.CGImage];
        });
    }
}

Хотя этот код создает изображения исходного качества на принимающей стороне, вы обнаружите, что это слишком медленно для воспроизведения в реальном времени.

Вот лучший способ сделать это:

На устройстве iOS, отправляющем данные изображения:

- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection
{
    CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);

    CVPixelBufferLockBaseAddress(imageBuffer,0);
    uint8_t *baseAddress = (uint8_t *)CVPixelBufferGetBaseAddress(imageBuffer);
    size_t bytesPerRow = CVPixelBufferGetBytesPerRow(imageBuffer);
    size_t width = CVPixelBufferGetWidth(imageBuffer);
    size_t height = CVPixelBufferGetHeight(imageBuffer);

    CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
    CGContextRef newContext = CGBitmapContextCreate(baseAddress, width, height, 8, bytesPerRow, colorSpace, kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst);
    CGImageRef newImage = CGBitmapContextCreateImage(newContext);


    UIImage *image = [[UIImage alloc] initWithCGImage:newImage scale:1 orientation:UIImageOrientationUp];
    CGImageRelease(newImage);
    CGContextRelease(newContext);
    CGColorSpaceRelease(colorSpace);
    CVPixelBufferUnlockBaseAddress(imageBuffer, 0);

    if (image) {
        NSData *data = UIImageJPEGRepresentation(image, 0.7);
        NSError *err;
        [((ViewController *)self.parentViewController).session sendData:data toPeers:((ViewController *)self.parentViewController).session.connectedPeers withMode:MCSessionSendDataReliable error:&err];
    }
}

На устройстве iOS, получающем данные изображения:

- (void)session:(nonnull MCSession *)session didReceiveData:(nonnull NSData *)data fromPeer:(nonnull MCPeerID *)peerID
{
  dispatch_async(self.imageCacheDataQueue, ^{
        dispatch_semaphore_wait(self.semaphore, DISPATCH_TIME_FOREVER);
        const void *dataBuffer = [data bytes];
        size_t dataLength = [data length];
        ImageCacheDataStruct *imageCacheDataStruct = calloc(1, sizeof(imageCacheDataStruct));
        imageCacheDataStruct->data = (void*)dataBuffer;
        imageCacheDataStruct->length = dataLength;

        __block const void * kMyKey;
        dispatch_queue_set_specific(self.imageDisplayQueue, &kMyKey, (void *)imageCacheDataStruct, NULL);

        dispatch_sync(self.imageDisplayQueue, ^{
            ImageCacheDataStruct *imageCacheDataStruct = calloc(1, sizeof(imageCacheDataStruct));
            imageCacheDataStruct = dispatch_queue_get_specific(self.imageDisplayQueue, &kMyKey);
            const void *dataBytes = imageCacheDataStruct->data;
            size_t length = imageCacheDataStruct->length;
            NSData *imageData = [NSData dataWithBytes:dataBytes length:length];
            UIImage *image = [UIImage imageWithData:imageData];
            if (image) {
                dispatch_async(dispatch_get_main_queue(), ^{
                    [((ViewerViewController *)self.childViewControllers.lastObject).view.layer setContents:(__bridge id)image.CGImage];
                    dispatch_semaphore_signal(self.semaphore);
                });
            }
        });
    });
}

Причина использования семафоров и отдельных очередей GCD проста: вы хотите, чтобы кадры отображались через равные промежутки времени. В противном случае сначала будет казаться, что видео замедляется, прямо перед тем, как ускориться намного выше обычного, чтобы наверстать упущенное. Моя схема гарантирует, что каждый кадр воспроизводится один за другим с одинаковой скоростью, независимо от узких мест в полосе пропускания сети.

person James Bush    schedule 21.08.2017