Я использую библиотеку Microsoft.MixedReality.WebRTC
и планирую использовать ее в своем следующем проекте - приложении для видеочата в реальном времени. Мне удалось установить соединение и передавать кадры видео.
Как правильно визуализировать эти кадры и отображать их как видео?
Использование WPF MediaElement
кажется довольно простым, но я могу ввести только объект Uri
в качестве источника, я не могу кормить его отдельными кадрами, AFAIK.
Я читал, что рисование растровых изображений - возможное решение, но я уверен, что это означало бы много часов на изобретение колеса и тестирование, что я не фанат, если нет другого пути.
Библиотека работает следующим образом: Каждый раз, когда клиент получает новый фрейм, возникает событие Argb32VideoFrameReady
. Затем в функцию обратного вызова передается объект структуры Argb32VideoFrame
, который содержит IntPtr
необработанных данных. Height
, Width
и Stride
также предоставляются.
Подробнее о конкретной структуре здесь
Какими способами я мог бы этого добиться?
Я планирую использовать WPF. Решение должно быть нацелено на Windows 7+ и .Net Framework 4.6.2.
Заранее благодарим.