Всем привет,
Я пытаюсь реализовать потоковое видео с малой задержкой, используя WebRTC. Я пишу свой код на C ++ (websocket и т. Д.), Использую только сигнальный сервер webrtc, написанный на Python (ref1). Когда я использую веб-камеру, у меня нет проблем с потоковой передачей видео клиенту, однако я пытаюсь использовать камеру FLIR, у меня возникает много проблем при внедрении. Я хочу прояснить несколько вопросов. Надеюсь, вы дадите мне несколько рекомендаций.
- Есть ли какой-то конкретный тип данных, который я должен сделать конвейером для webrtc в качестве источника? Я просто хотел бы знать, какие данные я должен отправлять в качестве источника в webrtc?
- Я пытаюсь отправить изображение, чтобы проверить, правильно ли работает моя реализация WebRTC (кроме веб-камеры), это дает мне ошибку: конвейер пуст. Что может вызвать эту проблему? На самом деле это основная проблема, почему я хотел бы знать тип данных и т. Д., Чтобы понять, что именно я должен передать в webrtc.
ref1: https://github.com/centricular/gstwebrtc-demos/tree/master/signalling
P.S.:
- Клиент и Jetson Nano в сети
- Сервер сигналов работает на Jetson Nano