Изменить задержку воспроизведения в потоке WebRTC

Я пытаюсь транслировать MediaStream в реальном времени (в конечном итоге с камеры) с peerA на peerB, и я хочу, чтобы peerB получал прямой поток в реальном времени, а затем воспроизводил его с дополнительной задержкой. К сожалению, невозможно просто приостановить поток и возобновить воспроизведение, так как он переходит к моменту прямой трансляции.

Итак, я понял, что могу использовать MediaRecorder + SourceBuffer для просмотра прямой трансляции. Запишите поток и добавьте буферы в MSE (SourceBuffer) и воспроизведите его через 5 секунд. Это работает на локальном устройстве (потоке). Но когда я пытаюсь использовать Media Recorder на приемниках, MediaStream (от pc.onaddstream) выглядит так, как будто он получает некоторые данные и может добавить буфер в sourceBuffer. однако это доза не повторяется. иногда я получаю только один кадр.

const [pc1, pc2] = localPeerConnectionLoop()
const canvasStream = canvas.captureStream(200)

videoA.srcObject = canvasStream
videoA.play()

// Note: using two MediaRecorder at the same time seem problematic
// But this one works
// stream2mediaSorce(canvasStream, videoB)
// setTimeout(videoB.play.bind(videoB), 5000)

pc1.addTransceiver(canvasStream.getTracks()[0], {
  streams: [ canvasStream ]
})

pc2.onaddstream = (evt) => {
  videoC.srcObject = evt.stream
  videoC.play()

  // Note: using two MediaRecorder at the same time seem problematic
  // THIS DOSE NOT WORK
  stream2mediaSorce(evt.stream, videoD)
  setTimeout(() => videoD.play(), 2000)
}

/**
 * Turn a MediaStream into a SourceBuffer
 * 
 * @param  {MediaStream}      stream   Live Stream to record
 * @param  {HTMLVideoElement} videoElm Video element to play the recorded video in
 * @return {undefined}
 */
function stream2mediaSorce (stream, videoElm) {
  const RECORDER_MIME_TYPE = 'video/webm;codecs=vp9'
  const recorder = new MediaRecorder(stream, { mimeType : RECORDER_MIME_TYPE })

  const mediaSource = new MediaSource()
  videoElm.src = URL.createObjectURL(mediaSource)
  mediaSource.onsourceopen = (e) => {
    sourceBuffer = mediaSource.addSourceBuffer(RECORDER_MIME_TYPE);

    const fr = new FileReader()
    fr.onerror = console.log
    fr.onload = ({ target }) => {
      console.log(target.result)
      sourceBuffer.appendBuffer(target.result)
    }
    recorder.ondataavailable = ({ data }) => {
      console.log(data)
      fr.readAsArrayBuffer(data)
    }
    setInterval(recorder.requestData.bind(recorder), 1000)
  }

  console.log('Recorder created')
  recorder.start() 
}

Вы знаете, почему он не воспроизводит видео?

Я создал скрипт со всем необходимым кодом, чтобы опробовать его, вкладка javascript - это тот же код как указано выше (html в основном не имеет значения, и дозу изменять не нужно)

Некоторые пытаются уменьшить задержку, но я на самом деле хочу увеличить ее до ~ 10 секунд, чтобы пересмотреть что-то, что вы сделали неправильно во время игры в гольф или что-то в этом роде, и, если возможно, вообще избегайте MediaRecorder

РЕДАКТИРОВАТЬ: Я обнаружил что-то под названием "задержка воспроизведения" в каком-то расширении RTC.

что позволяет отправителю контролировать минимальную и максимальную задержку от захвата до времени рендеринга

Как я могу его использовать? Поможет ли мне это?


person Endless    schedule 08.06.2019    source источник
comment
Честно говоря, я не знаю, что здесь происходит ... Если вы сохраните все фрагменты, а затем сгенерируете из них Blob, вы увидите, что действителен только первый фрагмент. Обратите внимание: похоже, что в MediaStreamTrack срабатывают muted события. Firefox выдает ошибку SecurityError с момента запуска рекордера, например, если поток был испорчен, но в то же время они позволяют рисовать его из видео на холст и экспортировать этот холст.   -  person Kaiido    schedule 10.06.2019


Ответы (1)


Обновите, есть новая функция, которая позволит это сделать, под названием playoutDelayHint.

Мы хотим предоставить javascript-приложениям средства для установки их предпочтений относительно того, насколько быстро они хотят отображать аудио- или видеоданные. Максимально быстрая может быть выгодна для приложений, которые концентрируются на опыте в реальном времени. Для других дополнительная буферизация данных может облегчить работу в случае проблем с сетью.

Ссылки:
https://discourse.wicg.io/t/hint-attribute-in-webrtc-to-влиятьнабазовую-аудио-видео-буферизацию/4038

https://bugs.chromium.org/p/webrtc/issues/detail?id=10287

Демо: https://jsfiddle.net/75cnfojy/ я смог установить максимум 10 секунд в моем браузер, но поставщик UA должен сделать все, что в его силах, с доступными ресурсами

const [pc1, pc2] = localPeerConnectionLoop()
const canvasStream = canvas.captureStream(200)

videoA.srcObject = canvasStream
videoA.play()

pc1.addTransceiver(canvasStream.getTracks()[0], {
  streams: [ canvasStream ]
})

pc2.onaddstream = (evt) => {
  videoC.srcObject = evt.stream
  videoC.play()
}

$dur.onchange = () => {
  pc2.getReceivers()[0].playoutDelayHint = $dur.valueAsNumber
}
<!-- all the irrelevant part, that you don't need to know anything about -->
<h3 style="border-bottom: 1px solid">Original canvas</h3>
<canvas id="canvas" width="100" height="100"></canvas>
<script>
var canvas = document.getElementById("canvas");
var ctx = canvas.getContext("2d");
var radius = canvas.height / 2;
ctx.translate(radius, radius);
radius = radius * 0.90
setInterval(drawClock, 1000);

function drawClock() {
  drawFace(ctx, radius);
  drawNumbers(ctx, radius);
  drawTime(ctx, radius);
}

function drawFace(ctx, radius) {
  var grad;
  ctx.beginPath();
  ctx.arc(0, 0, radius, 0, 2*Math.PI);
  ctx.fillStyle = 'white';
  ctx.fill();
  grad = ctx.createRadialGradient(0,0,radius*0.95, 0,0,radius*1.05);
  grad.addColorStop(0, '#333');
  grad.addColorStop(0.5, 'white');
  grad.addColorStop(1, '#333');
  ctx.strokeStyle = grad;
  ctx.lineWidth = radius*0.1;
  ctx.stroke();
  ctx.beginPath();
  ctx.arc(0, 0, radius*0.1, 0, 2*Math.PI);
  ctx.fillStyle = '#333';
  ctx.fill();
}

function drawNumbers(ctx, radius) {
  var ang;
  var num;
  ctx.font = radius*0.15 + "px arial";
  ctx.textBaseline="middle";
  ctx.textAlign="center";
  for(num = 1; num < 13; num++){
    ang = num * Math.PI / 6;
    ctx.rotate(ang);
    ctx.translate(0, -radius*0.85);
    ctx.rotate(-ang);
    ctx.fillText(num.toString(), 0, 0);
    ctx.rotate(ang);
    ctx.translate(0, radius*0.85);
    ctx.rotate(-ang);
  }
}

function drawTime(ctx, radius){
    var now = new Date();
    var hour = now.getHours();
    var minute = now.getMinutes();
    var second = now.getSeconds();
    //hour
    hour=hour%12;
    hour=(hour*Math.PI/6)+
    (minute*Math.PI/(6*60))+
    (second*Math.PI/(360*60));
    drawHand(ctx, hour, radius*0.5, radius*0.07);
    //minute
    minute=(minute*Math.PI/30)+(second*Math.PI/(30*60));
    drawHand(ctx, minute, radius*0.8, radius*0.07);
    // second
    second=(second*Math.PI/30);
    drawHand(ctx, second, radius*0.9, radius*0.02);
}

function drawHand(ctx, pos, length, width) {
    ctx.beginPath();
    ctx.lineWidth = width;
    ctx.lineCap = "round";
    ctx.moveTo(0,0);
    ctx.rotate(pos);
    ctx.lineTo(0, -length);
    ctx.stroke();
    ctx.rotate(-pos);
}

function localPeerConnectionLoop(cfg = {sdpSemantics: 'unified-plan'}) {
  const setD = (d, a, b) => Promise.all([a.setLocalDescription(d), b.setRemoteDescription(d)]);
  return [0, 1].map(() => new RTCPeerConnection(cfg)).map((pc, i, pcs) => Object.assign(pc, {
    onicecandidate: e => e.candidate && pcs[i ^ 1].addIceCandidate(e.candidate),
    onnegotiationneeded: async e => {
      try {
        await setD(await pc.createOffer(), pc, pcs[i ^ 1]);
        await setD(await pcs[i ^ 1].createAnswer(), pcs[i ^ 1], pc);
      } catch (e) {
        console.log(e);
      }
    }
  }));
}
</script>
<h3 style="border-bottom: 1px solid">Local peer (PC1)</h3>
<video id="videoA" muted width="100" height="100"></video>

<h3 style="border-bottom: 1px solid">Remote peer (PC2)</h3>
<video id="videoC" muted width="100" height="100"></video>
<label> Change playoutDelayHint
<input type="number" value="1" id="$dur">
</label>

person Endless    schedule 11.10.2019