ऑडियो के लिए मीडिया सोर्स एक्सटेंशन

Dale Curtis
Dale Curtis

परिचय

मीडिया सोर्स एक्सटेंशन (एमएसई), एचटीएमएल5 <audio> और <video> एलिमेंट के लिए, ज़्यादा बफ़रिंग और प्लेबैक कंट्रोल की सुविधा देते हैं. मूल रूप से, इन्हें डाइनैमिक अडैप्टिव स्ट्रीमिंग ओवर एचटीटीपी (डीएश) पर आधारित वीडियो प्लेयर के लिए बनाया गया था. हालांकि, यहां हम देखेंगे कि इनका इस्तेमाल ऑडियो के लिए कैसे किया जा सकता है. खास तौर पर, बिना रुकावट चलने वाले ऑडियो के लिए.

हो सकता है कि आपने कोई ऐसा संगीत एल्बम सुना हो जिसमें ट्रैक के बीच में कोई रुकावट न आई हो. हो सकता है कि फ़िलहाल भी आप कोई ऐसा एल्बम सुन रहे हों. कलाकार, बिना किसी रुकावट के चलाए जाने वाले गाने इसलिए बनाते हैं, ताकि सुनने वालों को बेहतर अनुभव मिल सके. साथ ही, विनाइल रिकॉर्ड और सीडी के ज़रिए भी ऐसा किया जाता है, क्योंकि इनमें ऑडियो को एक ही स्ट्रीम में रिकॉर्ड किया जाता है. माफ़ करें, MP3 और AAC जैसे आधुनिक ऑडियो कोडेक के काम करने के तरीके की वजह से, आज अक्सर ऐसा नहीं होता.

हम इसकी वजह के बारे में नीचे बताएंगे, लेकिन अभी एक उदाहरण के साथ शुरू करते हैं. यहां Sintel के शुरुआती 30 सेकंड को पांच अलग-अलग MP3 फ़ाइलों में काटा गया है और MSE का इस्तेमाल करके फिर से जोड़ा गया है. लाल रंग की लाइनें, हर एमपी3 को बनाने (कोड में बदलने) के दौरान बने गैप को दिखाती हैं. इन गैप की वजह से, आपको आवाज़ में रुकावटें सुनाई देंगी.

डेमो

वीभत्स! यह अच्छा अनुभव नहीं है. हम इसे बेहतर बना सकते हैं. ऊपर दिए गए डेमो में मौजूद एमपी3 फ़ाइलों का इस्तेमाल करके, थोड़े और काम के साथ एमएसई का इस्तेमाल करके, उन गैप को हटाया जा सकता है. अगले डेमो में हरे रंग की लाइनों से पता चलता है कि फ़ाइलों को कहां जोड़ा गया है और अंतराल कहां हटाए गए हैं. Chrome 38 और उसके बाद के वर्शन पर, यह आसानी से चलेगा!

डेमो

बिना किसी रुकावट के वीडियो चलाने के कई तरीके हैं. इस डेमो के लिए, हम उन फ़ाइलों पर फ़ोकस करेंगे जो किसी सामान्य उपयोगकर्ता के पास हो सकती हैं. जहां हर फ़ाइल को अलग से एन्कोड किया गया है. इसमें, उससे पहले या बाद के ऑडियो सेगमेंट का ध्यान नहीं रखा गया है.

बुनियादी सेटअप

सबसे पहले, MediaSource इंस्टेंस के बुनियादी सेटअप के बारे में जानें. जैसा कि नाम से पता चलता है, मीडिया सोर्स एक्सटेंशन, मौजूदा मीडिया एलिमेंट के सिर्फ़ एक्सटेंशन हैं. यहां हम ऑडियो एलिमेंट के सोर्स एट्रिब्यूट को Object URL असाइन कर रहे हैं. यह MediaSource इंस्टेंस को दिखाता है. ठीक उसी तरह जैसे कोई स्टैंडर्ड यूआरएल सेट किया जाता है.

var audio = document.createElement('audio');
var mediaSource = new MediaSource();
var SEGMENTS = 5;

mediaSource.addEventListener('sourceopen', function() {
    var sourceBuffer = mediaSource.addSourceBuffer('audio/mpeg');

    function onAudioLoaded(data, index) {
    // Append the ArrayBuffer data into our new SourceBuffer.
    sourceBuffer.appendBuffer(data);
    }

    // Retrieve an audio segment via XHR.  For simplicity, we're retrieving the
    // entire segment at once, but we could also retrieve it in chunks and append
    // each chunk separately.  MSE will take care of assembling the pieces.
    GET('sintel/sintel_0.mp3', function(data) { onAudioLoaded(data, 0); } );
});

audio.src = URL.createObjectURL(mediaSource);

MediaSource ऑब्जेक्ट कनेक्ट होने के बाद, वह कुछ शुरुआती कार्रवाइयां करेगा और आखिर में sourceopen इवेंट ट्रिगर करेगा. इसके बाद, हम SourceBuffer बना सकते हैं. ऊपर दिए गए उदाहरण में, हम audio/mpeg टाइप का एक फ़ंक्शन बना रहे हैं, जो हमारे एमपी3 सेगमेंट को पार्स और डिकोड कर सकता है. इसके अलावा, अन्य कई टाइप भी उपलब्ध हैं.

अनियमित वेवफ़ॉर्म

हम अभी कोड पर वापस आएंगे, लेकिन अभी उस फ़ाइल पर ध्यान दें जिसे हमने अभी जोड़ा है. खास तौर पर, फ़ाइल के आखिर में. नीचे, sintel_0.mp3 ट्रैक के दोनों चैनलों के पिछले 3,000 सैंपल का औसत दिखाने वाला ग्राफ़ दिया गया है. लाल लाइन पर मौजूद हर पिक्सल, [-1.0, 1.0] की रेंज में फ़्लोटिंग पॉइंट सैंपल होता है.

sintel_0.mp3 का आखिरी हिस्सा

शून्य (साइलेंट) सैंपल का क्या मतलब है!? दरअसल, ये गड़बड़ियां, एन्कोड करने के दौरान कंप्रेस करने से जुड़ी गड़बड़ियां की वजह से होती हैं. ज़्यादातर एन्कोडर, पैडिंग का इस्तेमाल करते हैं. इस मामले में, LAME ने फ़ाइल के आखिर में 576 पैडिंग सैंपल जोड़े.

आखिर में पैडिंग के अलावा, हर फ़ाइल की शुरुआत में भी पैडिंग जोड़ी गई थी. sintel_1.mp3 ट्रैक पर आगे की ओर देखने पर, हमें पैडिंग के 576 सैंपल दिखेंगे. पैडिंग की मात्रा, एन्कोडर और कॉन्टेंट के हिसाब से अलग-अलग होती है. हालांकि, हम हर फ़ाइल में शामिल metadata के आधार पर, सटीक वैल्यू जानते हैं.

sintel_1.mp3 का शुरुआती हिस्सा

sintel_1.mp3 का शुरुआती हिस्सा

पिछली डेमो फ़ाइल में, हर फ़ाइल की शुरुआत और आखिर में कुछ समय के लिए आवाज़ नहीं होती. इस वजह से, सेगमेंट के बीच गड़बड़ियां आती हैं. बिना किसी रुकावट के वीडियो चलाने के लिए, हमें इन सेक्शन को हटाना होगा. अच्छी बात यह है कि MediaSource की मदद से, ऐसा आसानी से किया जा सकता है. नीचे, हम अडेंप विंडो और टाइमस्टैंप ऑफ़सेट का इस्तेमाल करके, इस खाली समय को हटाने के लिए, onAudioLoaded() के तरीके में बदलाव करेंगे.

कोड का उदाहरण

function onAudioLoaded(data, index) {
    // Parsing gapless metadata is unfortunately non trivial and a bit messy, so
    // we'll glaze over it here; see the appendix for details.
    // ParseGaplessData() will return a dictionary with two elements:
    //
    //    audioDuration: Duration in seconds of all non-padding audio.
    //    frontPaddingDuration: Duration in seconds of the front padding.
    //
    var gaplessMetadata = ParseGaplessData(data);

    // Each appended segment must be appended relative to the next.  To avoid any
    // overlaps, we'll use the end timestamp of the last append as the starting
    // point for our next append or zero if we haven't appended anything yet.
    var appendTime = index > 0 ? sourceBuffer.buffered.end(0) : 0;

    // Simply put, an append window allows you to trim off audio (or video) frames
    // which fall outside of a specified time range.  Here, we'll use the end of
    // our last append as the start of our append window and the end of the real
    // audio data for this segment as the end of our append window.
    sourceBuffer.appendWindowStart = appendTime;
    sourceBuffer.appendWindowEnd = appendTime + gaplessMetadata.audioDuration;

    // The timestampOffset field essentially tells MediaSource where in the media
    // timeline the data given to appendBuffer() should be placed.  I.e., if the
    // timestampOffset is 1 second, the appended data will start 1 second into
    // playback.
    //
    // MediaSource requires that the media timeline starts from time zero, so we
    // need to ensure that the data left after filtering by the append window
    // starts at time zero.  We'll do this by shifting all of the padding we want
    // to discard before our append time (and thus, before our append window).
    sourceBuffer.timestampOffset =
        appendTime - gaplessMetadata.frontPaddingDuration;

    // When appendBuffer() completes, it will fire an updateend event signaling
    // that it's okay to append another segment of media.  Here, we'll chain the
    // append for the next segment to the completion of our current append.
    if (index == 0) {
    sourceBuffer.addEventListener('updateend', function() {
        if (++index < SEGMENTS) {
        GET('sintel/sintel_' + index + '.mp3',
            function(data) { onAudioLoaded(data, index); });
        } else {
        // We've loaded all available segments, so tell MediaSource there are no
        // more buffers which will be appended.
        mediaSource.endOfStream();
        URL.revokeObjectURL(audio.src);
        }
    });
    }

    // appendBuffer() will now use the timestamp offset and append window settings
    // to filter and timestamp the data we're appending.
    //
    // Note: While this demo uses very little memory, more complex use cases need
    // to be careful about memory usage or garbage collection may remove ranges of
    // media in unexpected places.
    sourceBuffer.appendBuffer(data);
}

सीमलेस वेवफ़ॉर्म

आइए, अडेंप वंडो लागू करने के बाद, वेवफ़ॉर्म को फिर से देखकर जानें कि हमारा नया कोड क्या कर सकता है. यहां, sintel_0.mp3 के आखिर में मौजूद साइलेंट सेगमेंट (लाल रंग में) और sintel_1.mp3 की शुरुआत में मौजूद साइलेंट सेगमेंट (नीले रंग में) को हटा दिया गया है. इससे, सेगमेंट के बीच आसानी से ट्रांज़िशन किया जा सकता है.

sintel_0.mp3 और sintel_1.mp3 को जोड़ना

नतीजा

इस तरह, हमने सभी पांच सेगमेंट को आसानी से एक साथ जोड़ दिया है. साथ ही, हम अपने डेमो के आखिरी पड़ाव पर पहुंच चुके हैं. आखिर में, आपको यह पता चल गया होगा कि हमारे onAudioLoaded() तरीके में कंटेनर या कोडेक का कोई ध्यान नहीं रखा जाता. इसका मतलब है कि ये सभी तकनीकें, कंटेनर या कोडेक टाइप के बावजूद काम करेंगी. यहां दिए गए लिंक पर, MP3 के बजाय DASH के लिए तैयार किए गए ओरिजनल डेमो के फ़्रैगमेंट किए गए MP4 को फिर से चलाया जा सकता है.

डेमो

अगर आपको इस बारे में ज़्यादा जानना है, तो गैपलेस कॉन्टेंट बनाने और मेटाडेटा पार्स करने के बारे में ज़्यादा जानने के लिए, यहां दिए गए ऐपेंडिक्स देखें. इस डेमो को चलाने वाले कोड के बारे में ज़्यादा जानने के लिए, gapless.js को भी एक्सप्लोर किया जा सकता है.

पढ़ने के लिए धन्यवाद!

परिशिष्ट A: बिना किसी रुकावट के चलने वाला कॉन्टेंट बनाना

बिना किसी रुकावट के वीडियो चलाने की सुविधा देने वाला कॉन्टेंट बनाना मुश्किल हो सकता है. यहां हम इस डेमो में इस्तेमाल किए गए Sintel मीडिया को बनाने का तरीका बताएंगे. शुरू करने के लिए, आपको Sintel के लॉसलेस FLAC साउंडट्रैक की कॉपी की ज़रूरत होगी. आने वाले समय में, SHA1 को शामिल किया गया है. टूल के लिए, आपको FFmpeg, MP4Box, LAME, और afconvert के साथ OSX इंस्टॉलेशन की ज़रूरत होगी.

unzip Jan_Morgenstern-Sintel-FLAC.zip
sha1sum 1-Snow_Fight.flac
# 0535ca207ccba70d538f7324916a3f1a3d550194  1-Snow_Fight.flac

सबसे पहले, हम 1-Snow_Fight.flac ट्रैक के पहले 31.5 सेकंड को अलग कर देंगे. हम 28 सेकंड के बाद, 2.5 सेकंड के लिए वीडियो को धीरे-धीरे कम करना चाहते हैं, ताकि वीडियो खत्म होने के बाद किसी भी तरह का क्लिक न हो. नीचे दी गई FFmpeg कमांड लाइन का इस्तेमाल करके, हम यह सब कर सकते हैं और नतीजों को sintel.flac में डाल सकते हैं.

ffmpeg -i 1-Snow_Fight.flac -t 31.5 -af "afade=t=out:st=28:d=2.5" sintel.flac

इसके बाद, हम फ़ाइल को पांच वेव फ़ाइलों में बांट देंगे. हर फ़ाइल की अवधि 6.5 सेकंड होगी. वेव का इस्तेमाल करना सबसे आसान होता है, क्योंकि ज़्यादातर एन्कोडर इसे डालने की सुविधा देते हैं. फिर से, FFmpeg की मदद से यह काम सटीक तरीके से किया जा सकता है. इसके बाद, हमारे पास: sintel_0.wav, sintel_1.wav, sintel_2.wav, sintel_3.wav, और sintel_4.wav होंगे.

ffmpeg -i sintel.flac -acodec pcm_f32le -map 0 -f segment \
        -segment_list out.list -segment_time 6.5 sintel_%d.wav

इसके बाद, चलिए MP3 फ़ाइलें बनाते हैं. LAME में, गैपलेस कॉन्टेंट बनाने के कई विकल्प हैं. अगर आपके पास कॉन्टेंट को कंट्रोल करने का विकल्प है, तो सभी फ़ाइलों को एक साथ एन्कोड करने के लिए, --nogap का इस्तेमाल करें. इससे सेगमेंट के बीच पैडिंग की समस्या से बचा जा सकता है. हालांकि, इस डेमो के लिए, हमें पैडिंग चाहिए. इसलिए, हम वेव फ़ाइलों के लिए, स्टैंडर्ड अच्छी क्वालिटी वाले VBR कोडिंग का इस्तेमाल करेंगे.

lame -V=2 sintel_0.wav sintel_0.mp3
lame -V=2 sintel_1.wav sintel_1.mp3
lame -V=2 sintel_2.wav sintel_2.mp3
lame -V=2 sintel_3.wav sintel_3.mp3
lame -V=2 sintel_4.wav sintel_4.mp3

MP3 फ़ाइलें बनाने के लिए, आपको बस इतना करना होगा. अब हम अलग-अलग हिस्सों में बंटी MP4 फ़ाइलों को बनाने के बारे में बताएंगे. हम iTunes के लिए मास्टर्ड किया गया मीडिया बनाने के लिए, Apple के निर्देशों का पालन करेंगे. यहां, हम निर्देशों के मुताबिक वेव फ़ाइलों को इंटरमीडियरी CAF फ़ाइलों में बदल देंगे. इसके बाद, सुझाए गए पैरामीटर का इस्तेमाल करके, उन्हें MP4 कंटेनर में AAC के तौर पर एन्कोड कर देंगे.

afconvert sintel_0.wav sintel_0_intermediate.caf -d 0 -f caff \
            --soundcheck-generate
afconvert sintel_1.wav sintel_1_intermediate.caf -d 0 -f caff \
            --soundcheck-generate
afconvert sintel_2.wav sintel_2_intermediate.caf -d 0 -f caff \
            --soundcheck-generate
afconvert sintel_3.wav sintel_3_intermediate.caf -d 0 -f caff \
            --soundcheck-generate
afconvert sintel_4.wav sintel_4_intermediate.caf -d 0 -f caff \
            --soundcheck-generate
afconvert sintel_0_intermediate.caf -d aac -f m4af -u pgcm 2 --soundcheck-read \
            -b 256000 -q 127 -s 2 sintel_0.m4a
afconvert sintel_1_intermediate.caf -d aac -f m4af -u pgcm 2 --soundcheck-read \
            -b 256000 -q 127 -s 2 sintel_1.m4a
afconvert sintel_2_intermediate.caf -d aac -f m4af -u pgcm 2 --soundcheck-read \
            -b 256000 -q 127 -s 2 sintel_2.m4a
afconvert sintel_3_intermediate.caf -d aac -f m4af -u pgcm 2 --soundcheck-read \
            -b 256000 -q 127 -s 2 sintel_3.m4a
afconvert sintel_4_intermediate.caf -d aac -f m4af -u pgcm 2 --soundcheck-read \
            -b 256000 -q 127 -s 2 sintel_4.m4a

हमारे पास अब कई M4A फ़ाइलें हैं. MediaSource के साथ इस्तेमाल करने से पहले, हमें उन्हें सही तरीके से फ़्रैगमेंट करना होगा. हम अपने काम के लिए, एक सेकंड के फ़्रैगमेंट का इस्तेमाल करेंगे. MP4Box, हर फ़्रैगमेंट किए गए MP4 को sintel_#_dashinit.mp4 के तौर पर लिखेगा. साथ ही, एक MPEG-DASH मेनिफ़ेस्ट (sintel_#_dash.mpd) भी लिखेगा, जिसे खारिज किया जा सकता है.

MP4Box -dash 1000 sintel_0.m4a && mv sintel_0_dashinit.mp4 sintel_0.mp4
MP4Box -dash 1000 sintel_1.m4a && mv sintel_1_dashinit.mp4 sintel_1.mp4
MP4Box -dash 1000 sintel_2.m4a && mv sintel_2_dashinit.mp4 sintel_2.mp4
MP4Box -dash 1000 sintel_3.m4a && mv sintel_3_dashinit.mp4 sintel_3.mp4
MP4Box -dash 1000 sintel_4.m4a && mv sintel_4_dashinit.mp4 sintel_4.mp4
rm sintel_{0,1,2,3,4}_dash.mpd

हो गया! अब हमारे पास फ़्रैगमेंट वाली MP4 और MP3 फ़ाइलें हैं. इनमें गैपलेस प्लेलबैक के लिए ज़रूरी सही मेटाडेटा है. मेटाडेटा कैसा दिखता है, इस बारे में ज़्यादा जानकारी के लिए, परिशिष्ट B देखें.

अपेंडिक्स B: गैपलेस मेटाडेटा को पार्स करना

गैपलेस कॉन्टेंट बनाने की तरह ही, गैपलेस मेटाडेटा को पार्स करना भी मुश्किल हो सकता है. ऐसा इसलिए, क्योंकि स्टोरेज के लिए कोई स्टैंडर्ड तरीका नहीं है. यहां हम बताएंगे कि सबसे ज़्यादा इस्तेमाल होने वाले दो एन्कोडर, LAME और iTunes, गैपलेस मेटाडेटा को कैसे सेव करते हैं. आइए, ऊपर इस्तेमाल किए गए ParseGaplessData() के लिए, कुछ सहायक तरीके और आउटलाइन सेट अप करके शुरुआत करते हैं.

// Since most MP3 encoders store the gapless metadata in binary, we'll need a
// method for turning bytes into integers.  Note: This doesn't work for values
// larger than 2^30 since we'll overflow the signed integer type when shifting.
function ReadInt(buffer) {
    var result = buffer.charCodeAt(0);
    for (var i = 1; i < buffer.length; ++i) {
    result <<../= 8;
    result += buffer.charCodeAt(i);
    }
    return result;
}

function ParseGaplessData(arrayBuffer) {
    // Gapless data is generally within the first 512 bytes, so limit parsing.
    var byteStr = new TextDecoder().decode(arrayBuffer.slice(0, 512));

    var frontPadding = 0, endPadding = 0, realSamples = 0;

    // ... we'll fill this in as we go below.

हम सबसे पहले Apple के iTunes मेटाडेटा फ़ॉर्मैट के बारे में बताएंगे, क्योंकि इसे पार्स करना और इसके बारे में बताना सबसे आसान है. MP3 और M4A फ़ाइलों में, iTunes (और afconvert) ASCII में एक छोटा सेक्शन लिखता है. यह सेक्शन इस तरह दिखता है:

iTunSMPB[ 26 bytes ]0000000 00000840 000001C0 0000000000046E00

यह MP3 कंटेनर में मौजूद ID3 टैग और MP4 कंटेनर में मौजूद मेटाडेटा एटम में लिखा जाता है. अपने काम के लिए, हम पहले 0000000 टोकन को अनदेखा कर सकते हैं. अगले तीन टोकन, फ़्रंट पैडिंग, आखिर में जोड़ी गई पैडिंग, और बिना पैडिंग वाले सैंपल की कुल संख्या होते हैं. इनमें से हर एक को ऑडियो के सैंपल रेट से भाग देने पर, हमें हर एक की अवधि मिलती है.

// iTunes encodes the gapless data as hex strings like so:
//
//    'iTunSMPB[ 26 bytes ]0000000 00000840 000001C0 0000000000046E00'
//    'iTunSMPB[ 26 bytes ]####### frontpad  endpad    real samples'
//
// The approach here elides the complexity of actually parsing MP4 atoms. It
// may not work for all files without some tweaks.
var iTunesDataIndex = byteStr.indexOf('iTunSMPB');
if (iTunesDataIndex != -1) {
    var frontPaddingIndex = iTunesDataIndex + 34;
    frontPadding = parseInt(byteStr.substr(frontPaddingIndex, 8), 16);

    var endPaddingIndex = frontPaddingIndex + 9;
    endPadding = parseInt(byteStr.substr(endPaddingIndex, 8), 16);

    var sampleCountIndex = endPaddingIndex + 9;
    realSamples = parseInt(byteStr.substr(sampleCountIndex, 16), 16);
}

दूसरी ओर, ज़्यादातर ओपन सोर्स एमपी3 एन्कोडर, गैपलेस मेटाडेटा को एक खास Xing हेडर में सेव करेंगे. यह हेडर, साइलेंट एमपीईजी फ़्रेम में होता है. यह साइलेंट इसलिए होता है, ताकि Xing हेडर को न समझने वाले डिकोडर सिर्फ़ साइलेंट चला सकें. माफ़ करें, यह टैग हमेशा मौजूद नहीं होता और इसमें कई वैकल्पिक फ़ील्ड होते हैं. इस डेमो के लिए, हमारे पास मीडिया को कंट्रोल करने का विकल्प है. हालांकि, असल में गैपलेस मेटाडेटा कब उपलब्ध होगा, यह जानने के लिए कुछ और जांच की ज़रूरत होगी.

सबसे पहले, हम सैंपल की कुल संख्या को पार्स करेंगे. आसानी के लिए, हम इसे Xing हेडर से पढ़ेंगे. हालांकि, इसे सामान्य एमपीईजी ऑडियो हेडर से भी बनाया जा सकता है. Xing हेडर को Xing या Info टैग से मार्क किया जा सकता है. इस टैग के ठीक चार बाइट बाद, 32-बिट होते हैं, जो फ़ाइल में फ़्रेम की कुल संख्या दिखाते हैं. इस वैल्यू को हर फ़्रेम के सैंपल की संख्या से गुणा करने पर, हमें फ़ाइल में मौजूद कुल सैंपल मिलेंगे.

// Xing padding is encoded as 24bits within the header.  Note: This code will
// only work for Layer3 Version 1 and Layer2 MP3 files with XING frame counts
// and gapless information.  See the following document for more details:
// http://www.codeproject.com/Articles/8295/MPEG-Audio-Frame-Header
var xingDataIndex = byteStr.indexOf('Xing');
if (xingDataIndex == -1) xingDataIndex = byteStr.indexOf('Info');
if (xingDataIndex != -1) {
    // See section 2.3.1 in the link above for the specifics on parsing the Xing
    // frame count.
    var frameCountIndex = xingDataIndex + 8;
    var frameCount = ReadInt(byteStr.substr(frameCountIndex, 4));

    // For Layer3 Version 1 and Layer2 there are 1152 samples per frame.  See
    // section 2.1.5 in the link above for more details.
    var paddedSamples = frameCount * 1152;

    // ... we'll cover this below.

अब हमारे पास सैंपल की कुल संख्या है. अब हम पैडिंग सैंपल की संख्या पढ़ सकते हैं. आपके एन्कोडर के आधार पर, यह Xing हेडर में नेस्ट किए गए LAME या Lavf टैग में लिखा जा सकता है. इस हेडर के ठीक 17 बाइट के बाद, तीन बाइट होते हैं. ये बाइट, फ़्रंट और आखिर में मौजूद पैडिंग को दिखाते हैं. इनमें से हर बाइट में 12-बिट होते हैं.

xingDataIndex = byteStr.indexOf('LAME');
if (xingDataIndex == -1) xingDataIndex = byteStr.indexOf('Lavf');
if (xingDataIndex != -1) {
    // See http://gabriel.mp3-tech.org/mp3infotag.html#delays for details of
    // how this information is encoded and parsed.
    var gaplessDataIndex = xingDataIndex + 21;
    var gaplessBits = ReadInt(byteStr.substr(gaplessDataIndex, 3));

    // Upper 12 bits are the front padding, lower are the end padding.
    frontPadding = gaplessBits >> 12;
    endPadding = gaplessBits & 0xFFF;
}

realSamples = paddedSamples - (frontPadding + endPadding);
}

return {
audioDuration: realSamples * SECONDS_PER_SAMPLE,
frontPaddingDuration: frontPadding * SECONDS_PER_SAMPLE
};
}

इससे, हम ज़्यादातर गैपलेस कॉन्टेंट को पार्स कर सकते हैं. हालांकि, ऐसे कई मामले हैं जिनमें ऐसा नहीं होता. इसलिए, प्रोडक्शन में मिलते-जुलते कोड का इस्तेमाल करने से पहले सावधानी बरतने का सुझाव दिया जाता है.

अपेंडिक्स C: गार्बेज कलेक्शन के बारे में जानकारी

कॉन्टेंट टाइप, प्लैटफ़ॉर्म की तय सीमा, और वीडियो चलाने की मौजूदा स्थिति के हिसाब से, SourceBuffer इंस्टेंस से जुड़ी मेमोरी को कचरा इकट्ठा करने की प्रोसेस के तहत लगातार हटाया जाता है. Chrome में, पहले से चल रहे बफ़र से मेमोरी वापस ली जाएगी. हालांकि, अगर मेमोरी का इस्तेमाल, प्लैटफ़ॉर्म के हिसाब से तय की गई सीमाओं से ज़्यादा हो जाता है, तो यह मेमोरी को उन बफ़र से हटा देगा जिन्हें चलाया नहीं गया है.

जब वीडियो चलाने के दौरान, रिक्लेम की गई मेमोरी की वजह से टाइमलाइन में कोई गैप दिखता है, तो वीडियो में रुकावट आ सकती है. हालांकि, अगर गैप छोटा है, तो वीडियो में रुकावट नहीं आएगी. वहीं, अगर गैप काफ़ी बड़ा है, तो वीडियो पूरी तरह से रुक सकता है. दोनों ही स्थितियों में, उपयोगकर्ता अनुभव अच्छा नहीं होता. इसलिए, एक साथ बहुत ज़्यादा डेटा जोड़ने से बचना चाहिए. साथ ही, मीडिया टाइमलाइन से उन रेंज को मैन्युअल तरीके से हटाना चाहिए जो अब ज़रूरी नहीं हैं.

हर SourceBuffer पर, remove() तरीके से रेंज हटाई जा सकती हैं. इससे [start, end] रेंज को हटाने में कुछ सेकंड लगते हैं. appendBuffer() की तरह ही, हर remove() पूरा होने पर एक updateend इवेंट ट्रिगर होगा. इवेंट ट्रिगर होने तक, अन्य डेटा हटाने या जोड़ने की कार्रवाइयां नहीं की जानी चाहिए.

डेस्कटॉप पर Chrome में, एक बार में करीब 12 मेगाबाइट का ऑडियो कॉन्टेंट और 150 मेगाबाइट का वीडियो कॉन्टेंट मेमोरी में सेव किया जा सकता है. आपको सभी ब्राउज़र या प्लैटफ़ॉर्म पर इन वैल्यू पर भरोसा नहीं करना चाहिए. उदाहरण के लिए, ये वैल्यू मोबाइल डिवाइसों के बारे में नहीं बताती हैं.

ग़ैर-ज़रूरी डेटा हटाने की प्रोसेस से, सिर्फ़ SourceBuffers में जोड़े गए डेटा पर असर पड़ता है. JavaScript वैरिएबल में कितना डेटा बफ़र किया जा सकता है, इस पर कोई सीमा नहीं है. ज़रूरत पड़ने पर, उसी डेटा को उसी जगह पर फिर से जोड़ा जा सकता है.