思路
针对超过2g的大文件,通常需要将文件进行分块下载,以避免浏览器的内存溢出或者因为网络连接不稳定而导致整个下载失败的情况。
下面是一个基本的分块下载的代码样例:
async downloadfile(url, filename) {
const chunk_size = 1024 * 1024 * 10 // 每次下载10mb
const response = await fetch(url)
const contentrange = response.headers.get('content-range')
const filesize = contentrange ? number(contentrange.split('/')[1]) : response.headers.get('content-length')
const filestream = []
let offset = 0
while (offset < filesize) {
const end = math.min(offset + chunk_size, filesize)
const options = {
headers: { 'range': `bytes=${offset}-${end - 1}` }
}
const blob = await fetch(url, options).then(res => res.blob())
filestream.push(blob)
offset = end
}
const blob = new blob(filestream, { type: response.headers.get('content-type') })
saveas(blob, filename)
}
解释
这段代码使用了fetch api来下载文件,同时使用了range头来告诉服务器只需要下载文件的一部分。将文件大小分割为块,每次下载一块数据,最后将数据组合成一个blob对象进行下载。需要注意的是,如果下载的文件有content-range头,则需要先从这个头里获取文件总大小。
async downloadfile(url, filename) {
- 这段代码是一个异步函数,用于从给定的url下载大文件,并使用blob对象保存文件。
- 该函数需要传入两个参数,一个是要下载的文件的url,另外一个则是下载后要保存的文件名。
const chunk_size = 1024 * 1024 * 10 // 每次下载10mb
- 为了避免下载整个文件的时候因为内存不足而导致的错误,把文件划分成了多个大小相等的块,每次下载一个块的数据。这里设置每次下载的块为10mb。
const response = await fetch(url)
const contentrange = response.headers.get('content-range')
const filesize = contentrange ? number(contentrange.split('/')[1]) : response.headers.get('content-length')
- 使用fetch api向服务器请求数据。从响应头里获取了content-range,这个头可以告诉服务器只需要下载文件的一部分。如果不存在content-range头,那么就通过response.headers.get(‘content-length’)获取文件的总大小。
const filestream = []
let offset = 0
while (offset < filesize) {
const end = math.min(offset + chunk_size, filesize)
const options = {
headers: { 'range': `bytes=${offset}-${end - 1}` }
}
const blob = await fetch(url, options).then(res => res.blob())
filestream.push(blob)
offset = end
}
- 使用一个while循环将整个文件分块下载,每次下载一块数据。
- 循环中定义了两个变量:一个是filestream,用于保存从服务器下载的每个块;另一个则是offset,表示已经下载的数据大小。
- 在每次循环开始时,首先计算本次下载的起点和终点,然后构造一个包含range头的选项对象。将起点和终点放在range头里,这样服务器就只会返回指定范围的数据。最后,使用fetch api向服务器请求数据,并将用于保存数据的blob对象推入filestream数组中。
- 最后,更新offset的值,表示已经下载的总大小。
const blob = new blob(filestream, { type: response.headers.get('content-type') })
saveas(blob, filename)
- 在while循环结束后,将filestream数组中的所有blob对象合并为一个blob对象,并使用filesaver.js的saveas函数来将其保存在本地磁盘上。
- 需要注意的是,在blob的构造函数中传入了response.headers.get(‘content-type’),这是由于下载的文件类型不一定是常规的文件类型,所以我们需要从响应头中获取正确的文件类型。
- 以上就是该函数的所有内容,它通过将文件划分为多个块,避免了下载整个大文件时可能导致的内存溢出等问题,并且没有在浏览器中产生任何严重的内存或性能问题。
附:javascript 大文件下载,分片下载,断点续传
// status
const done = 4;
// range size
const range_size = 100;
// get content length
function getcontentlength(url) {
return new promise((resolve, reject) => {
var xhr = new xmlhttprequest();
xhr.open('head', url, true);
xhr.onreadystatechange = function () {
if (this.readystate == done) {
resolve(this.getresponseheader('content-length'));
}
}
xhr.send();
})
}
// get range content
function getrangecontent(startindex, endindex, url) {
return new promise((resolve, reject) => {
var xhr = new xmlhttprequest();
xhr.open('get', url, true);
xhr.setrequestheader('range', `bytes=${startindex}-${endindex}`);
xhr.responsetype = 'arraybuffer';
xhr.onreadystatechange = function () {
if (this.readystate == done) {
console.log(this.response)
resolve(this.response);
}
}
xhr.send();
})
}
// download arraybuffer file
function downloadarraybufferfile(arraybuffer, filename) {
const blob = new blob([arraybuffer], { type: 'application/octet-stream' });
const a = document.createelement('a');
a.href = url.createobjecturl(blob);
a.download = filename;
a.click();
}
// concat arraybuffer array
function concatarraybuffer(arraybufferarray) {
let totallength = 0;
arraybufferarray.foreach(arraybuffer => {
totallength += arraybuffer.bytelength;
});
const result = new uint8array(totallength);
let offset = 0;
arraybufferarray.foreach(arraybuffer => {
result.set(new uint8array(arraybuffer), offset);
offset += arraybuffer.bytelength;
});
return result;
}
// main methoeds
async function main() {
const fileurl = 'http://localhost:8083/public/access.txt';
const contentlength = await getcontentlength(fileurl);
const numberrequest = math.ceil(contentlength / range_size);
const arraybufferarray = [];
for (let i = 0; i < numberrequest; i++) {
const startindex = i * range_size;
const endindex = startindex + range_size - 1;
const clip = await getrangecontent(startindex, endindex, fileurl);
arraybufferarray.push(clip);
}
const result = concatarraybuffer(arraybufferarray);
downloadarraybufferfile(result, 'access.txt');
}
main();
总结
到此这篇关于js分片下载超出2g大文件的文章就介绍到这了,更多相关js分片下载超2g大文件内容请搜索代码网以前的文章或继续浏览下面的相关文章希望大家以后多多支持代码网!
发表评论