当前位置: 代码网 > it编程>编程语言>Java > 大数据实战——基于Hadoop的Mapreduce编程实践案例的设计与实现

大数据实战——基于Hadoop的Mapreduce编程实践案例的设计与实现

2024年07月31日 Java 我要评论
通过充分利用分布式计算,Hadoop实现了对大规模数据的高效处理,使得复杂的数据分析任务变得可管理和高效。通过这一实践案例,我们可以深入了解Hadoop的MapReduce编程模型,以及如何在实际应用中利用其优势来处理和分析海量数据。

一、数据排序案例的设计与实现

1.1设计思路

在这里插入图片描述

图1:maxcompute mapreduce各个阶段思路设计

设计思路分析分为六个模块:input输入数据、splitting拆分、mapping映射、shuffing派发、reducing缩减、final result输出。
输入数据:直接读入文本不进行分片,数据项本身作为单个map worker的输入。
map阶段:map处理输入,每获取一个数字,将数字的count设置为1,并将此<word, count>对输出,此时以word作为输出数据的key。
shuffle>合并排序:在shuffle阶段前期,首先对每个map worker的输出,按照key值(即word值)进行排序。排序后进行combiner操作,即将key值(word值)相同的count累加,构成新的<word, count>对。此过程被称为合并排序。
shuffle>分配reduce:在shuffle阶段后期,数据被发送到reduce端。reduce worker收到数据后依赖key值再次对数据排序。此时进行数据项目复制,将key复制一份赋值给value,设计新的排序模式。
reduce阶段:每个reduce worker对数据进行处理时,采用value的值作为新的排序规则(从小到大),每一个key值都会自动绑定一个全局的index,用于记录输出的排序序列号,得到输出结果。
输出结果:数据在hadoop服务器上展示。

1.2实践过程

在这里插入图片描述

图2:代码设计
代码:

import java.io.ioexception;
import org.apache.hadoop.conf.configuration;
import org.apache.hadoop.fs.path;
import org.apache.hadoop.io.intwritable;
import org.apache.hadoop.io.text;
import org.apache.hadoop.mapreduce.job;
import org.apache.hadoop.mapreduce.mapper;
import org.apache.hadoop.mapreduce.reducer;
import org.apache.hadoop.mapreduce.lib.input.fileinputformat;
import org.apache.hadoop.mapreduce.lib.output.fileoutputformat;
import org.apache.hadoop.util.genericoptionsparser;
public class spark {
    public static class map extends mapper<object, text, intwritable, intwritable> {
        private static intwritable data = new intwritable();
        @override
        public void map(object key, text value, context context) throws ioexception, interruptedexception {
            string line = value.tostring();
            data.set(integer.parseint(line));
            context.write(data, new intwritable(1));
        }
    }
    public static class reduce extends reducer<intwritable, intwritable, intwritable, intwritable> {
        private static intwritable linenum = new intwritable(1);
        @override
        public void reduce(intwritable key, iterable<intwritable> values, context context)
                throws ioexception, interruptedexception {
            for (intwritable val : values) {
                context.write(linenum, key);
                linenum = new intwritable(linenum.get() + 1);}}}
    public static void main(string[] args) throws exception {
        configuration conf = new configuration();
        // 这句话很关键
        // conf.set("mapred.job.tracker", "192.168.1.2:9001");
        string[] otherargs = new genericoptionsparser(conf, args).getremainingargs();
        if (otherargs.length != 2) {
            system.err.println("usage: data sort <in> <out>");
            system.exit(2);
        }
        job job = job.getinstance(conf, "spark");
        job.setjarbyclass(spark.class);
        // 设置 map 和 reduce 处理类
        job.setmapperclass(map.class);
        job.setreducerclass(reduce.class);
        // 设置输出类型
        job.setoutputkeyclass(intwritable.class);
        job.setoutputvalueclass(intwritable.class);
        // 设置输入和输出目录
        fileinputformat.setinputpaths(job, new path("hdfs://localhost:9000/spark/datafile6.txt"));
        fileoutputformat.setoutputpath(job, new path("hdfs://localhost:9000/spark/output1"));
        system.exit(job.waitforcompletion(true) ? 0 : 1);
    }
}

在这里插入图片描述
在这里插入图片描述
图3:将项目打包方便后续在hadoop服务器上运行

在这里插入图片描述

图4:执行相关指令(文件上传分布式+运行jar包)

1.3成果展示+数据可视化分析

在这里插入图片描述

图5:排序输出各个国家世界杯累计胜场
在这里插入图片描述

图6:2022卡塔尔世界杯累计胜场数目柱状图

在这里插入图片描述
在这里插入图片描述

图7:2022卡塔尔世界杯累计胜场数-fifa官方数据

分析:根据数据可视化的结果不难发现,巴西、德国、意大利、阿根廷四个国家的总胜场数超过其他国家,位列世界杯第一届至第二十二届胜场数top3,因此我们大胆预测在2026年举行的第二十三届世界杯上最有可能取得冠亚军的队伍就是巴西和德国队。按照截止到二十一届俄罗斯世界杯胜场数来看,阿根廷、德国、巴西三个国家最有可能登顶冠军,二十二届世界杯的冠军就是阿根廷,因此数据分析是有说服力的。同时我们仍然可以对输入的数据进行改造,譬如按照胜场数/比赛场数来计算胜率,并按照胜率的结果估算出最有可能成为冠亚军的队伍,将intwritable类换成floatwritable类作为输入数据的类型。
在这里插入图片描述

图8:排序爱奇艺舆情热度单日榜单数据

在这里插入图片描述

图9:排序爱奇艺舆情热度单日榜单数据扇形图(12月27日)

在这里插入图片描述
在这里插入图片描述

图10:爱奇艺舆情热度灯塔数据专业版

根据大数据可视化扇形图,在12月27日当天用户在爱奇艺平台讨论的热播剧中:回来的女儿、月歌行、风吹半夏三部剧位列前三,说明用户对于悬疑题材、仙侠题材、现实主义题材比较感兴趣,对于东北插班生、危险爱人这种现代偶像剧接受度不高,同时我们大胆的预测,在12月28日当天,回来的女儿仍然可以以大优势位居舆情榜单榜首,月歌行、风吹半夏、卿卿日常等剧集差距不大仍有赶超“上位”的可能。

在这里插入图片描述

图11:nba常规球赛胜场分数排序

在这里插入图片描述

图12:nba常规球赛胜场分数柱状图

在这里插入图片描述

图13:nba常规球赛胜场情况统计(数据来自体育赛事官网)

在2022年nba常规赛事中,犹他爵士篮球队以大比分的优势取得年冠,评选年度mvp最佳篮球手的殊荣将以47.11%的概率入驻犹他爵士篮球队,其中波士顿 凯尔特人篮球队也有机会实现反超,于此同时国王球队评分垫底,可能无缘出圈12强赛事战队。

二、求数据平均值案例的设计与实现

2.1设计思路

在这里插入图片描述

图14:average the data mapreduce各个阶段思路设计

设计思路分析分为六个模块:input输入数据、splitting拆分、mapping映射、shuffing派发、average求平均、final result输出。
input输入数据:直接读入自定义文本数据,不进行分片,数据项本身作为单个map worker的输入。求数据平均值设计数据如下图所示:
在这里插入图片描述

图15:average the data测试数据设计

splitting拆分:即将input输入的数据进行一一拆分到每个运行处理模块中,让系统进行对数据的拆分与分解分析工作。
map阶段:在mapreduce里排序默认是按照自然排序的,且只能对key进行排序,所以第一步需要包装一个实体类做key,所以在map处理输入,每获取一个蔬菜,将不同蔬菜的一个月内价格变化数目number设置为n,并将此<vegetables, number>对输出,此时以number作为输出数据的key,同时将自动或手动为index中的每月平均蔬菜价格数据变化建立的一种数据结构和相关配置。
shuffle派发:在shuffle阶段前期,首先对每个map worker的输出按照key值(即word值)进行相应派发与分配,将每一种蔬菜每天对应的价格派发后进行combiner操作,即将key值(word值)count累加,进行average。
final result输出结果:数据进行average求平均成功后,会将结果在hadoop服务器上展示。

2.2实践过程

在这里插入图片描述

图16:打开hdfs
在终端输入./sbin/start-dfs.sh启动hdfs。

在这里插入图片描述

图17:确定hadoop处于启动状态
通过输入jps确定hadoop处于启动状态。

在这里插入图片描述

图18:上传到hdfs的data目录
在终端输入命令:bin/hdfs dfs -put /home/hadoop/downloads/cai.txt data将cai.txt文件上传到hdfs的data目录下。
在终端输入命令:bin/hdfs dfs -ls data查看data目录下的内容,可以看到我们已经成功将cai.txt文件上传到hdfs的data目录下。

在这里插入图片描述

图19:查看cai.txt文件内容
在终端输入命令:bin/hdfs dfs -text data/cai.txt查看cai.txt文件内容。

2.3编写java程序并运行文件

在这里插入图片描述

图20:java程序代码
代码:

package mapreduce;

import java.io.ioexception;
import java.util.stringtokenizer;
import org.apache.hadoop.conf.configuration;
import org.apache.hadoop.fs.path;
import org.apache.hadoop.io.text;
import org.apache.hadoop.mapreduce.job;
import org.apache.hadoop.mapreduce.mapper;
import org.apache.hadoop.mapreduce.reducer;
import org.apache.hadoop.mapreduce.lib.input.fileinputformat;
import org.apache.hadoop.mapreduce.lib.output.fileoutputformat;
import org.apache.hadoop.io.doublewritable;
import org.apache.hadoop.io.longwritable;

public class scoresort {
    public static class scoresortmapper extends mapper<longwritable, text, text, doublewritable> {
        private final text k2 = new text();
        private final doublewritable v2 = new doublewritable();
        @override
        protected void map(longwritable key, text value, context context) throws ioexception, interruptedexception {
            // 通过空格进行分割
            stringtokenizer tokenizer = new stringtokenizer(value.tostring());
            // 迭代拿出
            while (tokenizer.hasmoretokens()) {
                k2.set(tokenizer.nexttoken());
                v2.set(double.parsedouble(tokenizer.nexttoken()));
                context.write(k2, v2);
            }
        }
    }

    public static class scoresortreduce extends reducer<text, doublewritable, text, doublewritable> {
        @override
        protected void reduce(text key, iterable<doublewritable> values, context context) throws ioexception, interruptedexception {
            double sum = 0;
            int count = 0;
            for (doublewritable val : values) {
                sum += val.get();
                count++;
            }
            context.write(key, new doublewritable(sum / count));
        }
    }

    public static void main(string[] args) throws ioexception, classnotfoundexception, interruptedexception {
        /* 配置文件 */
        configuration config = new configuration();
        job job = job.getinstance(config, "app");
        /* mapper操作 */
        job.setmapperclass(scoresortmapper.class);
        /* 设置map后输出数据类型,如果不设置会默认输出<intwritable,text>类型,会报错 */
        job.setmapoutputkeyclass(text.class);
        job.setmapoutputvalueclass(doublewritable.class);
        /* 设置输出文件类型 */
        job.setoutputkeyclass(text.class);
        job.setoutputvalueclass(doublewritable.class);
        /* combiner操作 */
        job.setcombinerclass(scoresortreduce.class);
        /* reduce操作 */
        job.setreducerclass(scoresortreduce.class);
        /* 设置输入、输出目录,输出目录不能存在 */
        /* 设置输入输出的目录 */
        path inputpath = new path("hdfs://localhost:9000/user/hadoop/data/cai.txt");
        path outpath = new path("hdfs://localhost:9000/out4");
        /* 设置需要计算的文件 */
        fileinputformat.addinputpath(job, inputpath);
        /* 删除多余的目录 */
        //mputil.deloutput(config, outpath);
        fileoutputformat.setoutputpath(job, outpath);
        /* 0表示正常退出,1表示错误退出 */
        system.exit(job.waitforcompletion(true) ? 0 : 1);
    }
}

在这里插入图片描述

图21:scoresort工程打包生成sort.jar

在这里插入图片描述

图22:查看是否打包成功
在进入myapp目录下终端输入命令:ls,可以看到,“/usr/local/hadoop/myapp”目录下已经存在一个sort.jar文件。

在这里插入图片描述

图23:使用hadoop jar命令运行程序
在终端输入命令:./bin/hadoop jar ./myapp/sort.jar.jar运行打包的程序。

在这里插入图片描述

图24:运行结果
结果已经被写入了hdfs的“/user/hadoop/out4”目录中。

2.4成果展示+数据可视化分析

在这里插入图片描述

图25:查看输出文件内容
在终端输入命令:bin/hdfs dfs -cat /out4/*查看输出文件内容.

在这里插入图片描述

图26:2022年12月份大白菜价格变化图
表格数据中可分析出,大白菜的最高价格为1.26元/公斤,最低价格为1.15元/公斤,平均价格为1.22元/公斤,中位数价格为1.19元/公斤,当前价格处于中间。

在这里插入图片描述

图27:2022年12月份洋白菜价格变化图
洋白菜的最高价格为1.66元/公斤,最低价格为1.41元/公斤,平均价格为1.49元/公斤,中位数价格为1.50元/公斤,当前价格处于高位。

在这里插入图片描述

图28:2022年12月份油菜价格变化图
油菜的最高价格为4.48元/公斤,最低价格为2.93元/公斤,平均价格为3.32元/公斤,中位数价格为3.64元/公斤,当前价格处于高位。

在这里插入图片描述

图29:2022年12月份菠菜价格变化图
菠菜的最高价格为6.40元/公斤,最低价格为4.42元/公斤,平均价格为4.77元/公斤,中位数价格为5.17元/公斤,当前价格处于高位。

在这里插入图片描述

图30:2022年12月份韭菜价格变化图
韭菜的最高价格为6.80元/公斤,最低价格为5.06元/公斤,平均价格为5.44元/公斤,中位数价格为6.17元/公斤,当前价格处于高位。

在这里插入图片描述

图31:2022年12月份白萝卜价格变化图
白萝卜的最高价格为1.55元/公斤,最低价格为1.39元/公斤,平均价格为1.50元/公斤,中位数价格为1.48元/公斤,当前价格处于高位。

在这里插入图片描述

图32:2022年12月份蔬菜价格变化雷达图

分析:蔬菜价格整体随时间增长逐渐增高,“前低后高”,呈斜“n”分布态势,变化图来看,2022年12月份全国主要蔬菜批发均价在中旬起逐渐走高,价格在1.26~5.97元/kg之间波动,此后在波动中上升较明显,总体来看整个月份菜价“前低后高”,上半个月的平均菜价明显低于下半个月,呈现出斜“n”分布态势。
价格整体波动幅度缩小,价格的波动幅度指某个产品一年中的高低价差与一年中最低价的比值。从图表显示数据和linux系统运行得出的average data可得,2022年我国大白菜平均价格为1.25元/公斤,油菜平均价格为3.32元/公斤,洋白菜平均价格为1.50元/公斤,白萝卜平均价格为1.50元/公斤,菠菜平均价格为4.77元/公斤,韭菜平均价格为5.44元/公斤,蔬菜平均最高值5.97元/kg,最低值为1.10元/kg,高低价差为4.87元/kg,波动幅度为27.6%,为近6年来最小波幅,也是近年来波幅低于30%的唯一月份。波幅缩小表明蔬菜供应淡旺季区别不明显,蔬菜均衡供应能力进一步增强。
在这里插入图片描述

图33:2022年12月份蔬菜价格变化柱状图

三、基于hadoop的pagerank算法实现

3.1设计思路

1、首先mapreduce的元语是不能被破坏的:即 “相同”的key为一组,调用一次reduce方法,方法内迭代这组数据。
2、通过观察,我们可以看到这样的现象,页面包含超链接,每次迭代将pr值除以链接数后得到的值传递给所链接的页面,每次迭代都要包含页面链接关系和该页面的pr值。
3、mapreduce设计思路: 其中:
map阶段:主要做两件事情。
第一,读懂数据,第一次附加初始pr值。
第二,映射k:v。传递页面链接关系,key为该页面,value为页面链接关系,计算链接的pr值,key为所链接的页面,value为pr值。
reduce阶段:按页分组。
第一: 两类value分别处理。
第二: 最终合并为一条数据输出:key为页面&新的pr值,value为链接关系。

3.2实践过程

在这里插入图片描述

图34:java程序设计

代码:

package cbcpr;

import java.io.ioexception;
import java.util.stringtokenizer;
import org.apache.hadoop.conf.configuration;
import org.apache.hadoop.fs.path;
import org.apache.hadoop.io.text;
import org.apache.hadoop.mapreduce.counter;
import org.apache.hadoop.mapreduce.counters;
import org.apache.hadoop.mapreduce.job;
import org.apache.hadoop.mapreduce.mapper;
import org.apache.hadoop.mapreduce.reducer;
import org.apache.hadoop.mapreduce.lib.input.fileinputformat;
import org.apache.hadoop.mapreduce.lib.output.fileoutputformat;

public class pagerank {

	public static enum pagecouter{  
		totalpage,  
		convergepage  
		};
    /*map过程*/
	public static class tokenizermapper extends mapper<object, text, text, text>{
	    public void map(object key, text value, context context
	                   ) throws ioexception, interruptedexception {
	        stringtokenizer itr = new stringtokenizer(value.tostring());
	        string id = itr.nexttoken(); //当前网页
	        float weight = float.parsefloat(itr.nexttoken()); //当前网页的权值
	        float out_weight = weight / itr.counttokens(); //为每个网页投票的权值
	        string outs = "";
	        while (itr.hasmoretokens()) {
	            string out_id = itr.nexttoken();
	            outs += out_id + " ";
	            context.write(new text(out_id), new text("&" + out_weight));
	        }
	        context.write(new text(id), new text(outs)); 
	        context.write(new text(id), new text("#" + weight)); 
	        //'#'表示当前的权值,用于reduce阶段判断是否收敛
	        //枚举计数器,计算有几个page
	        context.getcounter(pagecouter.totalpage).increment(1);
	    }
	}

    /*reduce过程*/
	public static class weightreducer extends reducer<text,text,text,text> {
	    public void reduce(text key, iterable<text> values, context context
	                      ) throws ioexception, interruptedexception {
	        float sum_weight = 0; //新的权值
	        float pre_weight = 0; //上一轮的权值,比较是否收敛
	        string outs = "";
	        for (text val : values) {
	            string tmp = val.tostring();
	            if (tmp.startswith("&")) 
	                sum_weight+=float.parsefloat(tmp.substring(1));
	            else if (tmp.startswith("#"))
	                pre_weight =float.parsefloat(tmp.substring(1)); 
	            else outs = tmp;
	        }
	        sum_weight = 0.8f * sum_weight + 0.2f * 0.125f; //平滑处理,处理终止点和陷阱 
	        context.write(key, new text(sum_weight + " " + outs));
	        if (sum_weight == pre_weight)        //枚举计数器,计算有几个已收敛
	            context.getcounter(pagecouter.convergepage).increment(1);
	    }
	}

	public static void main(string[] args) throws exception {
	    configuration conf = new configuration();
	    string in_path = args[0];
	    string out_path = args[1] + "/iter";
	    for (int i = 0; i < 50; i++) { //设置最多只迭代50次,也可用while
	        job job = job.getinstance(conf, "page rank");
	        job.setjarbyclass(pagerank.class);
	        job.setmapperclass(tokenizermapper.class);
	        job.setreducerclass(weightreducer.class);
	        job.setoutputkeyclass(text.class);
	        job.setoutputvalueclass(text.class);
	        fileinputformat.addinputpath(job, new path(in_path));
	        fileoutputformat.setoutputpath(job, new path(out_path + i));
	        job.setnumreducetasks(2); //设置reduce数量为2,模拟大文件
	        in_path = out_path + i;   //设置下一轮的输入
	        job.waitforcompletion(true);

	        counters counters = job.getcounters(); 
	        counter counter = counters.findcounter(pagecouter.totalpage);
	        long totalpage=counter.getvalue();// 获取计数值
	        counter = counters.findcounter(pagecouter.convergepage);
	        long convergepage = counter.getvalue(); //收敛计数值
	        system.out.println("total page: " + totalpage);
	        system.out.println("converge page: " + convergepage);
	        if (totalpage == convergepage) {
	            system.out.print("converge at iteration: " + i);
	            break;
	        }
	    }
	}
}

在这里插入图片描述

图35: 打包生成pagerank2.jar

在这里插入图片描述

图36:查看是否打包成功

在这里插入图片描述

图37:准备数据

在这里插入图片描述

图38:启动hadoop并确认状态

在这里插入图片描述

图39:确保运行程序不出错,新建input

在这里插入图片描述

图40:上传数据

在这里插入图片描述

图41:运行jar包

在这里插入图片描述

图42:运行结果

在这里插入图片描述

图43:查看数据

3.3成果展示

在这里插入图片描述

图44:实验结果

3.4 数据的可视化分析

有4个网页,链接关系如下,a网页有到b和c网页的链接,b有到d网页的链接,其余类似。
在这里插入图片描述

图45:网页链接状态

初始化每个网页的pagerank为1/n = 1/4
每个网页根据出链数均分自己的权值,更新所有网页的pagerank,即
 a的pagerank为0.25,则分给b和c各0.125,而a得到d分得的0.125,所以a的pagerank更新为0.125
 同理,b更新为0.375,c更新为0.125,d更新为0.375,四个网页和仍为1
重复第二步直到收敛

通常我们使用一种合适的数据结构来表示页面间的链接关系。设一共有n个页面,则要生成一个n维矩阵,其中第i行表示的是其他页面对 第i个页面链接的概率,第j列表示的是第j个页面对其他页面链接的概率。这样的矩阵叫做转移矩阵。对应到上图,转移矩阵为:
在这里插入图片描述

在上图中,第一列为页面a对各个页面转移的概率,第一行为各个页面对页面a转移的概率。初始时,每一个页面的pagerank值都是均等的,为1/n,这里也即是1/4。然后对于页面a来说,根据每一个页面的pagerank值和每个页面对页面a的转移概率,可以算出新一轮页面a的pagerank值。这里,只有页面b和页面c转移了自己的1/2给a。所以新一轮a的pagerank值为1/41/2+1/41/2=9/24。为了计算方便,我们设置各页面初始的pagerank值为一个列向量v0。然后再基于转移矩阵,我们可以直接求出新一轮各个页面的pagerank值。即 v1 = mv0
在这里插入图片描述

现在得到了各页面新的pagerank值v1, 继续用m 去乘以v1 ,就会得到更新的pagerank值。一直迭代这个过程,可以证明出v最终会收敛。此时停止迭代。这时的v就是各个页面的pagerank值。在上图中,一直迭代的中间v如下:
在这里插入图片描述

按照这种方式计算下去我们就可以得到了,迭代到i= 45时,两个计数器都为8,即在i = 45时收敛,查看输出文件,如代码中设置的,每一轮有两份输出。

分析:pagerank的page可是认为是网页,表示网页排名,也可以认为是larry page(google 产品经理),因为他是这个算法的发明者之一,还是google ceo。pagerank算法计算每一个网页的pagerank值,然后根据这个值的大小对网页的重要性进行排序。它的思想是模拟一个悠闲的上网者,上网者首先随机选择一个网页打开,然后在这个网页上呆了几分钟后,跳转到该网页所指向的链接,这样无所事事、漫无目的地在网页上跳来跳去,pagerank就是估计这个悠闲的上网者分布在各个网页上的概率。首先分为abcdefgh,8组网址数据初始的总分配权值是0.125,首先进行的是平均分配权值的操作。图是强连通的,即从任意网页可以到达其他任意网页:互联网上的网页不满足强连通的特性,因为有一些网页不指向任何网页,如果按照上面的计算,上网者到达这样的网页后便走投无路、四顾茫然,导致前面累计得到的转移概率被清零,这样下去,最终的得到的概率分布向量所有元素几乎都为0。然后通过处理终止点问题和陷阱问题。上网者是一个悠闲的上网者,而不是一个愚蠢的上网者,我们的上网者是聪明而悠闲,他悠闲,漫无目的,总是随机的选择网页,他聪明,在走到一个终结网页或者一个陷阱网页,不会傻傻的干着急,他会在浏览器的地址随机输入一个地址,当然这个地址可能又是原来的网页,但这里给了他一个逃离的机会,让他离开这万丈深渊。模拟聪明而又悠闲的上网者,对算法进行改进,每一步,上网者可能都不想看当前网页了,不看当前网页也就不会点击上面的连接,而上悄悄地在地址栏输入另外一个地址,而在地址栏输入而跳转到各个网页的概率是1/n。假设上网者每一步查看当前网页的概率为a,那么他从浏览器地址栏跳转的概率为(1-a)。采用矩阵相乘,不断迭代,直到迭代前后概率分布向量的值变化不大,一般迭代到30次以上就收敛了。真的的web结构的转移矩阵非常大,目前的网页数量已经超过100亿,转移矩阵是100亿*100亿的矩阵,直接按矩阵乘法的计算方法不可行,需要借助map-reduce的计算方式来解决

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com