如果你的答案是否,好吧,你可以关闭此页了。
首先,有一个新人经常遇到的问题:
Spark集群是否一定需要Hadoop集群呢?
答案是否。 Spark的集群一共分3种:
Standalone
Hadoop-Yarn
Mesos
今天我们主要涉及的就是Standalone这种模式。在这种模式之下,我们完全可以使用NFS来代替Hadoop / HDFS. 并且在很多场景之下,Standalone
yarn.nodemanager.resource.memory-mb控制每个主机上container使用的最大内存总和。
yarn.nodemanager.resource.cpu-vcores控制每个主机上container使用的最大内核总数。
Spark SQL就是shark ,也就是SQL on Spark。如果没记错的话,shark的开发利用了hive的API,所以支持读取HBase。而且Spark的数据类型兼容范围大于Hadoop,并且包含了Hadoop所支持的任何数据类型。
到此,以上就是小编对于spark windows集群搭建的问题就介绍到这了,希望这3点解答对大家有用。
分享题目:怎么看出spark是单机模式还是集群模式?(sparkwindows集群)
标题链接:http://www.shufengxianlan.com/qtweb/news7/460757.html
网站建设、网络推广公司-创新互联,是专注品牌与效果的网站制作,网络营销seo公司;服务项目有等
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联