欢迎来到第壹文秘! | 帮助中心 分享价值,成长自我!
第壹文秘
全部分类
  • 幼儿/小学教育>
  • 中学教育>
  • 高等教育>
  • 研究生考试>
  • 外语学习>
  • 资格/认证考试>
  • 论文>
  • IT计算机>
  • 法律/法学>
  • 建筑/环境>
  • 通信/电子>
  • 医学/心理学>
  • ImageVerifierCode 换一换
    首页 第壹文秘 > 资源分类 > DOCX文档下载
    分享到微信 分享到微博 分享到QQ空间

    大数据平台运维方案.docx

    • 资源ID:774084       资源大小:28.97KB        全文页数:9页
    • 资源格式: DOCX        下载积分:5金币
    快捷下载 游客一键下载
    账号登录下载
    三方登录下载: 微信开放平台登录 QQ登录
    下载资源需要5金币
    邮箱/手机:
    温馨提示:
    快捷下载时,如果您不填写信息,系统将为您自动创建临时账号,适用于临时下载。
    如果您填写信息,用户名和密码都是您填写的【邮箱或者手机号】(系统自动生成),方便查询和重复下载。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP,免费下载
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    大数据平台运维方案.docx

    大数据平台运维方案1.引言1.1 概述本文档为大数据平台运维用户的使用手册,主要用于对大数据平台的启动、关闭和检查1.2 环境本大数据平台主要配置如下所示:功主机名IP邰善蛆行HadOoP集群曾建节点(2fe)hadpManagerO117i1620.11HIVE(MYSQL).SQPhadpManagerO2172.1620.12Narw0Q11oop)、Urb4rttvervro4er(hadp)、ResourceManager(hadoop)MYSQLHadoOP集群期B节点(3)hadoop01172.162021JournaINode(hadoop),DataNode(hadp).QuorumPeerMain(Zkeeper).SPARK(master、WOrker).NodeManager(hadoop)hadoop01172.162022Xoopo2172.162023HbaSej熊楫理万点(2旬hbaseManagerO1172.1620.51NameNode(Kadoop)、DFSZKFk>verCotroller(hadoop)、ResourceManager(hadp),Hmaster(hbase)KafkaOffsetMonitorszat>bixhbaseManagerO2172.1620.52HbaSe*8微S节点(3台)hbaseO1172.1620.61JournaINode(hadp),DataNode(Hadoop).Zookeeper,HReglonServe<(hbase),KAFKAaNodeManager(hadp)hbaseO2172.16202hbaseO31721620.63图1.2配匿信息版本信息:Hadoophadoop-2.6.0-cdh5.10.0Hbasehbase-1.2.0-cdh5.10.0Hivehive-1.1.0-cdh5.10.0Sparkspark-2.3.0-bin-hadoop2.6Sqoopsqoop-1.4.6-cdh5.10.0Zookeeperzookeeper-3.4.5-cdh5.10.0KAFKAkafka,2.12-1.0.1kafka-monorKafkaOffsetMonitor-assembly-O.2.1JDKjdk-8ul62-linu×-×64Mysqlmysql-5.7.21-l.el7.×86.64.rpm-bundlemysqI-connector-java-5.1.46Scalascala-2.12.5所有大数据组件都部署在子用户下,Hadoop集群子用户为hadoop,Hbase集群子用户为hbase,大数据组件全部通过手动方式搭建,文件目录在/home/had。P或者homehbase卜)2.正文2.1 组件信息主要介绍每个组件的信息2.1.1 ZookeeperZookeeper是分布式应用程序协调服务.2.1.1.1 zookeeper数据存储目录ZK数据目录:homehadoopoptdatazookeeperZK日志目录:homehadoopoptdatazookeeperzookeeperjog2.1.1.2 ZOokeePer所使用的端口2181、2888、38882.1.1.3 ZoOkeePer使用命令(一级)启动:homehadoopzookeeper-3.4.5-cdh5.10.0binzkServer.shstart查看状态:homehadoopZOOkeePer-3.4.5-Cdh5.10.0/bin/zkCli.sh-serverhadoop:2180检查状态:homehadoopZOOkeePer-3.4.5-Cdh5.10.0/bin/zkCli.shzkServer.shstatus备注:执行命令后(比如启动)在当前路径下会生成ZOOkeeperqut文件,里面有相关日志信息2.1.2 HadoopHadoop是一个分布式系统基础架构,主要有HDFS和MapReduce组成,HDFS提供分布式存储,MaPRedUCe提供分布式计算。2.1.2.1 hadoop文件存储目录HadOOP临时文件:homehadoopoptdatahadooptmpNamenode数据:homehadoopoptdatahadoophadoop-nameDatanode数据:/home/hadoop/opt/data/hadoop/hadoop_datajournalnodhomehadoopoptdatahadoopeditsdirdfsjournalnodenodemanager数据信息:homehadoopoptdatahadoopnm-local-dirHadoop使用日志:homehadoopoptdatahadoophadoop-logHadoop用户日志:homehadoopoptdatahadoopuserlogs业务数据路径:mntsdal,mntsdblmntsdclmntsddllmntsdel,mntsdfl等2.1.2.2 hadoop使用端口50070、9000、8088等2.1.2.3 hadoop使用命令(一级)启动Namenode:homehadoophadoop-2.6.0-cdh5.10.0sbinhadoop-daemon.shstartnamenode关闭Namenode:homehadoophadoop-2.6.0-cdh5.10.0sbinhadoop-daemon.shstopnamenode启动DFS:homehadoophadoop-2.6.0-cdh5.10.0sbinstart-dfs.sh关闭DFS:homehadoophadoop-2.6.0-cdh5.10.0sbinstart-dfs.sh启动YARN:homehadoophadoop-2.6.0-cdh5.10.0sbinstart-yarn.sh关闭YARN:homehadoophadoop-2.6.0-cdh5.10.0sbinstop-yarn.sh启动整个hadoop:homehadoophadoop-2.6.0-cdh5.10.0sbinstart-all.sh关闭整个hadoop:homehadoophadoop-2.6.0-cdh5.10.0sbinstop-all.sh备注1homehadoopoptdatahadoophadoop-log中可以查看启动等日志信息2.1.3 HbaseHBaSe是一个分布式的、面向列的开源数据库。2.1.3.1 HbaSe文件存储目录日志文件:homehbaseoptdatahbaseIogS临时文件:homehbaseoptdatahbasetmp2.1.3.2 Hbase使用端口600102.1.3.3 Hbase使用命令(一级)启动hbase:homehbasehbase-1.2.0-cdh5.10.0binstart-hbase.sh关闭hbase:homehbasehbase-1.2.0-cdh5.10.0binstop-hbase.sh启动master:homehbasehbase-1.2.0-cdh5.10.0binhbase-daemon.shstartmaster关闭master:homehbasehbase-1.2.0-cdh5.10.0binhbase-daemon.shstopmaster备注:每个节点/home/hbase/opt/data/hbase/logs/中可以看到启动状态2.1.4 Spark一个专为大规模数据处理而设计的快速通用的计算引擎。2.1.4.1 SPark使用端口80802.1.4.2 Spark使用命令(一级)启动spark:homehadoopspark-2.3.0-bin-hadoop2.6sbinstart-all.sh关闭spark:homehadoopspark-2.3.0-bin-hadoop2.6sbinstop-all.sh启动worker节点:homehadoopspark-2.3.0-bin-hadoop2.6sbinstart-slaves.sh关闭worker付点:homehadoopspark-2.3.0-bin-hadoop2.6sbinstop-slaves.sh启动master节点:homehadoopspark-2.3.0-bin-hadoop2.6sbinstart-master.sh关闭master节点:homehadoopspark-2.3.0-bin-hadoop2.6sbinstop-master.sh启动spark-sql:homehadoopspark-2.3.0-bin-hadoop2.6binspark-sql启动thriftserver:homehadoosark-2.3.0-bin-hadoo2.6sbinstart-thriftserver.sh2.1.5 Hivehive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的Sql查询功能,可以将sql语句转换为M叩RedUCe任务进行运行。2.1.5.1 Hive文件存储目录Hive数据:homehadoopoptdatahiveHive的日志:homehadoopoptdatahivelogs2.1.5.2 HiVe的MySql信息Hve的MySQL主副集群为172.16.20.11-12,其中172.16.20.11为主数据库。据库用户名:hive据库密码:hive2.1.5.3 Hive的使用(一级)hive命令:hadoophive-1.1.0-cdh5.10.0binhive启动hive元数据:homehadoophive-1.1.0-cdh5.10.0binhiveservicemetastore>hive_metastore.log2.1.6 SqoopSqoop是一个用来将Hadoop和关系型数据库中的数据相互转移的工具,可以将一个关系型数据库(例如:MySQLQrade,Postgres等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。2.1.6.1 SqOOP使用(一级)列出mysql数据库中的所有数据库sqooplist-databases-connectjdbc:mysql:/localhost:3306/-usernamemysql-password20182.1.7 KAFKAKafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动

    注意事项

    本文(大数据平台运维方案.docx)为本站会员(p**)主动上传,第壹文秘仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知第壹文秘(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

    copyright@ 2008-2023 1wenmi网站版权所有

    经营许可证编号:宁ICP备2022001189号-1

    本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。第壹文秘仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知第壹文秘网,我们立即给予删除!

    收起
    展开