网站应该设计成什么样自助建站百度

张小明 2025/12/30 19:14:19
网站应该设计成什么样,自助建站百度,品牌建设怎么写,想在网站上放百度广告怎么做文章目录一、完整操作记录总结环境#x1f4dd; 第一轮操作#xff1a;Parcel文件分发与部署1. 从CM Server容器复制Parcel文件2. 分发Parcel到其他节点3. 在三台节点上执行Parcel部署#x1f4dd; 第二轮操作#xff1a;配置文件复制与分发1. 在CM Server容器内收集配置文…文章目录一、完整操作记录总结环境 第一轮操作Parcel文件分发与部署1. 从CM Server容器复制Parcel文件2. 分发Parcel到其他节点3. 在三台节点上执行Parcel部署 第二轮操作配置文件复制与分发1. 在CM Server容器内收集配置文件2. 从容器复制配置文件到宿主机3. 分发配置文件到其他节点4. 在cluster-2和cluster-3上解压配置 操作总结1. 已完成的操作流程2. 使用的文件路径3. 涉及的三台服务器二、操作规范原理解读1. 手动部署 CDH “本地客户端”Gateway 角色原理解读第一轮操作Parcel 文件部署CDH 二进制文件第二轮操作配置文件复制与分发2. 整体逻辑总结3. 如何测试是否成功基本环境检查HDFS 客户端测试连接到远程 HDFSYARN 客户端测试Hive 客户端测试如果配置中有 Hive其他组件测试根据你的 etc 中是否有配置常见问题排查三、第四台节点部署如果第4台节点也想访问CDH集群核心原理与前三台完全一致在 cluster-4 上具体操作步骤推荐方式步骤 1准备 Parcel 二进制两种方式任选其一步骤 2复制客户端配置文件步骤 3设置环境变量可选但强烈推荐步骤 4在 cluster-4 上测试与之前三台完全相同注意事项总结一、完整操作记录总结环境节点服务cluster-1serverAgentcluster-2agentcluster-3agent采用分布式docker容器化离线部署CDH集群客户端。 第一轮操作Parcel文件分发与部署1. 从CM Server容器复制Parcel文件# 在宿主机cluster-1上执行dockercpcdh-cluster-1:/opt/cloudera/parcel-repo/CDH-6.3.2-1.cdh6.3.2.p0.1605554-el7.parcel /data/cloudera/parcel/data/cloudera/作为容器中取文件到宿主机的中转存储目录。2. 分发Parcel到其他节点在宿主机/data/cloudera/parcel目录执行# 分发到cluster-2scpCDH-6.3.2-1.cdh6.3.2.p0.1605554-el7.parcel rootcluster-2:/opt/cloudera/parcels/# 分发到cluster-3scpCDH-6.3.2-1.cdh6.3.2.p0.1605554-el7.parcel rootcluster-3:/opt/cloudera/parcels/宿主机的/opt/cloudera/parcels/目录也要cp一份以便于进行parcel部署。3. 在三台节点上执行Parcel部署# 在cluster-1, cluster-2, cluster-3上分别执行相同操作# 进入parcel目录cd/opt/cloudera/parcels# 解压parcel文件直接解压到当前目录tar-zxvf CDH-6.3.2-1.cdh6.3.2.p0.1605554-el7.parcel# 创建符号链接ln-s CDH-6.3.2-1.cdh6.3.2.p0.1605554 CDH 第二轮操作配置文件复制与分发1. 在CM Server容器内收集配置文件从cluster-1进入容器。# 进入CM Server容器dockerexec-it cdh-cluster-1 /bin/bash# 创建配置目录mkdir-p /opt/cloudera/etc# 复制各类配置文件cp-Lvr /etc/hadoop /opt/cloudera/etccp-Lvr /etc/hadoop-httpfs /opt/cloudera/etccp-Lvr /etc/hadoop-kms /opt/cloudera/etccp-Lvr /etc/hbase /opt/cloudera/etccp-Lvr /etc/hbase-solr /opt/cloudera/etccp-Lvr /etc/hive /opt/cloudera/etccp-Lvr /etc/hive-hcatalog /opt/cloudera/etccp-Lvr /etc/hive-webhcat /opt/cloudera/etccp-Lvr /etc/impala /opt/cloudera/etccp-Lvr /etc/kafka /opt/cloudera/etccp-Lvr /etc/kudu /opt/cloudera/etccp-Lvr /etc/pig /opt/cloudera/etccp-Lvr /etc/sentry /opt/cloudera/etccp-Lvr /etc/solr /opt/cloudera/etccp-Lvr /etc/spark /opt/cloudera/etccp-Lvr /etc/spark2 /opt/cloudera/etccp-Lvr /etc/zookeeper /opt/cloudera/etc# 打包配置文件cd/opt/cloudera/tar-czvf etc.tar.gz etc2. 从容器复制配置文件到宿主机# 回到宿主机cluster-1执行dockercpcdh-cluster-1:/opt/cloudera/etc.tar.gz /data/cloudera//data/cloudera/作为容器中取文件到宿主机的中转存储目录。3. 分发配置文件到其他节点# 进入存放配置的目录cd/data/cloudera/# 分发到cluster-2scpetc.tar.gz rootcluster-2:/opt/cloudera# 分发到cluster-3scpetc.tar.gz rootcluster-3:/opt/cloudera4. 在cluster-2和cluster-3上解压配置cluster-1 同样执行/opt/cloudera/目录的分发和解压。# 在cluster-2和cluster-3上分别执行# 进入cloudera目录cd/opt/cloudera/# 解压配置文件tar-zxvf etc.tar.gz 操作总结1. 已完成的操作流程✅ Parcel部署将CDH 6.3.2 Parcel从CM Server复制到三节点解压并创建符号链接✅ 配置分发从CM Server收集配置文件打包分发到三节点并解压2. 使用的文件路径Parcel文件/opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554-el7.parcel解压目录/opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554符号链接/opt/cloudera/parcels/CDH-CDH-6.3.2-1.cdh6.3.2.p0.1605554配置文件包/data/cloudera/etc.tar.gz宿主机和/opt/cloudera/etc.tar.gz节点解压配置/opt/cloudera/etc/cluster-1、2、3目录3. 涉及的三台服务器cluster-1Cloudera Manager Server Agentcluster-2Agent节点cluster-3Agent节点二、操作规范原理解读1. 手动部署 CDH “本地客户端”Gateway 角色原理解读该操作本质上是手动模拟 Cloudera Manager 的 Parcels 分发 客户端配置部署目的是在三台节点主机上安装一个纯 CDH 客户端环境也称为 Gateway 节点而不是完整的集群服务NameNode、DataNode 等。这允许这些主机或容器作为 Hadoop/Hive/Impala 等组件的客户端使用命令行工具如hadoop fs、hive、impala-shell连接到远程 CDH 集群。Cloudera Manager 正常情况下会自动处理这些但当前选择了离线手动方式绕过了 CM 的 Parcels 管理机制。以下是详细逻辑解释第一轮操作Parcel 文件部署CDH 二进制文件标准 Parcels 结构和激活原理Parcel 文件.parcel是一个压缩包包含 CDH 所有组件的二进制文件jar、bin、lib 等。Cloudera Manager Agent 会自动解压到/opt/cloudera/parcels/完整版本目录/例如/opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/。然后创建符号链接/opt/cloudera/parcels/CDH→ 该版本目录这相当于“激活”。CDH 的命令脚本如/opt/cloudera/parcels/CDH/bin/hadoop会通过环境变量如$HADOOP_HOME指向这个活跃目录。关键路径所有 Hadoop 相关库在/opt/cloudera/parcels/CDH/lib/命令在/opt/cloudera/parcels/CDH/bin/。以上手动操作等价于直接 scp parcel 文件到节点cluster-1/2/3在 cluster-1 上从容器复制。手动tar -zxvf解压模拟 CM Agent 的 unpack。手动ln -s创建/opt/cloudera/parcels/CDH符号链接模拟“Activate”。效果三台主机现在都有完整的 CDH 二进制文件可以运行客户端命令如hadoop、hive路径统一指向活跃版本。为什么有效CDH 的客户端脚本不依赖 CM Server只要路径和符号链接正确就能找到 jar/lib/bin。注意事项在 cluster-1 上把 parcel 从容器取出时放到了/data/cloudera/parcel但没用到它因为直接在/opt/cloudera/parcels/解压。手动方式不支持多版本并存和自动回滚Parcels 的优势升级时需手动清理旧目录。第二轮操作配置文件复制与分发标准客户端配置原理Cloudera Manager 会生成客户端配置文件core-site.xml、hdfs-site.xml、hive-site.xml 等包含集群地址NameNode、ResourceManager、HiveServer2 等、安全配置Kerberos、高可用等。这些配置默认放在/etc/service/conf/如/etc/hadoop/conf/、/etc/hive/conf/。但在 Parcels 部署下CM 会额外把这些配置“部署”到/opt/cloudera/parcels/CDH/etc/service/或类似路径有时称为 “cloudera/etc”。客户端命令如hadoop fs会优先读取这些配置目录通过环境变量如HADOOP_CONF_DIR。手动操作等价于从容器内CM Server 生成的配置复制所有/etc/service/目录打包成etc.tar.gz。分发到三台主机的/opt/cloudera/并解压到/opt/cloudera/etc/。效果模拟了 CM 的 “Deploy Client Configuration” 操作让客户端命令知道去哪里连接集群例如 core-site.xml 中的fs.defaultFS hdfs://nameservice1。这就是“本地客户端”的核心二进制Parcels 配置etc → 可以像集群节点一样运行客户端工具而无需启动任何服务。为什么放在 /opt/cloudera/etc/这不是标准系统路径通常是 /etc/而是 Parcels 专用的“client config” 位置。CDH 的环境脚本在 bin 目录下会自动添加这个路径到 classpath 和 conf dir让命令优先使用这里配置覆盖或补充系统 /etc/。2. 整体逻辑总结目标让三台主机成为 CDHGateway 节点纯客户端可以提交 MapReduce/Spark 作业、查询 Hive/Impala、操作 HDFS。手动 vs CM 自动CM 会通过 Parcels 页面自动 Download/Distribute/Activate 自动 Deploy Client Configuration。手动做这些适用于离线环境或自定义控制。优势快速、一致三台主机配置完全相同。潜在风险配置不完整如缺少安全设置、权限不对建议 chown -R cloudera-scm 或 root、未来升级麻烦。3. 如何测试是否成功在三台主机任意一台包括 cluster-1上执行以下命令测试无需 sudo除非权限问题。前提配置中已正确指向你的实际集群NameNode 等地址。基本环境检查# 检查符号链接ls-l /opt/cloudera/parcels/CDH# 检查二进制路径/opt/cloudera/parcels/CDH/bin/hadoop version# 应显示 Hadoop 2.6.0-cdh6.3.2# 检查配置目录ls/opt/cloudera/etc/hadoop/# 应看到 core-site.xml、hdfs-site.xml 等HDFS 客户端测试连接到远程 HDFS# 列出根目录hadoop fs -ls /# 创建测试目录hadoop fs -mkdir /test_client# 上传本地文件例如 /etc/hostshadoop fs -put /etc/hosts /test_client/# 查看hadoop fs -ls /test_client/ hadoop fs -cat /test_client/hosts# 清理hadoop fs -rm -r /test_client成功说明 HDFS 客户端正常能连接 NameNode。YARN 客户端测试# 查看集群资源yarnnode-list# 运行简单 MR 作业计算 Pihadoop jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/hadoop-mapreduce-examples.jar pi10100成功作业提交到 YARN 并计算出结果。Hive 客户端测试如果配置中有 Hivehive -eSHOW TABLES;# 或进入 hive 提示符如果有 HiveServer2beeline 更好beeline -ujdbc:hive2://your-hiveserver2-host:10000其他组件测试根据你的 etc 中是否有配置Impalaimpala-shell -i your-impala-daemon-hostPigpig -x mapreduceSpark/opt/cloudera/parcels/CDH/bin/spark-submit --class ...常见问题排查命令 not found添加环境变量export PATH$PATH:/opt/cloudera/parcels/CDH/bin连接失败检查/opt/cloudera/etc/hadoop/core-site.xml中的 fs.defaultFS 是否正确如果 Kerberos需 kinit。权限问题确保 /opt/cloudera/parcels 和 etc 目录可读chmod -R 755 或 chown。三、第四台节点部署如果第4台节点也想访问CDH集群第四台主机假设叫 cluster-4即使完全没有运行任何 Cloudera Manager 的容器、服务或 Agent也可以通过完全手动的方式安装 CDH 客户端即 Gateway 角色从而实现提交任务到你的三节点集群cluster-1/2/3运行。这种方式在生产环境中非常常见常用于边缘节点Edge Node应用服务器开发机、跳板机提交 Spark、MapReduce、Hive、Impala 等作业的节点核心原理与前三台完全一致CDH 的客户端工具hadoop、hive、beeline、spark-submit、impala-shell 等运行时只需要两样东西二进制文件来自 Parcel 解压后的 /opt/cloudera/parcels/CDH/… 目录客户端配置文件包含集群地址、安全配置等通常放在 /opt/cloudera/etc/ 或 /etc/ 下只要这两样东西在 cluster-4 上准备好并且版本与集群CDH 6.3.2一致客户端就能正常连接并提交任务到 cluster-1/2/3 的 NameNode、ResourceManager、HiveServer2、Impala Daemon 等服务上运行。在 cluster-4 上具体操作步骤推荐方式当前已经在cluster-1或任意一台已有客户端的主机上获取文件。步骤 1准备 Parcel 二进制两种方式任选其一方式 A直接复制已解压的整个版本目录推荐更简单可靠# 在 cluster-1已有客户端上执行tar-czf /tmp/CDH-6.3.2-parcel-dir.tar.gz /opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554# 复制到 cluster-4scp/tmp/CDH-6.3.2-parcel-dir.tar.gz rootcluster-4:/opt/cloudera/parcels/# 在 cluster-4 上解压并创建符号链接sshrootcluster-4mkdir-p /opt/cloudera/parcelscd/opt/cloudera/parcelstar-xzf CDH-6.3.2-parcel-dir.tar.gzln-s CDH-6.3.2-1.cdh6.3.2.p0.1605554 CDH方式 B复制原始 .parcel 文件并手动解压与你之前操作一致# 从 cluster-1 的 /data/cloudera/parcel/ 或其他节点复制原始 parcel 文件scprootcluster-1:/data/cloudera/parcel/CDH-6.3.2-1.cdh6.3.2.p0.1605554-el7.parcel rootcluster-4:/opt/cloudera/parcels/# 在 cluster-4 上cd/opt/cloudera/parcelstar-zxvf CDH-6.3.2-1.cdh6.3.2.p0.1605554-el7.parcelln-s CDH-6.3.2-1.cdh6.3.2.p0.1605554 CDH步骤 2复制客户端配置文件最简单可靠的方式直接复制已有的 etc 目录# 在 cluster-1 上打包已有配置tar-czf /tmp/cloudera-etc.tar.gz /opt/cloudera/etc# 复制到 cluster-4scp/tmp/cloudera-etc.tar.gz rootcluster-4:/opt/cloudera/# 在 cluster-4 上解压sshrootcluster-4cd/opt/cloudera/tar-xzf cloudera-etc.tar.gz步骤 3设置环境变量可选但强烈推荐在 cluster-4 的用户 ~/.bash_profile 或 /etc/profile.d/ 中添加exportPATH$PATH:/opt/cloudera/parcels/CDH/bin# 如果需要 spark 等exportPATH$PATH:/opt/cloudera/parcels/CDH/bin/spark-submit# 可选让 hadoop 命令优先使用该配置exportHADOOP_CONF_DIR/opt/cloudera/etc/hadoop生效source~/.bash_profile步骤 4在 cluster-4 上测试与之前三台完全相同# 检查版本hadoop version# 应显示 Hadoop 2.6.0-cdh6.3.2# HDFS 操作hadoop fs -ls / hadoop fs -put /etc/hosts /test_from_cluster4 hadoop fs -ls /test_from_cluster4# YARN 提交简单任务hadoop jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/hadoop-mapreduce-examples.jar pi10100# Hive如果配置中有 HiveServer2beeline -ujdbc:hive2://你的HiveServer2主机:10000# Spark如果有spark-submit --class org.apache.spark.examples.SparkPi\/opt/cloudera/parcels/CDH/lib/spark/examples/jars/spark-examples*.jar10注意事项版本必须一致Parcel 版本必须和集群当前的激活版本CDH-6.3.2-1.cdh6.3.2.p0.1605554完全一致。配置必须同步尤其是 core-site.xml、hdfs-site.xml、yarn-site.xml、hive-site.xml 中的服务地址和 HA 配置要正确。Kerberos 安全如果你的集群启用了 Kerberos需要在 cluster-4 上配置 krb5.conf、kinit 获取票据。权限建议目录权限 755文件 644所有者可设为普通用户如 hadoop 或你的登录用户。未来维护配置变更后需要手动同步 etc 目录到 cluster-4。总结第四台主机完全可以通过已熟练掌握的“parcel 配置手动分发”方式变成一个纯 CDH 客户端节点实现向 cluster-1/2/3 提交任务。整个过程不需要安装 Cloudera Manager Agent也不需要任何容器操作与在前三台主机上做的几乎一模一样。
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

网站安全建设目的是什么苏州手机网站设计

Markdown写报告更高效:在PyTorch-CUDA-v2.7中集成文档写作流程 你有没有过这样的经历?模型训练跑完了,准确率还不错,结果回头写报告时却卡住了——“我这个实验用的是哪个学习率?”、“那张损失曲线图存哪儿了&#x…

张小明 2025/12/30 19:13:45 网站建设

网站编程设计如何写备注wordpress 博客 知名

一、用 Go 构建毫秒级风控“熔断器” 在实时信贷审批场景中&#xff0c;风控系统需要在极短的时间内&#xff08;通常 < 200ms&#xff09;做出决策。如果一个申请人当前存在信贷逾期或属于欺诈团伙成员&#xff0c;系统必须立即“熔断”流程&#xff0c;直接拒单&#xff0…

张小明 2025/12/30 19:13:09 网站建设

vs2017做的网站如何发布天津建行网站

往遇到一些数据分析需求&#xff0c;比如&#xff1a;业务给了1份excel数据&#xff0c;需要开发做个报表对其进行分析&#xff0c;并以图表展示。通常需要了解数据逻辑&#xff0c;进行适当开发&#xff0c;涉及到前后端&#xff0c;费时费力。现在有了AI后&#xff0c;可以用…

张小明 2025/12/30 19:12:34 网站建设

网站改版方案策划书做房产信息网站

Pandoc文档转换器终极使用指南&#xff1a;从零基础到高手进阶 【免费下载链接】pandoc Universal markup converter 项目地址: https://gitcode.com/gh_mirrors/pa/pandoc Pandoc作为一款强大的通用标记语言转换器&#xff0c;能够实现数十种文档格式间的无缝转换。无论…

张小明 2025/12/30 19:11:59 网站建设

网站建设用什么软件有哪些陕西住房城乡建设厅网站

Windows系统管理与脚本编程实用指南 在Windows系统的管理和维护工作中,掌握一系列实用的工具和脚本是非常必要的。下面将为大家详细介绍一些常用工具的使用方法和脚本编程技巧。 一、使用wdsutil配置服务器属性 wdsutil是一个强大的工具,可用于配置Windows部署服务(WDS)…

张小明 2025/12/30 19:11:25 网站建设

网站开发岗位职责任职责格百度推广代理商赚钱吗

第一章&#xff1a;为什么顶尖AI团队都在关注Open-AutoGLM&#xff1f;在生成式AI快速演进的今天&#xff0c;自动化语言模型&#xff08;AutoGLM&#xff09;正成为提升大模型研发效率的关键技术。Open-AutoGLM作为首个开源的全自动类GPT模型训练框架&#xff0c;因其高度模块…

张小明 2025/12/30 19:10:52 网站建设