爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      大数据Hadoop-Spark集群部署知识总结(一)

      首页 知识中心 云计算 文章详情页

      大数据Hadoop-Spark集群部署知识总结(一)

      2024-04-23 09:44:00 阅读次数:48

      Hadoop,Linux

      大数据Hadoop-Spark集群部署知识总结

      一、启动/关闭 hadoop

      myhadoop.sh start/stop

      分步启动:

      第一步:在hadoop102主机上 sbin/start-dfs.sh

      第二步:在hadoop103主机上 sbin/start-yarn.sh

      分步关闭:

      第一步:在hadoop103主机上 sbin/stop-yarn.sh

      第二步:在hadoop102主机上 sbin/stop-dfs.sh

      myhadoop.sh脚本文件内容

      #!/bin/bash

      if [ $# -lt 1 ]
      then
      echo "No Args Input..."
      exit ;
      fi

      case $1 in
      "start")
      echo " =================== 启动 hadoop集群 ==================="

      echo " --------------- 启动 hdfs ---------------"
      ssh hadoop102 "/opt/module/hadoop-3.1.3/sbin/start-dfs.sh"
      echo " --------------- 启动 yarn ---------------"
      ssh hadoop103 "/opt/module/hadoop-3.1.3/sbin/start-yarn.sh"
      echo " --------------- 启动 historyserver ---------------"
      ssh hadoop102 "/opt/module/hadoop-3.1.3/bin/mapred --daemon start historyserver"
      ;;
      "stop")
      echo " =================== 关闭 hadoop集群 ==================="

      echo " --------------- 关闭 historyserver ---------------"
      ssh hadoop102 "/opt/module/hadoop-3.1.3/bin/mapred --daemon stop historyserver"
      echo " --------------- 关闭 yarn ---------------"
      ssh hadoop103 "/opt/module/hadoop-3.1.3/sbin/stop-yarn.sh"
      echo " --------------- 关闭 hdfs ---------------"
      ssh hadoop102 "/opt/module/hadoop-3.1.3/sbin/stop-dfs.sh"
      ;;
      *)
      echo "Input Args Error..."
      ;;
      esac

      二、启动/关闭 zookeeper

      myzk.sh start/stop

      分步启动/关闭:

      bin/zkServer.sh start

      bin/zkServer.sh stop

      myzk.sh脚本文件内容

      for host in hadoop102 hadoop103 hadoop104
      do
      case $1 in
      "start")
      ssh $host "source /etc/profile;/opt/module/zookeeper-3.5.7/bin/zkServer.sh $1"
      echo "$host zk is running..."
      echo "-----------------------------"
      ;;

      "stop")
      ssh $host "source /etc/profile;/opt/module/zookeeper-3.5.7/bin/zkServer.sh $1"
      echo "$host zk is stopping..."
      echo "-----------------------------"
      ;;

      *)
      echo '输入有误!'
      ;;
      esac
      done

      三、启动Hbase

      bin/hbase-daemon.sh start master

      bin/hbase-daemon.sh start regionserver

      bin/hbase-daemon.sh stop master

      bin/hbase-daemon.sh stop regionserver

      bin/start-hbase.sh

      bin/stop-hbase.sh


      四、常见端口号总结

      50070:HDFSwebUI的端口号

      8485:journalnode默认的端口号

      9000:非高可用访问数rpc端口

      8020:高可用访问数据rpc

      8088:yarn的webUI的端口号

      8080:master的webUI,Tomcat的端口号

      7077:spark基于standalone的提交任务的端口号

      8081:worker的webUI的端口号

      18080:historyServer的webUI的端口号

      4040:application的webUI的端口号

      2181:zookeeper的rpc端口号

      9083:hive的metastore的端口号

      60010:Hbase的webUI的端口号

      6379:Redis的端口号

      8087:sparkwebUI的端口号 sbin/start-master.sh 文件可以修改端口号,默认是8080,我改为8081

      9092:kafka broker的端口


      五、启动Hive

      1. 启动metastore hive --service metastore
      2. 启动hiveserver2 bin/hive --service hiveserver2
      3. 启动hive(/opt/module/hive):bin/hive

      hive建表:

      create table test1
      (InvoiceNo String, StockCode String, Description String, Quantity String, InvoiceDate String, UnitPrice String, CustomerID String, Country String)
      ROW format delimited fields terminated by ',' STORED AS TEXTFILE;

      导入数据:

      load data local inpath '/opt/module/data/test.csv' into table test1;

      sqoop导出到mysql:

      bin/sqoop export \
      --connect jdbc:mysql://hadoop102:3306/company \
      --username root \
      --password 000429 \
      --table sale \
      --num-mappers 1 \
      --export-dir /user/hive/warehouse/sale \
      --input-fields-terminated-by ","

      sqoop导入到hive:

      bin/sqoop import \
      > --connect jdbc:mysql://hadoop102:3306/company \
      > --username root \
      > --password 123456 \
      > --table staff \
      > --num-mappers 1 \
      > --hive-impo
      > --fields-terminated-by "\t" \
      > --hive-overwrite \
      > --hive-table 数据库名.staff_hive

      sql建表:

      USE `company`;
      CREATE TABLE `sale1` (
      `day_id` VARCHAR(50) COLLATE utf8_bin DEFAULT NULL,
      `sale_nbr` VARCHAR(50) COLLATE utf8_bin DEFAULT NULL,
      `cnt` VARCHAR(50) COLLATE utf8_bin DEFAULT NULL,
      `round` VARCHAR(50) COLLATE utf8_bin DEFAULT NULL
      ) ENGINE=INNODB DEFAULT CHARSET=utf8 COLLATE=utf8_bin;

      CREATE TABLE `sale2` (
      `day_id` varchar(50) COLLATE utf8_bin DEFAULT NULL,
      `sale_nbr` varchar(50) COLLATE utf8_bin DEFAULT NULL,
      `cnt` varchar(50) COLLATE utf8_bin DEFAULT NULL,
      `round` varchar(50) COLLATE utf8_bin DEFAULT NULL
      ) ENGINE=InnoDB DEFAULT CHARSET=utf8 COLLATE=utf8_bin;

      六、Spark

      1. 安装Spark后配置classpath
      $ cd /usr/local/spark
      $ cp ./conf/spark-env.sh.template ./conf/spark-env.sh #拷贝配置文件

      export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath) 这个路径是hadoop的安装路径

      1. local模式启动spark: ./bin/spark-shell

      大数据Hadoop-Spark集群部署知识总结(一)

      1. 安装sbt
        vim ./sbt
        启动脚本文件内容如下:
      #!/bin/bash
      SBT_OPTS="-Xms512M -Xmx1536M -Xss1M -XX:+CMSClassUnloadingEnabled -XX:MaxPermSize=256M" java $SBT_OPTS -jar `dirname $0`/sbt-launch.jar "$@"

      增加可执行权限命令: chmod u+x ./sbt

      1. simple.sbt文件内容(注意版本号和名字)
      name := "Simple Project"
      version := "1.0"
      scalaVersion := "2.11.8"
      libraryDependencies += "org.apache.spark" %% "spark-core" % "2.1.0"

      七、配置Spark集群

      1. 主机环境变量
      vim ~/.bashrc

      export SPARK_HOME=/usr/local/spark
      export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

      $ source ~/.bashrc
      1. 从机环境变量
      $ cd /usr/local/spark/
      $ cp ./conf/slaves.template ./conf/slaves

      把默认内容localhost替换成如下内容:
      hadoop103
      hadoop104
      1. 配置spark-env.sh
      • 注意SPARK_MASTER_IP 要填自己的主机IP地址
      • SPARK_DIST_CLASSPATH和HADOOP_CONF_DIR 都是主机的hadoop路径
      $ cp ./conf/spark-env.sh.template ./conf/spark-env.sh

      export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)
      export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
      export SPARK_MASTER_IP=192.168.1.104
      1. 分发到从机(待分发的路径最好已经建立好且是空的)
      cd /usr/local/
      tar -zcf ~/spark.master.tar.gz ./spark
      cd ~
      scp ./spark.master.tar.gz hadoop103:/home/hadoop
      scp ./spark.master.tar.gz hadoop104:/home/hadoop

      在从机上进行如下操作:

      sudo rm -rf /usr/local/spark/
      sudo tar -zxf spark.master.tar.gz -C /usr/local
      sudo chown -R 用户名 /usr/local/spark

      八、测试运行

      1. 首先启动hadoop集群
      2. 启动spark的主机节点
      $ cd /usr/local/spark/
      $ sbin/start-master.sh
      1. 启动spark的从机节点
      $ sbin/start-slaves.sh

      打开浏览器输入 http://[主机名]:8087

      大数据Hadoop-Spark集群部署知识总结(一)

      注意端口号冲突问题:

      可以在启动的脚本文件里修改WEBUI端口号:也就是在sbin/start-master.sh中修改端口号!

      九、关闭退出

      • 关闭spark主机
      sbin/stop-master.sh
      • 关闭Worker从机
      sbin/stop-slaves.sh
      • 关闭hadoop集群

      补充命令:

      • cp命令:cp 源文件 目标文件(夹)

      负责把一个源文件复制到目标文件(夹)下。如下图所示,复制到文件夹下,则文件名保持不变,复制到文件中,则文件名变更。如果目标文件已经存在或目标文件夹中含有同名文件,则复制之后目标文件或目标文件夹中的同名文件会被覆盖。

      • cp -r 命令 :复制源文件夹到目标文件夹下

      命令格式为:cp -r 源文件夹 目标文件夹

      • mv 命令:用来移动文件或者将文件改名
        格式:mv [选项] 源文件或目录 目标文件或目录
        选项:
        -b 若需覆盖文件,则在覆盖文件前先进行备份
        -f 强制覆盖,若目标文件已存在同名文件,使用该参数时则直接覆盖而不询问
        -i 若目标文件已存在同名文件,则提示询问是否覆盖
        -u 若目标文件已存在需移动的同名文件,且源文件比较新,才会更新文件
        -t 指定mv的目标目录,改选项使用于移动多个源文件到一个目录的情况,此时目标文件在前,源文件在后
      • chmod
        sudo chmod -(代表类型)×××(所有者)×××(组用户)×××(其他用户)
        0 [000] 无任何权限
        4 [100] 只读权限
        6 [110] 读写权限
        7 [111] 读写执行权限
        sudo chmod 600 ××× (只有所有者有读和写的权限)
        sudo chmod 644 ××× (所有者有读和写的权限,组用户只有读的权限)
        sudo chmod 700 ××× (只有所有者有读和写以及执行的权限)
        sudo chmod 666 ××× (每个人都有读和写的权限)
        sudo chmod 777 ××× (每个人都有读和写以及执行的权限)

      • chown (选项)(参数)
        选项描述
        -c或——changes 效果类似“-v”参数,但仅回报更改的部分;
        -f或–quite或——silent 不显示错误信息;
        -h或–no-dereference 只对符号连接的文件作修改,而不更改其他任何相关文件;
        -R或——recursive 递归处理,将指定目录下的所有文件及子目录一并处理;
        -v或——version 显示指令执行过程;
        –dereference 效果和“-h”参数相同;
        –help 在线帮助;
        –reference=<参考文件或目录> 把指定文件或目录的拥有者与所属群组全部设成和参考文件或目录的拥有者与所属群组相同;
        –version 显示版本信息。

      当只需要修改所有者时,可使用如下 chown 命令的基本格式:

      [root@localhost ~]# chown [-R] 所有者 文件或目录

      如果需要同时更改所有者和所属组,chown 命令的基本格式为:

      [root@localhost ~]# chown [-R] 所有者:所属组 文件或目录

      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.51cto.com/reliableyang/5651502,作者:靠谱杨的挨踢IT生活,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:Sentry:如何从数据存储中获得更强的一致性

      下一篇:ZooKeeper集群部署详解

      相关文章

      2025-05-14 10:33:25

      超级好用的C++实用库之网络

      在网络相关的项目中,我们经常需要去获取和设置设备的IP地址、子网掩码、网关地址、MAC地址等信息。这些信息一般与操作系统相关,在Windows系统和Linux系统上调用的接口是不一样的。

      2025-05-14 10:33:25
      Linux , 参数 , 地址 , 接口 , 网卡 , 返回值
      2025-05-14 10:03:13

      超级好用的C++实用库之线程基类

      在C++中,线程是操作系统能够进行运算调度的最小单位。一个进程可以包含多个线程,这些线程共享进程的资源,比如:内存空间和系统资源,但它们有自己的指令指针、堆栈和局部变量等。

      2025-05-14 10:03:13
      Linux , void , Windows , 函数 , 操作系统 , 线程
      2025-05-14 09:51:21

      Java 代码本地设置Hadoop用户名密码

      在Hadoop环境中,通常使用Kerberos进行身份验证。但在一些开发或测试环境中,我们可能需要在本地代码中设置用户名和密码来模拟或进行简单的测试。

      2025-05-14 09:51:21
      Hadoop , Java , 代码 , 使用 , 用户名 , 认证
      2025-05-13 09:51:17

      使用Kernel 2.6版本的Linux系统运行dbca创建数据库实例时报错ORA-27125

      使用Kernel 2.6版本的Linux系统运行dbca创建数据库实例时报错ORA-27125

      2025-05-13 09:51:17
      dbca , Linux , ORA
      2025-05-12 08:40:18

      Linux+Docer 容器化部署之 Shell 语法入门篇 【Shell变量】

      Linux+Docer 容器化部署之 Shell 语法入门篇 【Shell变量】

      2025-05-12 08:40:18
      Linux , 变量
      2025-05-09 08:51:09

      Linux+Docer 容器化部署之 Shell 语法入门篇 【Shell基本运算符】

      Linux+Docer 容器化部署之 Shell 语法入门篇 【Shell基本运算符】

      2025-05-09 08:51:09
      Linux , Shell , 语法 , 运算符
      2025-05-09 08:51:09

      Linux+Docer 容器化部署之 Shell 语法入门篇 【Shell 替代】

      Linux+Docer 容器化部署之 Shell 语法入门篇 【Shell 替代】

      2025-05-09 08:51:09
      Linux , Shell , var
      2025-05-07 09:09:26

      【Linux 从基础到进阶】Linux中的用户认证与授权

      在Linux系统中,**用户认证(authentication)和授权(authorization)**是两个核心的安全机制,用来控制系统资源的访问和管理用户操作权限。用户认证确保登录的用户是合法的,授权则决定用户能够执行哪些操作。

      2025-05-07 09:09:26
      Linux , 密码 , 用户 , 认证
      2025-05-07 09:08:54

      【Linux】什么是Linux?

      【Linux】什么是Linux?

      2025-05-07 09:08:54
      Linux , 文件 , 权限
      2025-05-07 09:08:42

      Linux系统中Crontab的用法详解

      在Linux系统中,任务调度是管理系统定期执行任务的重要方式,而crontab则是实现这一功能的强大工具。

      2025-05-07 09:08:42
      crontab , Linux , 任务
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5229813

      查看更多

      最新文章

      Linux+Docer 容器化部署之 Shell 语法入门篇 【Shell变量】

      2025-05-12 08:40:18

      Linux+Docer 容器化部署之 Shell 语法入门篇 【Shell基本运算符】

      2025-05-09 08:51:09

      Linux+Docer 容器化部署之 Shell 语法入门篇 【Shell 替代】

      2025-05-09 08:51:09

      Hadoop第一天学习记录

      2024-12-23 09:17:33

      Java中的分布式文件系统设计与实现

      2024-11-28 09:16:59

      Linux系统(Centos7)部署JDK环境

      2024-11-26 09:46:16

      查看更多

      热门文章

      Linux+Docker+Tensorlfow 部署探索

      2023-05-12 07:20:42

      Mac 登陆Linux云服务器方法

      2023-03-08 10:23:41

      RabbitMQ第一课 Linux部署安装

      2023-05-18 09:34:24

      Tomcat Linux部署安装过程记录

      2023-05-30 07:51:24

      Linux-SmartHome-QML-5-Git环境部署和测试

      2023-06-12 09:26:52

      生产环境实战spark (8)分布式集群 Hadoop集群WEBUI打不开问题解决,关闭防火墙firewall

      2023-07-04 06:59:05

      查看更多

      热门标签

      系统 测试 用户 分布式 Java java 计算机 docker 代码 数据 服务器 数据库 源码 管理 python
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      Linux系统(Centos7)部署JDK环境

      Mac 登陆Linux云服务器方法

      生产环境实战spark (8)分布式集群 Hadoop集群WEBUI打不开问题解决,关闭防火墙firewall

      Linux-SmartHome-QML-5-Git环境部署和测试

      Linux+Docer 容器化部署之 Shell 语法入门篇 【Shell 替代】

      Linux+Docker+Tensorlfow 部署探索

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号