活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心
      文档中心

      云搜索服务

      云搜索服务

        • 产品动态
        • 产品简介
        • 产品定义
        • 产品优势
        • 功能特性
        • 产品组件
        • 应用场景
        • 术语解释
        • 安全模式集群简介
        • 跨AZ高可用性介绍
        • 与其他服务之间的关系
        • 权限管理
        • 约束与限制
        • 计费说明
        • 资源节点
        • 产品规格
        • 产品价格
        • 计费模式
        • 购买
        • 变更
        • 续订
        • 退订
        • 快速入门
        • 注册天翼云账号
        • 快速开始使用Elasticsearch搜索引擎
        • 用户指南
        • 权限管理
        • 创建用户并授权使用ES
        • ES自定义策略
        • 使用Elasticsearch搜索数据
        • 导入数据到Elasticsearch
        • 使用Logstash导入数据到Elasticsearch
        • 使用Kibana或API导入数据到Elasticsearch
        • 创建并接入集群
        • 创建Elasticsearch集群
        • 接入集群
        • 自定义词库
        • 配置自定义词库
        • 使用示例
        • 简繁体转换插件
        • 管理Elasticsearch类型集群
        • 集群状态和存储容量状态说明
        • 集群列表简介
        • 备份与恢复索引
        • 变更规格
        • 绑定企业项目
        • 重启集群
        • 迁移集群
        • 删除集群
        • 标签管理
        • 公网访问
        • 日志管理
        • 插件管理
        • 冷热数据存储
        • 参数配置
        • 终端节点服务
        • Kibana公网访问
        • 向量检索
        • 场景描述
        • 向量检索的集群规划
        • 创建向量索引
        • 向量查询
        • 向量检索的性能调优
        • (可选)预构建与注册
        • 管理向量索引缓存
        • 向量检索的客户端代码示例
        • 查询Elasticsearch SQL
        • Elasticsearch使用建议
        • Logstash
        • 管理Logstash集群
        • 创建Logstash集群
        • 查看Logstash集群的基本信息
        • 绑定企业项目
        • 强制重启集群
        • Logstash集群形态变更
        • 扩容
        • 变更规格
        • Logstash集群配置
        • 配置中心
        • Logstash配置文件样例
        • 日志管理
        • 索引状态管理
        • 创建及管理索引
        • 变更策略
        • 监控集群
        • 支持的监控指标
        • 创建告警规则
        • 配置监控对象
        • 查看监控指标
        • 查看集群日志
        • 支持云审计的关键操作
        • 查看审计日志
        • 常见问题
        • 计费类
        • 购买类
        • 产品咨询类
        • 操作类
        • 相关协议
        • 云搜索服务产品服务协议
        • 文档下载
        • 云搜索服务用户操作指南
        • 云搜索服务故障排除
          无相关产品

          本页目录

          帮助中心云搜索服务用户指南使用Elasticsearch搜索数据导入数据到Elasticsearch使用Logstash导入数据到Elasticsearch
          使用Logstash导入数据到Elasticsearch
          更新时间 2024-10-09 20:56:52
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          最近更新时间: 2024-10-09 20:56:52
          分享文章
          • 新浪微博
          • 微信
            扫码分享
          • 复制链接
          本章节主要介绍如何使用Logstash导入数据到Elasticsearch。

          云搜索服务支持使用Logstash将其收集的数据迁移到Elasticsearch中,方便用户通过Elasticsearch搜索引擎高效管理和获取数据。数据文件支持JSON、CSV等格式。

          Logstash 是开源的服务器端数据处理管道,能够同时从多个来源采集数据、转换数据,然后将数据发送到Elasticsearch中。

          数据导入分为如下2种场景:

          • Logstash部署在外网时导入数据。
          • Logstash部署在弹性云主机上时导入数据。

          前提条件

          • 为方便操作,建议采用Linux操作系统的机器部署Logstash。
          说明

          Logstash要求使用OSS版本,选择和ES一致版本。

          • 安装完Logstash后,再根据如下步骤导入数据。安装Logstash的操作指导,请参见:[https://www.elastic.co/guide/en/logstash/current/installing-logstash.html](https://www.elastic.co/guide/en/logstash/current/installing-logstash.html)。

          • 安装Logstash之前,需要先安装JDK。在Linux操作系统中,您可以执行yum -y install java-1.8.0命令直接安装1.8.0版本JDK。在Windows操作系统中,您可以访问JDK官网:[https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html](https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html) ,下载符合操作系统版本的JDK,并根据指导安装。

          • 在“ Logstash部署在弹性云主机上时导入数据 ”场景中,请确保此弹性云主机与接入的Elasticsearch集群在同一个VPC下。

          Logstash部署在外网时导入数据

          当Logstash部署在外网时,导入数据的流程说明如下图所示。

          Logstash部署在外网时导入数据示意图

          图5-3 Logstash部署在外网时导入数据示意图.png

          1.创建一个跳转主机,并按如下要求进行配置。

          • 跳转主机为一台Linux操作系统的弹性云主机,且已绑定弹性IP。
          • 跳转主机与ES集群在同一虚拟私有云下。
          • 已开放跳转主机的本地端口,用于SSH转发,能够从本地端口转发至ES集群某一节点的9200端口。
          • 关于跳转主机的本地端口转发配置,请参见SSH官方文档。

          2.使用PuTTY,通过弹性IP登录已创建的跳转主机。

          3.执行如下命令进行端口映射,将发往跳转主机对外开放端口的请求转发到待导入数据的集群中。

          ssh -g -L <跳转主机的本地端口:节点的内网访问地址和端口号> -N -f root@<跳转主机的私网IP地址>
          
          说明
          • 跳转主机的本地端口> :为步骤 1  中的端口 。

          • 节点的内网访问地址和端口号> :为集群中某一节点的内网访问地址和端口号。当该节点出现故障时,将导致命令执行失败。如果集群包含多个节点,可以将 <  节点的内网访问地址和端口号> 替换为集群中另一节点的内网访问地址和端口号;如果集群只包含一个节点,则需要将该节点修复之后再次执行命令进行端口映射 。

          • 跳转主机的私网IP 地址 >:打开弹性云主机管理控制台,从“IP地址”列中获取标有“私网”对应的IP地址 。

          例如:跳转主机对外开放的端口号为9200,节点的内网访问地址和端口号为192.168.0.81:9200,跳转主机的私网IP地址为192.168.0.227,需要执行如下命令进行端口映射。

          ssh -g -L 9200:192.168.0.81:9200 -N -f root@192.168.0.227

          4.登录部署了Logstash的服务器,将需要进行操作的数据文件存储至此服务器中。

          例如,需要导入的数据文件“access_20181029_log”,文件存储路径为“/tmp/access_log/”,此数据文件中包含的数据如下所示:

          |   All |               Heap used for segments |                        |     18.6403 |      MB | 
          
          |   All |             Heap used for doc values |                        |    0.119289 |      MB | 
          
          |   All |                  Heap used for terms |                        |     17.4095 |      MB | 
          
          |   All |                  Heap used for norms |                        |   0.0767822 |      MB | 
          
          |   All |                 Heap used for points |                        |   
          0.225246 |      MB | 
          
          |   All |          Heap used for stored fields |                        |    0.809448 |      MB | 
          
          |   All |                        Segment count |                        |         101 |         | 
          
          |   All |                       Min Throughput |           index-append |     66232.6 | 
          docs/s | 
          
          |   All |                    Median Throughput |           index-append |     66735.3 | 
          docs/s | 
          
          |   All |                       Max Throughput |           index-append |     67745.6 | 
          docs/s | 
          
          |   All |              50th percentile latency |           index-append |     510.261 |      ms |
          

          5.在部署Logstash的服务器中,执行如下命令在Logstash的安装目录下新建配置文件logstash-simple.conf。

          cd /<Logstash的安装目录>/ 
          vi logstash-simple.conf
          

          6.在配置文件logstash-simple.conf中输入如下内容。

          input { 
          数据所在的位置 
          } 
          filter { 
          数据的相关处理 
          } 
          output { 
              elasticsearch { 
                  hosts => "<跳转主机的公网IP地址>:<跳转主机对外开放的端口号>" 
              } 
          }
          
          • input:指明了数据的来源。实际请根据用户的具体情况来设置。
          • filter:指定对数据进行处理的方式。例如,对日志进行了提取和处理,将非结构化信息转换为结构化信息。
          • output:指明了数据的目的地址。<跳转主机的公网IP 地址 >请从弹性云主机管理控制台的“IP地址”列中获取标有“弹性公网”对应的IP地址。 < 跳转主机对外开放的端口号> 即为步骤1中的端口,例如:9200。

          以步骤4中“/tmp/access_log/”的数据文件为例,输入数据文件从首行开始,且过滤条件保持为空,即不做任何数据处理操作。跳转主机的公网IP和端口号为“192.168.0.227:9200”。导入数据的索引名称为“myindex”。配置文件的示例如下所示,配置文件按实际数据情况修改完成后,输入“:wq”保存。

          input {  
              file{ 
                path => "/tmp/access_log/*" 
                start_position => "beginning" 
              } 
          }  
          filter {  
          }  
          output {  
              elasticsearch {  
                hosts => "192.168.0.227:9200" 
                index => "myindex" 
                document_type => "mytype" 
              }  
          }
          
          说明
          • 如果在使用中出现license相关的报错,可以尝试设置ilm_enabled=>false 。

          • 如果集群开启了安全模式,则需要先下载证书。

          a. 在集群基本信息页面下载证书。

          详见下图:下载证书

          图5-4 下载证书.png

          b. 将下载的证书存放到部署logstash服务器中。

          c. 修改配置文件logstash-simple.conf。

          以步骤4中“/tmp/access_log/”的数据文件为例,输入数据文件从首行开始,且过滤条件保持为空,即不做任何数据处理操作。跳转主机的公网IP和端口号为“192.168.0.227:9200”。导入数据的索引名称为“myindex”,证书存放路径为“/logstash/logstash6.8/config/CloudSearchService.cer”。配置文件的示例如下所示,配置文件按实际数据情况修改完成后,输入“:wq”保存。

          input{ 
              file { 
                  path => "/tmp/access_log/*" 
                  start_position => "beginning" 
              } 
          } 
          filter { 
              } 
          output{ 
              elasticsearch{ 
                  hosts => ["https://192.168.0.227:9200"] 
                  index => "myindex" 
                  user => "admin" 
                  password => "******" 
                  cacert => "/logstash/logstash6.8/config/CloudSearchService.cer" 
              } 
          }
          
          说明
          password:登录安全集群的密码。

          7.执行如下命令将Logstash收集的数据导入到集群中。

          ./bin/logstash -f logstash-simple.conf

          8.登录云搜索服务管理控制台。

          9.在左侧导航栏中,选择“集群管理”,进入集群列表页面。

          10.在集群列表页面中,单击待导入数据的集群“操作”列的“Kibana”。

          11.在Kibana的左侧导航中选择“Dev Tools”,单击“Get to work”,进入Console界面。

          12.在已打开的Kibana的Console界面,通过搜索获取已导入的数据。在Kibana控制台,输入如下命令,搜索数据。查看搜索结果,如果数据与导入数据一致,表示数据文件的数据已导入成功。

          GET myindex/_search

          Logstash部署在弹性云主机上时导入数据

          当Logstash部署在同一VPC的弹性云主机时,导入数据的流程说明如下图所示。

          Logstash部署在弹性云主机上时导入数据示意图

          图5-5 Logstash部署在弹性云服务器上时导入数据示意图.png

          1.确保已部署Logstash的弹性云主机与待导入数据的集群在同一虚拟私有云下,已开放安全组的9200端口的外网访问权限,且弹性云主机已绑定弹性IP。

          说明
          • 如果同一个VPC内有多台服务器,只要其中一台绑定了弹性IP,其他的服务器可以不需要绑定弹性IP。通过绑定弹性IP的节点跳转到部署Logstash的节点即可 。

          • 如果有专线或者VPN,也不需要绑定弹性IP。

          2.使用PuTTY登录弹性云主机。

          例如此服务器中存储了需要导入的数据文件“access_20181029_log”,文件存储路径为“/tmp/access_log/”,此数据文件中包含的数据如下所示:

          |   All |               Heap used for segments |                        |  
          18.6403 |      MB | 
          
          |   All |             Heap used for doc values |                        |    0.119289 |      MB | 
          
          |   All |                  Heap used for terms |                        |     17.4095 |      MB | 
          
          |   All |                  Heap used for norms |                        |   0.0767822 |      MB | 
          
          |   All |                 Heap used for points |                        |    0.225246 |      MB | 
          
          |   All |          Heap used for stored fields |                        |    0.809448 |      MB | 
          
          |   All |                        Segment count |                        |         101 |         | 
          
          |   All |                       Min Throughput |           index-append |     66232.6 | 
          docs/s | 
          
          |   All |                    Median Throughput |           index-append |     66735.3 | 
          docs/s | 
          
          |   All |                       Max Throughput |           index-append |     67745.6 | 
          docs/s | 
          
          |   All |              50th percentile latency |           index-append |     510.261 |      ms |
          

          3.执行如下命令在Logstash的安装目录下新建配置文件logstash-simple.conf。

          cd /<Logstash的安装目录>/ 
          vi logstash-simple.conf
          

          在配置文件logstash-simple.conf中输入如下内容。

          input { 
          数据所在的位置 
          } 
          filter { 
          数据的相关处理 
          } 
          output { 
              elasticsearch{ 
                  hosts => "<节点的内网访问地址和端口号>"}  
          }
          
          • input:指明了数据的来源。实际请根据用户的具体情况来设置。
          • filter:对日志进行了提取和处理,将非结构化信息转换为结构化信息。
          • output:指明了数据的目的地址。 < 节点的内网访问地址和端口号> 为集群中节点的内网访问地址和端口号。

          当集群包含多个节点时,为了避免节点故障,建议将上述命令中 < 节点的内网访问地址和端口号> 替换为该集群中多个节点的内网访问地址和端口号,多个节点的内网访问地址和端口号之间用英文逗号隔开,填写格式请参见如下示例。

          hosts => ["192.168.0.81:9200","192.168.0.24:9200"]

          当集群只包含一个节点时,填写格式请参见如下示例。

          hosts => "192.168.0.81:9200"

          以步骤2中“/tmp/access_log/”的数据文件为例,输入数据文件从首行开始,且过滤条件保持为空,即不做任何数据处理操作。需导入数据的集群,其节点内网访问地址和端口号为“192.168.0.81:9200”。导入数据的索引名称为“myindex”。配置文件的示例如下所示,配置文件按实际数据情况修改完成后,输入“:wq”保存。

          input
          {  
          
              file{ 
          
                path =>
          "/tmp/access_log/*" 
          
                start_position =>
          "beginning" 
          
              } 
          
          }  
          
          filter {  
          
          }  
          
          output {  
          
              elasticsearch {  
          
                hosts =>
          "192.168.0.81:9200" 
          
                index => "myindex" 
          
                document_type =>
          "mytype" 
          
              } 
          
          
          }
          

          如果集群开启了安全模式,则需要先下载证书。

          a. 在集群基本信息页面下载证书。

          详见下图:下载证书

          图5-6 下载证书.png

          b. 将下载的证书存放到部署logstash服务器中。

          c. 修改配置文件logstash-simple.conf。

          以步骤2中“/tmp/access_log/”的数据文件为例,输入数据文件从首行开始,且过滤条件保持为空,即不做任何数据处理操作。跳转主机的公网IP和端口号为“192.168.0.227:9200”。导入数据的索引名称为“myindex”,证书存放路径为“/logstash/logstash6.8/config/CloudSearchService.cer”。配置文件的示例如下所示,配置文件按实际数据情况修改完成后,输入“:wq”保存。

          input{ 
          
              file { 
          
                  path =>
          "/tmp/access_log/*" 
          
                  start_position =>
          "beginning" 
          
              } 
          
          } 
          
          filter { 
          
              } 
          
          output{ 
          
              elasticsearch{ 
          
                  hosts =>
          ["https://192.168.0.227:9200"] 
          
                  index => "myindex" 
          
                  user => "admin" 
          
                  password => "******"
          
          
                  cacert =>
          "/logstash/logstash6.8/config/CloudSearchService.cer" 
          
              } 
          
          }
          
          说明
          password:登录安全集群的密码 。

          4.执行如下命令将Logstash收集的弹性云主机的数据导入到集群中。

          ./bin/logstash -f logstash-simple.conf

          5.登录云搜索服务管理控制台。

          6.在左侧导航栏中,选择“集群管理”,进入集群列表页面。

          7.在集群列表页面中,单击待导入数据的集群“操作”列的“Kibana”。

          8.在Kibana的左侧导航中选择“Dev Tools”,单击“Get to work”,进入Console界面。

          9.在已打开的Kibana的Console界面,通过搜索获取已导入的数据。

          在Kibana控制台,输入如下命令,搜索数据。查看搜索结果,如果数据与导入数据一致,表示数据文件的数据已导入成功。

          GET myindex/_search

          文档反馈

          建议您登录后反馈,可在建议与反馈里查看问题处理进度

          鼠标选中文档,精准反馈问题

          选中存在疑惑的内容,即可快速反馈问题,我们会跟进处理

          知道了

          上一篇 :  导入数据到Elasticsearch
          下一篇 :  使用Kibana或API导入数据到Elasticsearch
          搜索 关闭
          ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
          公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
          备案 京公网安备11010802043424号 京ICP备 2021034386号
          ©2025天翼云科技有限公司版权所有
          京ICP备 2021034386号
          备案 京公网安备11010802043424号
          增值电信业务经营许可证A2.B1.B2-20090001
          用户协议 隐私政策 法律声明