爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      Celery - 分布式任务队列

      首页 知识中心 云计算 文章详情页

      Celery - 分布式任务队列

      2023-06-19 06:58:48 阅读次数:106

      python,redis

              Celery 是一个简单、灵活且可靠的分布式系统,可以处理大量消息,同时为操作提供维护此类系统所需的工具。

              它是一个专注于实时处理的任务队列,同时也支持任务调度。

      1、celery的介绍

      1.1 什么是任务队列

              任务队列用作跨线程或机器分配工作的机制。

              任务队列的输入是称为任务的工作单元。专用的工作进程不断监视任务队列以执行新工作。

              Celery 通过消息进行通信,通常使用代理在客户和工作人员之间进行调解。为了启动任务,客户端将一条消息添加到队列中,然后代理将该消息传递给工作人员。

              Celery 系统可以由多个 worker 和 broker 组成,让位于高可用性和横向扩展。

      1.2 celery的使用

              Celery需要消息传输来发送和接收消息。

              RabbitMQ 和 Redis 代理传输功能完备,但也支持无数其他实验性解决方案,包括使用 SQLite 进行本地开发。

              Celery可以在单机上运行,​​也可以在多台机器上运行,甚至可以跨数据中心运行。

      1.3 celery的介绍

      简单:

      Celery 易于使用和维护,并且不需要配置文件。

      from celery import Celery
      
      app = Celery('hello', broker='amqp://guest@localhost//')
      
      @app.task
      def hello():
          return 'hello world'

      高可用:

              Worker 和 clients 会在连接丢失或失败时自动重试,一些 broker 以Primary/Primary或Primary/Replica复制的方式支持 HA。

      快速:

              单个 Celery 进程每分钟可以处理数百万个任务,往返延迟为亚毫秒级(使用 RabbitMQ、librabbitmq 和优化设置)。

      灵活:

              Celery的几乎每个部分都可以单独扩展或使用,自定义池实现、序列化程序、压缩方案、日志记录、调度程序、消费者、生产者、代理传输等等。

      1.4 celery支持

      •  中间人

        • RabbitMQ

        • Redis

        • Amazon SQS

      • 结果存储

        • AMQP、 Redis

        • Memcached

        • SQLAlchemy、Django ORM

        • Apache Cassandra, Elasticsearch, Riak

        • MongoDB, CouchDB, Couchbase, ArangoDB

        • Amazon DynamoDB, Amazon S3

        • Microsoft Azure Block Blob, Microsoft Azure Cosmos DB

        • File system

      • 并发

        • prefork (multiprocessing)

        • Eventlet、gevent

        • thread (multithreaded)

        • solo (single threaded)

      • 序列化

        • pickle、json、yaml、msgpack

        • zlib、bzip2 compression

        • Cryptographic message signing

      1.5 celery特点功能

      • 监控

              可以针对整个流程进行监控,内置的工具或可以实时说明当前集群的概况。

      • 调度

              可以通过调度功能在一段时间内指定任务的执行时间 datetime,也可以根据简单每隔一段时间进行执行重复的任务,支持分钟、小时、星期几,也支持某一天或某一年的Crontab表达式。

      • 工作流

              可以通过“canvas“进行组成工作流,其中包含分组、链接、分块等等。

              简单和复杂的工作流程可以使用一组“canvas“组成,其中包含分组、链接、分块等。

      • 资源(内存)泄漏保护

          --max-tasks-per-child 参数适用于可能会出现资源泄漏(例如:内存泄漏)的任务。

      • 时间和速率的限制

              可以控制每秒/分钟/小时执行任务的次数,或者任务执行的最长时间,也将这些设置为默认值,针对特定的任务或程序进行定制化配置。

      • 自定义组件

              开发者可以定制化每一个Worker以及额外的组件。Worker是用 “bootsteps” 构建的-一个依赖关系图,可以对Worker的内部进行细粒度控制。

      1.6 celery框架集成

      Celery可以快速的集成一些常用的Web框架,详细如下:

      Web框架

      集成包

      Pyramid

      pyramid_celery

      Pylons

      celery-pylons

      Flask

      不需要

      web2py

      web2py-celery

      Tornado

      tornado-celery

      Tryton

      celery_tryton

      针对 Django ,请参考 Django 的初次使用。

              集成包并不是必须安全的,但使用它们可以更加快速和方便的开发,有时它们会在 fork(2) 中添加例如数据库关闭连接的回调。

      2、 celery简单项目实战

      2.1 项目布局:

      Celery - 分布式任务队列

      celery.celery.py:

      from celery import Celery
      
      app = Celery('proj',
                   broker='redis://192.168.124.49:6379/0',
                   backend='redis://192.168.124.49:6379/0',
                   include=['celery_proj.tasks'])
      
      # Optional configuration, see the application user guide.
      app.conf.update(
          result_expires=3600,
      )
      
      if __name__ == '__main__':
          app.start()
      
      • broker参数指定要使用的代理的 URL。
      • backend参数指定要使用的结果后端。
      • include参数是工作程序启动时要导入的模块列表。您需要在此处添加我们的任务模块,以便worker能够找到我们的任务。

      celery_proj.tasks.py:

      from .celery import app
      
      
      @app.task
      def add(x, y):
          return x + y
      
      
      @app.task
      def mul(x, y):
          return x * y
      
      
      @app.task
      def xsum(numbers):
          return sum(numbers)
      

      2.2 启动worker

              celery程序可以用来启动worker(需要在proj上面的目录下运行worker)

      celery -A celery_proj.celery worker -l info -P eventlet

      注意:在windows中执行时,添加-P eventlet,否则可能执行任务时报错。 

      Celery - 分布式任务队列

      --help:可以通过传入标志来获取完整的命令行参数列表: 

      celery worker --help
      Usage: celery worker [OPTIONS]
      
        Start worker instance.
      
        Examples -------- $ celery --app=proj worker -l INFO $ celery -A proj worker
        -l INFO -Q hipri,lopri $ celery -A proj worker --concurrency=4 $ celery -A
        proj worker --concurrency=1000 -P eventlet $ celery worker --autoscale=10,0
      
      Worker Options:
        -n, --hostname HOSTNAME         Set custom hostname (e.g., 'w1@%%h').
                                        Expands: %%h (hostname), %%n (name) and %%d,
                                        (domain).
        -D, --detach                    Start worker as a background process.
        -S, --statedb PATH              Path to the state database. The extension
                                        '.db' may be appended to the filename.
        -l, --loglevel [DEBUG|INFO|WARNING|ERROR|CRITICAL|FATAL]
                                        Logging level.
        -O [default|fair]               Apply optimization profile.
        --prefetch-multiplier <prefetch multiplier>
                                        Set custom prefetch multiplier value for
                                        this worker instance.
      
      Pool Options:
        -c, --concurrency <concurrency>
                                        Number of child processes processing the
                                        queue.  The default is the number of CPUs
                                        available on your system.
        -P, --pool [prefork|eventlet|gevent|solo|processes|threads]
                                        Pool implementation.
        -E, --task-events, --events     Send task-related events that can be
                                        captured by monitors like celery events,
                                        celerymon, and others.
        --time-limit FLOAT              Enables a hard time limit (in seconds
                                        int/float) for tasks.
        --soft-time-limit FLOAT         Enables a soft time limit (in seconds
                                        int/float) for tasks.
        --max-tasks-per-child INTEGER   Maximum number of tasks a pool worker can
                                        execute before it's terminated and replaced
                                        by a new worker.
        --max-memory-per-child INTEGER  Maximum amount of resident memory, in KiB,
                                        that may be consumed by a child process
                                        before it will be replaced by a new one.  If
                                        a single task causes a child process to
                                        exceed this limit, the task will be
                                        completed and the child process will be
                                        replaced afterwards. Default: no limit.
      
      Queue Options:
        --purge, --discard
        -Q, --queues COMMA SEPARATED LIST
        -X, --exclude-queues COMMA SEPARATED LIST
        -I, --include COMMA SEPARATED LIST
      
      Features:
        --without-gossip
        --without-mingle
        --without-heartbeat
        --heartbeat-interval INTEGER
        --autoscale <MIN WORKERS>, <MAX WORKERS>
      
      Embedded Beat Options:
        -B, --beat
        -s, --schedule-filename, --schedule TEXT
        --scheduler TEXT
      
      Daemonization Options:
        -f, --logfile TEXT
        --pidfile TEXT
        --uid TEXT
        --uid TEXT
        --gid TEXT
        --umask TEXT
        --executable TEXT
      
      Options:
        --help  Show this message and exit.
      

      在生产环境中,您需要在后台运行 worker。

      守护进程脚本使用celery multi命令在后台启动一个或多个 worker:

      celery multi start w1 -A proj -l INFO

      也可以重新启动它:

      celery  multi restart w1 -A proj -l INFO

      停止它:

      celery multi stop w1 -A proj -l INFO

      该stop命令是异步的,因此它不会等待 worker 关闭。您可能希望改用该stopwait命令,以确保在退出之前完成所有当前正在执行的任务:

      celery multi stopwait w1 -A proj -l INFO

      注意:celery multi不存储有关worker的信息,因此您需要在重新启动时使用相同的命令行参数。停止时只能使用相同的 pidfile 和 logfile 参数。

      默认情况下,它将在当前目录中创建 pid 和日志文件。为了防止多个 worker 相互叠加启动,我们建议您将它们放在一个专用目录中:

      mkdir -p /var/run/celery
      mkdir -p /var/log/celery
      celery multi start w1 -A proj -l INFO --pidfile=/var/run/celery/%n.pid --logfile=/var/log/celery/%n%I.log

      使用 multi 命令,可以启动多个 worker,并且还有一个强大的命令行语法来为不同的 worker 指定参数,例如:

      celery multi start 10 -A proj -l INFO -Q:1-3 images,video -Q:4,5 data -Q default -L:4,5 debug

      2.3 任务调度

      使用以下方法调用任务delay():

      from proj.tasks import add
      
      add.delay(2, 2)

      此方法实际上是另一种方法的星号参数快捷方式 apply_async():

      add.apply_async((2, 2))

      后者使您能够指定执行选项,例如运行时间(倒计时)、它应该发送到的队列等等:

      add.apply_async((2, 2), queue='lopri', countdown=10)

              在上面的示例中,任务将被发送到一个名为的队列lopri,并且该任务最早将在消息发送后 10 秒执行。

      直接应用任务将在当前进程中执行任务,因此不会发送消息:

      from celery_proj.tasks import add, mul
      
      ret = add(2, 3)
      print(ret)
      

      这三个方法 - delay()、apply_async()和 applying ( __call__) 构成了 Celery 调用 API,它也用于签名。

      每个任务调用都将被赋予一个唯一标识符(UUID)——这就是任务 ID。

      如果您配置了结果后端,则可以检索任务的返回值:

      from celery_proj.tasks import add
      
      ret = add.delay(2, 3)
      print(ret)
      
      print(ret.get(timeout=1))
      
      # 通过查看id属性找到任务的 ID
      print(ret.id)

      Celery - 分布式任务队列

      如果任务引发异常,还可以检查异常和回溯,实际上result.get()默认情况下会传播任何错误:

      from celery_proj.tasks import add
      
      ret = add.delay(2, '3')
      print(ret.get(timeout=1))
      

      Celery - 分布式任务队列

      如果您不希望错误传播,您可以通过传递来禁用它propagate:

      from celery_proj.tasks import add
      
      ret = add.delay(2, '3')
      print(ret.get(propagate=False, timeout=1))
      

      Celery - 分布式任务队列

      在这种情况下,它将返回引发的异常实例——因此要检查任务是成功还是失败,您必须在结果实例上使用相应的方法:

      from celery_proj.tasks import add
      
      ret = add.delay(2, '3')
      print(ret.get(propagate=False, timeout=1))
      
      print(ret.failed())
      print(ret.successful())
      

      Celery - 分布式任务队列

      那么它如何知道任务是否失败呢?它可以通过查看任务状态来找出: 

      from celery_proj.tasks import add
      
      ret = add.delay(2, '3')
      print(ret.get(propagate=False, timeout=1))
      
      print(ret.state)
      

      Celery - 分布式任务队列

       一个任务只能处于一个状态,但它可以在多个状态之间进行。典型任务的阶段可以是:

      Celery - 分布式任务队列

      启动状态是一种特殊状态,只有在 task_track_started启用设置或 @task(track_started=True)为任务设置了选项时才会记录该状态。

      挂起状态实际上不是记录状态,而是任何未知任务 ID 的默认状态:您可以从这个例子中看到这一点:

      from celery_proj.celery import app
      
      res = app.AsyncResult('this-id-does-not-exist')
      print(res.state)
      

      Celery - 分布式任务队列

      如果重试任务,阶段可能会变得更加复杂。为了演示,对于重试两次的任务,阶段将是:

      Celery - 分布式任务队列

       2.4 签名

              签名包装了单个任务调用的参数和执行选项,使其可以传递给函数,甚至可以序列化并通过网络发送。

      add您可以使用 arguments和 10 秒倒计时为任务创建签名,如下所示:(2, 2)

      Celery - 分布式任务队列

       还有一个使用星号参数的快捷方式:

      Celery - 分布式任务队列

      签名实例还支持调用 API,这意味着它们具有delay和apply_async方法。

      但区别在于签名可能已经指定了参数签名。该add任务有两个参数,因此指定两个参数的签名将构成完整的签名:

      Celery - 分布式任务队列

      也可以制作不完整的签名来创建我们所说的 partials:

      Celery - 分布式任务队列

      s2现在是需要另一个参数才能完成的部分签名,这可以在调用签名时解决:

      Celery - 分布式任务队列

       在这里,您将参数 8 添加到现有参数 2 之前,形成了 的完整签名。add(8, 2)

      关键字参数也可以稍后添加;然后将它们与任何现有的关键字参数合并,但新参数优先:

      Celery - 分布式任务队列

       如前所述,签名支持调用 API:这意味着

      • sig.apply_async(args=(), kwargs={}, **options):使用可选的部分参数和部分关键字参数调用签名。还支持部分执行选项。
      • sig.delay(*args, **kwargs):任何参数都将添加到签名中的参数之前,关键字参数与任何现有键合并。

      2.5 路由

      Celery 支持 AMQP 提供的所有路由工具,但它也支持将消息发送到命名队列的简单路由。

      该task_routes设置使您能够按名称路由任务并将所有内容集中在一个位置:

      app.conf.update(
          task_routes = {
              'proj.tasks.add': {'queue': 'hipri'},
          },
      )

      还可以在运行时使用以下queue参数指定队列apply_async:

      from proj.tasks import add
      add.apply_async((2, 2), queue='hipri')

      可以通过指定选项让worker从该队列中消费:celery worker -Q

      Celery - 分布式任务队列

      可以使用逗号分隔的列表指定多个队列。例如,您可以让worker同时从默认队列和队列中消费,其中默认队列是由于历史原因hipri而命名的:celery

      Celery - 分布式任务队列

       队列的顺序无关紧要,因为worker会给队列同等的权重。

      2.6 时区

      所有时间和日期,内部和消息中都使用 UTC 时区。

      当worker收到一条消息时,例如设置了倒计时,它会将 UTC 时间转换为本地时间。如果您希望使用与系统时区不同的时区,则必须使用以下timezone设置进行配置:

      app.conf.timezone = 'Europe/London'
      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.csdn.net/weixin_44799217/article/details/111880409,作者:IT之一小佬,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:计算机网络笔记

      下一篇:计算机网络实验二---静态路由配置

      相关文章

      2025-05-06 09:19:12

      redis高可用集群搭建

      redis高可用集群搭建

      2025-05-06 09:19:12
      master , redis , 服务器 , 节点 , 集群
      2025-04-22 09:27:37

      【Redis】浅析 Redis 事务

      【Redis】浅析 Redis 事务

      2025-04-22 09:27:37
      redis , Redis , 事务 , 命令 , 执行
      2025-04-14 09:24:23

      python打印宝塔代码

      python打印宝塔代码

      2025-04-14 09:24:23
      python
      2025-04-09 09:16:56

      python四种抽样方法的使用:随机抽样、聚类抽样、系统抽样、分层抽样

      python四种抽样方法的使用:随机抽样、聚类抽样、系统抽样、分层抽样

      2025-04-09 09:16:56
      python , 代码 , 方法 , 机器学习 , 示例
      2025-04-09 09:16:42

      视频 | Python测试开发之调试print代码实例

      视频 | Python测试开发之调试print代码实例

      2025-04-09 09:16:42
      debug , log4j , logback , logging , python
      2025-04-09 09:16:42

      python简单介绍及基础知识(一)

      编程语言,是用来实现某种功能的编写给计算机读取和执行的语言

      2025-04-09 09:16:42
      print , python , 下划线 , 变量 , 变量名 , 编程语言 , 语言
      2025-04-09 09:16:00

      使用Python扩展PAM(part 2)

      在上篇part1 中编译的pam_python.so可以用Python代码进行一些额外的验证操作。动态密码,虚拟账号,都是可行的,只要编写的python鉴权脚本符合相应的PAM规范即可使用。

      2025-04-09 09:16:00
      python , 使用 , 密码 , 配置
      2025-04-09 09:13:27

      1行Python代码,把Excel转成PDF,python-office功能更新~

      1行Python代码,把Excel转成PDF,python-office功能更新~

      2025-04-09 09:13:27
      Excel , pdf , python , 代码 , 程序员
      2025-04-09 09:13:17

      python性能测试之pyperformance

      python性能测试之pyperformance

      2025-04-09 09:13:17
      json , python , Python , 性能 , 文档 , 测试
      2025-04-09 09:13:17

      IronPython 与 c# 交互之导入Python模块的两种方法

      当我们要在C#中调用python时,有时候需要用到python里的一些函数,比如进行一些数学运算,开方,取对数,这个时候我们需要用到python里的math模块(类似C#的命名空间,但概念不完全一样).

      2025-04-09 09:13:17
      python , 函数 , 导入 , 方法 , 模块
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5240241

      查看更多

      最新文章

      解决tomcat部署项目中碰到的几个问题

      2025-04-09 09:13:17

      redis-cluster分布式集群安装部署

      2025-03-17 07:49:59

      一篇文章教你弄懂redis多模式部署

      2024-12-13 06:53:39

      Python计算分类问题的评价指标(准确率、精确度、召回率和F1值,Kappa指标)

      2024-10-18 09:52:50

      Kafaka+Redis异步实现商品下单减库存【SpringCloud系列18】

      2024-09-25 10:14:09

      解决pandas计算相关系数corr返回空的问题

      2024-09-25 10:13:46

      查看更多

      热门文章

      Huffman Tree哈夫曼树权值路径长度WPL计算,binarytree ,Python

      2023-04-13 10:16:03

      二叉搜索树BST图节点平衡因子计算,binarytree,Python

      2023-04-13 10:14:56

      python numpy计算任意底数的对数 log

      2023-04-17 10:55:03

      python日期计算:计算相隔任意时间后的准确日期

      2023-04-17 10:55:14

      redis cluster k8s部署

      2023-03-02 09:38:54

      如何用java计算BMI

      2023-02-24 10:11:49

      查看更多

      热门标签

      系统 测试 用户 分布式 Java java 计算机 docker 代码 数据 服务器 数据库 源码 管理 python
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      工作中常见的Redis部署模式

      计算阶乘之和

      python 在Centos6下部署Mongodb数据库

      Hadoop(4)-Python借助pyhdfs对Hadoop的HDFS分布式文件系统的全部操作详细实例演示

      Python编程实现计算存款利息

      Python|利用动态规划解决路径数目问题

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号