爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      3-数据提取方法1(json)(6节课学会爬虫)

      首页 知识中心 大数据 文章详情页

      3-数据提取方法1(json)(6节课学会爬虫)

      2025-02-14 08:18:57 阅读次数:14

      amp,json,Json,数据,页面

      1,Json

      数据交换格式(数据后端传递到前端,一般是json的格式),看起来像python的字符串列表、字典

      使用json前需要导入 import json

      2,哪里会返回json的数据(值得尝试的操作)

        浏览器切换到手机版(不是每个页面都会返回json数据,如百度手机版,虽然是手机版,但返回的不是json而是HTML的数据)
        抓包App(很多app,有的前端和后端都是被人写的,会在前端和后端传输数据的时候加密,抓到的数据都是加密后的,可能也会获取不到,也是值得尝试的,一旦找到返回json数据的地址,会使我们后续的操作非常的容易)

      3,Json字符串转换成字典或python类型进行数据提取

      (1)Json.loads

      -把json字符串转换成python字典类型

        Json.loads(json字符串)
      

      (2)Json.dumps

      把python的字典类型转换成字符串

      Json.dumps({“a”:”a”,”b”:2})
      

      当我们写文件时,将字典写入到本地是不行的,只能是字符串
      Ensure_ascii:让中文显示成中文
      Indent:能够让下一行在上一行的基础上空格

      4,百度翻译百度翻译反爬越来越难爬取(不能使用其他字符串的原因如上连接)

      #-*- codeing = utf-8 -*- 
      #@Time : 2020/12/9 18:45
      #@Author : 招财进宝
      #@File : 06-try_json.py
      #@Software: PyCharm
      
      import requests
      import json
      
      #模拟浏览器访问
      url = "https:///v2transapi?from=zh&to=en"
      
      #query_str = input("请输入要翻译的中文:")
      
      data={
          "from": "zh",
          "to": "en",
          "query": "你好",
          "transtype": "translang",
          "simple_means_flag": "3",
          "sign": "232427.485594",
          "token": "365f8c1b81a6764199c2f387c1da6e2f",
          "domain": "common"
          }
      
      print(data)
      
      headers = {
          "accept-encoding": "gzip, deflate, br",
          "accept-language": "zh-CN,zh;q=0.9",
          "cache-control": "no-cache",
          "content-length": "150",
          "content-type": "application/x-www-form-urlencoded; charset=UTF-8",
          "origin": "https://",
          "pragma": "no-cache",
          "referer":"https:///v",
          "sec-fetch-destv": "empty",
          "sec-fetch-mode": "cors",
          "sec-fetch-site": "same-origin",
          "x-requested-with": "XMLHttpRequest",
          "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36",
          "cookie": "换成自己的"
          }
      
      response = requests.post(url,data=data,headers=headers)
      
      html_str = response.content.decode()        #json字符串,类型是str
      
      dict_ret = json.loads(html_str)             #将json字符串转换成字典类型
      print(dict_ret)                             #{'trans_result': {'data': [{'dst': 'Hello', 'prefixWrap': 0,........
      print(type(dict_ret))
      
      ret = dict_ret["trans_result"]["data"][0]["dst"]    #从上方的dict_ret结果进行需要的数据的提取,提取的方式如左侧
      #
      print("翻译的结果是:",ret)
      

      5,豆瓣电视剧

        使用Chrome浏览器打开百度页面,可以切换到手机版(我这里是手机上的网页版,因为其要下载app,可能后面的结果不是json的,直接就是网页),手机版对应的页面返回的是json

      3-数据提取方法1(json)(6节课学会爬虫)

      要在network中找到那个url地址是包含这些美剧信息的地址

      当我们点击
      3-数据提取方法1(json)(6节课学会爬虫)

        当我们点击ctr+F的时候,进行搜索上面的内容是否在response中,有时候无法搜索到,原因有2:
      1.response中没有
      2.中文是被编码后的中文,直接使用中文是搜索不到的,可以在preview中搜索(在preview中的中文就是正常中文)

        当以上两种方式在url中都无法找到时,可以接着向下寻找url,只要js和css都不需要管,最后发现

      3-数据提取方法1(json)(6节课学会爬虫)

      https:///search/?query=%E7%BE%8E%E5%89%A7&type=movie
      当使用上面链接进行另一标签页再打开的时候,发现可能会出错,

        在request的headers中进行查看,其中accept都不用关心,而下方的要和前面的标签页面进行对比,最后发现refer这个字段内容没有,很有可能是此内容导致页面的数据无法获取

        下方在编程中进行实现,加入refer字段后,就能得到数据了,说明豆瓣的反爬机制是对此有反应的(但真实情况是use-agent一个字段就可以了,应该是视频上的出现了错误)

      #-*- codeing = utf-8 -*- 
      #@Time : 2020/12/10 9:10
      #@Author : 招财进宝
      #@File : 07_try_json.py
      #@Software: PyCharm
      
      
      import requests
      
      url = "https:///search/?query=%E7%BE%8E%E5%89%A7&type=movie"
      
      headers={
          "User-Agent": "Mozilla/5.0 (iPhone; CPU iPhone OS 13_2_3 like Mac OS X) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/13.0.3 Mobile/15E148 Safari/604.1",
          }
      
      response = requests.get(url,headers=headers)
      
      print(response.content.decode())
      
      
      
      

      https:///search/?query=%E7%BE%8E%E5%89%A7&type=movie因为上方的结果是网页的HTML,并不是json的数据格式,所以接下来的编写就不进行了

      Ensure_ascii =False    #不再以ASCII码的方式保存中文
      Indent=2         #能在保存时有换行的效果,下一行比上一行空2格
      

      3-数据提取方法1(json)(6节课学会爬虫)

      3-数据提取方法1(json)(6节课学会爬虫)

      https:///j/search/?q=%E7%BE%8E%E5%89%A7&t=movie&p=1
        当我们使用鼠标在上方的收集版网页进行搜索时,需要点击更多搜索结果,然后会出现新的url,在此url中,如上,可以看到页面的
      3-数据提取方法1(json)(6节课学会爬虫)

      当我们将其输入到地址栏中时,就可以看到返回的json数据
      3-数据提取方法1(json)(6节课学会爬虫)

      由此可以判断https:///j/search/?q=%E7%BE%8E%E5%89%A7&t=movie&p=1
      就是根据p改变的页面

      通过p向服务器说明要返回什么数据
      3-数据提取方法1(json)(6节课学会爬虫)

      或者自己的分析不够精确,可能是count的作为限制数

      下方就不编写这个手机版的json的爬取代码了,因为此处和视频上的是无法对应的,这个实时性太强了,现在使用之前的代码函数,是无法获取的到数据的。

      下面是写到一半的代码

      #-*- codeing = utf-8 -*- 
      #@Time : 2020/12/10 9:58
      #@Author : 招财进宝
      #@File : 08_douban_spider.py
      #@Software: PyCharm
      
      from parse import parse_url         #此处的parse文件应放在项目的下一级,而不是好几级,会引入不到
      import json
      
      class DoubanSpider:
      
          def __init__(self):
              self.temp_url = "https:///j/search/?q=%E7%BE%8E%E5%89%A7&t=movie&p={}"
      
          def get_contentf_list(self,html_str):   #提取数据
              dict_data = json.loads(html_str)
              content_list = dict_data["html"]        #返回的是HTML字段的数据(不再进行下去了)
      
          def run(self):#实现主要逻辑
              num=1
              #1.start_url
              start_url = self.temp_url.format(1)
              #2.发送请求获取响应
              html_str = parse_url(start_url)                 #使用自己封装的函数进行url请求
              #3.提取数据
              #4.保存
              #5.构造下一页的url地址,循环2-5次
      
      #-*- codeing = utf-8 -*- 
      #@Time : 2020/12/9 14:36
      #@Author : 招财进宝
      #@File : parse.py
      import requests
      from retrying import retry
      
      #下方是电脑版的,若是手机版的,还需要更改为手机版
      headers = {"user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36"}
      
      # headers={
      #     "User-Agent": "Mozilla/5.0 (iPhone; CPU iPhone OS 13_2_3 like Mac OS X) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/13.0.3 Mobile/15E148 Safari/604.1",
      #     }
      
      @retry(stop_max_attempt_number=3)       #让下面被装饰的函数反复执行三次,三次全部报错才会报错,中间有一次正常,程序继续往后走
      def _parse_url(url):
          print("*"*100)
          response = requests.get(url,headers=headers,timeout=5)
          return response.content.decode()
      
      def parse_url(url):
          try:
              html_str = _parse_url(url)
          except:
              html_str = None
          return html_str
      
      if __name__ == '__main__':
          url = "http://"
          print(parse_url(url)[:100])         #只打印前100字符串,此处访问成功只出现一行*
          url1 = ""              #此处地址有误
          print(parse_url(url1))              #会出现三行*
      #@Software: PyCharm
      

      下面是视频上的内容
      定义run方法,可以清楚的知道先做了什么,后做了什么,接着就是各个函数的编写

      在浏览器中,获取的数据只有几百条,被限制住了

      3-数据提取方法1(json)(6节课学会爬虫)

      3-数据提取方法1(json)(6节课学会爬虫)

      3-数据提取方法1(json)(6节课学会爬虫)

      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://zhaocai-l.blog.csdn.net/article/details/140078289,作者:吾名招财,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:【算法】栈算法——栈的压入、弹出序列

      下一篇:算法——双指针

      相关文章

      2025-05-19 09:04:53

      【NetApp数据恢复】误操作导致NetApp存储的卷丢失,卷内虚拟机无法访问的数据恢复案例

      【NetApp数据恢复】误操作导致NetApp存储的卷丢失,卷内虚拟机无法访问的数据恢复案例

      2025-05-19 09:04:53
      存储 , 数据 , 数据恢复 , 解压
      2025-05-16 09:15:10

      画图时使用的函数和一些错误处理

      画图时使用的函数和一些错误处理

      2025-05-16 09:15:10
      数据
      2025-05-16 09:15:10

      C语言练习之猜名次-----A选手说:B第二,我第三;B选手说:我第二,E第四;C选手说:我第一,D第二;D选手说:C最后,我第三;E选手说:我第四,A第一;

      C语言练习之猜名次-----A选手说:B第二,我第三;B选手说:我第二,E第四;C选手说:我第一,D第二;D选手说:C最后,我第三;E选手说:我第四,A第一;

      2025-05-16 09:15:10
      amp , lt , 排名
      2025-05-14 10:33:25

      webpack5基础--01_基本使用

      webpack5基础--01_基本使用

      2025-05-14 10:33:25
      json , main , package , Webpack , 打包 , 文件 , 编译
      2025-05-14 10:33:25

      超级好用的C++实用库之国密sm4算法

      国密SM4算法,全称为国家密码管理局制定的SM4分组密码算法,是中国自主设计的商用密码算法标准之一,用于数据的对称加密。

      2025-05-14 10:33:25
      加密 , 参数 , 数据 , 模式 , 解密
      2025-05-14 10:33:16

      30天拿下Rust之字符串

      在Rust中,字符串是一种非常重要的数据类型,用于处理文本数据。Rust的字符串是以UTF-8编码的字节序列,主要有两种类型:&str和String。其中,&str是一个对字符数据的不可变引用,更像是对现有字符串数据的“视图”,而String则是一个独立、可变更的字符串实体。

      2025-05-14 10:33:16
      amp , Rust , str , String , 使用 , 字符串 , 方法
      2025-05-14 10:33:16

      30天拿下Rust之切片

      在Rust中,切片是一种非常重要的引用类型。它允许你安全地引用一段连续内存中的数据,而不需要拥有这些数据的所有权。切片不包含分配的内存空间,它仅仅是一个指向数据开始位置和长度的数据结构。

      2025-05-14 10:33:16
      amp , end , 切片 , 字符串 , 引用 , 索引 , 迭代
      2025-05-14 10:33:16

      30天拿下Python之使用网络

      Python网络编程覆盖的范围非常广,包括:套接字编程、socketserver、HTTP和Web开发、异步编程和asyncio等。

      2025-05-14 10:33:16
      Json , TCP , 客户端 , 接字 , 服务器 , 示例 , 连接
      2025-05-14 10:33:16

      30天拿下Python之使用Json

      Json的英文全称为JavaScript Object Notation,中文为JavaScript对象表示法,是一种存储和交换文本信息的语法,类似XML。Json作为轻量级的文本数据交换格式,比XML更小、更快,更易解析,也更易于阅读和编写。

      2025-05-14 10:33:16
      json , Json , Python , 字符串 , 对象 , 序列化 , 转换
      2025-05-14 10:07:38

      30天拿下Rust之引用

      在Rust语言中,引用机制是其所有权系统的重要组成部分,它为开发者提供了一种既高效又安全的方式来访问和共享数据。引用可以被视为一个指向内存地址的指针,它允许我们间接地访问和操作存储在内存中的数据。

      2025-05-14 10:07:38
      Rust , text , 可变 , 引用 , 数据
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5266557

      查看更多

      最新文章

      画图时使用的函数和一些错误处理

      2025-05-16 09:15:10

      30天拿下Rust之引用

      2025-05-14 10:07:38

      springmvc五种数据提交方式

      2025-05-07 09:07:56

      【30天玩转python】数据分析与可视化

      2025-05-06 09:19:30

      【30天玩转python】机器学习入门

      2025-05-06 09:19:30

      【大数据分析工具】使用Hadoop、Spark进行大数据分析

      2025-05-06 09:18:38

      查看更多

      热门文章

      5、使用PyTorch 实现线性回归

      2023-02-27 09:14:47

      一次k8s 数据卷异常问题的解决

      2022-11-08 07:33:08

      Dataloader有哪些使用方法

      2023-02-13 08:10:07

      Vue:自定义v-model数据双向绑定

      2022-11-17 12:37:28

      2022-04-01 访问k8s内的etcd的数据

      2023-02-23 07:38:36

      提升网络训练的准确率

      2023-02-13 09:26:16

      查看更多

      热门标签

      算法 leetcode python 数据 java 数组 节点 大数据 i++ 链表 golang c++ 排序 django 数据类型
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      Vue:自定义v-model数据双向绑定

      目标检测从入门到精通——数据增强方法总结

      【机器学习】简单易懂的聚类算法K-Means

      知识图谱:连接数据与智能的桥梁

      从纯函数讲起,一窥最深刻的函子 Monad

      【 数据建模与预测】数据建模的基本方法与预测技术

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号