爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      基于openCV的手势识别鼠标控制系统

      首页 知识中心 服务器 文章详情页

      基于openCV的手势识别鼠标控制系统

      2024-12-13 06:53:12 阅读次数:24

      cv2,img,self,摄像头,鼠标

      基于openCV的手势识别鼠标控制系统

      引言

      随着计算机视觉技术的发展,手势识别已经成为一种新的交互方式,广泛应用于智能家居、虚拟现实等领域。本文将介绍一个基于手势识别的鼠标控制系统,通过摄像头捕捉手部动作,实现鼠标指针的移动和点击操作。我们将从代码结构、功能实现以及关键知识点等方面进行详细讲解。

      技术栈

      • OpenCV:用于视频捕获和图像处理。
      • MediaPipe:用于手部姿态检测。
      • PyAutoGUI:用于模拟鼠标和键盘操作。

      代码结构

      整个系统的代码分为几个部分:

      1. HandsDetector 类:负责手部姿态检测。
      2. GestureControl 类:负责视频捕获、手势识别和鼠标控制。
      3. 主程序:初始化并运行手势控制系统。

      HandsDetector 类

      首先,我们需要一个手部姿态检测器类来处理手部姿态检测。假设这个类已经实现,并且提供了 detect_hands_landmarks 方法来检测手部关键点。

      # utils/hands_detector.py
      import cv2
      import mediapipe as mp
      
      class HandsDetector:
          def __init__(self, static_image_mode=False, max_num_hands=2, model_complexity=1, min_detection_confidence=0.5, min_tracking_confidence=0.5):
              self.mp_hands = mp.solutions.hands
              self.hands = self.mp_hands.Hands(static_image_mode, max_num_hands, model_complexity, min_detection_confidence, min_tracking_confidence)
              self.mp_drawing = mp.solutions.drawing_utils
      
          def detect_hands_landmarks(self, img, show_hand_connections=True, show_landmarks=True, show_landmarks_id=True):
              img_rgb = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
              results = self.hands.process(img_rgb)
              hands_landmarks_dict = {}
      
              if results.multi_hand_landmarks:
                  for hand_idx, hand_landmarks in enumerate(results.multi_hand_landmarks):
                      hands_landmarks_dict[hand_idx] = []
                      for idx, lm in enumerate(hand_landmarks.landmark):
                          h, w, c = img.shape
                          cx, cy = int(lm.x * w), int(lm.y * h)
                          hands_landmarks_dict[hand_idx].append((cx, cy))
                          if show_landmarks:
                              cv2.circle(img, (cx, cy), 5, (0, 255, 0), cv2.FILLED)
                          if show_landmarks_id:
                              cv2.putText(img, str(idx), (cx + 5, cy + 5), cv2.FONT_HERSHEY_PLAIN, 1, (0, 0, 255), 1)
                      if show_hand_connections:
                          self.mp_drawing.draw_landmarks(img, hand_landmarks, self.mp_hands.HAND_CONNECTIONS)
      
              return hands_landmarks_dict
      

      GestureControl 类

      接下来,我们实现 GestureControl 类,负责视频捕获、手势识别和鼠标控制。

      import math
      import time
      from typing import List
      
      import cv2
      import numpy as np
      import pyautogui
      
      from utils.hands_detector import HandsDetector
      
      
      class GestureControl:
          """
          手势控制
          """
          def __init__(self):
              self.camera_width, self.camera_height = (800, 480)
              self.cap = cv2.VideoCapture(0)
              self.cap.set(cv2.CAP_PROP_FRAME_WIDTH, self.camera_width)
              self.cap.set(cv2.CAP_PROP_FRAME_HEIGHT, self.camera_height)
              self.cap.set(cv2.CAP_PROP_BRIGHTNESS, 200)
              self.hands_detector = HandsDetector(
                  static_image_mode=False,
                  max_num_hands=1,
                  model_complexity=1,
                  min_detection_confidence=0.8,
                  min_tracking_confidence=0.7
              )
              self.hands_detector_dict = dict()
      
              self.thumb_tip = list()
              self.index_finger_tip = list()
              self.middle_finger_tip = list()
              self.index_point = list()
      
              self.index_point_color_unselected = (255, 255, 0)
              self.index_point_color_selected = (255, 0, 255)
              self.index_point_color = self.index_point_color_unselected
      
              self.thumb_first_joint_len = 0
      
              pyautogui.PAUSE = 0
              self.screen_width, self.screen_height = pyautogui.size()
      
              self.mouse_smoothing = 5
              self.last_mouse_point = [self.screen_width // 2, self.screen_height // 2]
      
              self.camera_padding = 100
      
              self.mouse_left_status_up = 1
              self.mouse_left_status_down = 2
              self.mouse_left_status = self.mouse_left_status_up
      
              self.mouse_right_status_up = 1
              self.mouse_right_status_down = 2
              self.mouse_right_status = self.mouse_right_status_up
      
          @staticmethod
          def two_point_distance(pt1: List[int], pt2: List[int]):
              """
              计算两点之间的距离
              :param pt1: 第一个点的坐标
              :param pt2: 第二个点的坐标
              :return: 两点之间的距离
              """
              return math.hypot(pt1[0] - pt2[0], pt1[1] - pt2[1])
      
          def extract_gesture_finger_keypoint(self):
              """
              提取手势手指关键点
              :return:
              """
              if self.hands_detector_dict:
                  self.thumb_tip = self.hands_detector_dict[0][4]
                  self.index_finger_tip = self.hands_detector_dict[0][8]
                  self.middle_finger_tip = self.hands_detector_dict[0][12]
                  thumb_ip = self.hands_detector_dict[0][3]
      
                  self.index_point = [
                      (self.index_finger_tip[0] + self.thumb_tip[0]) / 2,
                      (self.index_finger_tip[1] + self.thumb_tip[1]) / 2
                  ]
      
                  self.thumb_first_joint_len = self.two_point_distance(self.thumb_tip, thumb_ip)
      
          def move_mouse_point(self):
              """
              移动鼠标指针
              :return:
              """
              if not self.hands_detector_dict:
                  return
      
              screen_index_point = self.camera_to_screen_point(camera_point=self.index_point)
      
              last_x, last_y = self.last_mouse_point
              current_x, current_y = screen_index_point
              smoothing_screen_index_point_x = last_x + (current_x - last_x) / self.mouse_smoothing
              smoothing_screen_index_point_y = last_y + (current_y - last_y) / self.mouse_smoothing
              screen_index_point = [smoothing_screen_index_point_x, smoothing_screen_index_point_y]
      
              pyautogui.moveTo(x=screen_index_point[0], y=screen_index_point[1], duration=0.02)
              self.last_mouse_point = screen_index_point
      
          def camera_to_screen_point(self, camera_point: List[int]):
              """
              将摄像头坐标转换为屏幕坐标
              :param camera_point: 摄像头中的坐标
              :return: 屏幕中的坐标
              """
              safe_px = 10
      
              screen_x = erp(
                  x=camera_point[0],
                  xp=[self.camera_padding, self.camera_width - self.camera_padding],
                  fp=[safe_px, self.screen_width - safe_px],
                  left=safe_px,
                  right=self.screen_width - safe_px
              )
              screen_y = erp(
                  x=camera_point[1],
                  xp=[self.camera_padding, self.camera_height - self.camera_padding],
                  fp=[safe_px, self.screen_height - safe_px],
                  left=safe_px,
                  right=self.screen_height - safe_px
              )
              return [screen_x, screen_y]
      
          def control_mouse_button(self):
              """
              控制鼠标按钮
              :return:
              """
              if self.hands_detector_dict:
                  thumb_index_tip_distance = self.two_point_distance(self.thumb_tip, self.index_finger_tip)
                  thumb_middle_tip_distance = self.two_point_distance(self.thumb_tip, self.middle_finger_tip)
      
                  threshold_len_min = self.thumb_first_joint_len * 0.5
                  threshold_len_max = self.thumb_first_joint_len * 0.6
      
                  if thumb_index_tip_distance >= threshold_len_max and thumb_middle_tip_distance >= threshold_len_max:
                      if self.mouse_left_status == self.mouse_left_status_down:
                          pyautogui.mouseUp(button='left')
                          self.mouse_left_status = self.mouse_left_status_up
                      if self.mouse_right_status == self.mouse_right_status_down:
                          pyautogui.mouseUp(button='right')
                          self.mouse_right_status = self.mouse_right_status_up
                      self.index_point_color = self.index_point_color_unselected
                  elif thumb_index_tip_distance < threshold_len_min and thumb_middle_tip_distance >= threshold_len_max:
                      if self.mouse_left_status == self.mouse_left_status_up:
                          pyautogui.mouseDown(button='left')
                          self.mouse_left_status = self.mouse_left_status_down
                      if self.mouse_right_status == self.mouse_right_status_down:
                          pyautogui.mouseUp(button='right')
                          self.mouse_right_status = self.mouse_right_status_up
                      self.index_point_color = self.index_point_color_selected
                  elif thumb_index_tip_distance < threshold_len_min and thumb_middle_tip_distance < threshold_len_min:
                      if self.mouse_left_status == self.mouse_left_status_up:
                          pyautogui.mouseDown(button='left')
                          self.mouse_left_status = self.mouse_left_status_down
                      if self.mouse_right_status == self.mouse_right_status_up:
                          pyautogui.mouseDown(button='right')
                          self.mouse_right_status = self.mouse_right_status_down
                  else:
                      pass
      
          def run(self):
              last_time = time.time()
              pyautogui.moveTo(x=self.last_mouse_point[0], y=self.last_mouse_point[1])
      
              while self.cap.isOpened():
                  success, img = self.cap.read()
                  if not success:
                      break
                  img = cv2.flip(src=img, flipCode=1)
                  img = cv2.resize(src=img, dsize=(self.camera_width, self.camera_height))
      
                  self.hands_detector_dict = self.hands_detector.detect_hands_landmarks(
                      img=img,
                      show_hand_connections=True,
                      show_landmarks=False,
                      show_landmarks_id=False
                  )
      
                  self.extract_gesture_finger_keypoint()
                  self.move_mouse_point()
                  self.control_mouse_button()
      
                  current_time = time.time()
                  fps = round(1.0 / (current_time - last_time), 2)
                  last_time = current_time
      
                  if self.hands_detector_dict:
                      cv2.line(img, 32(self.index_finger_tip), 32(self.thumb_tip), (255, 0, 0), 1)
                      cv2.circle(img, 32(self.index_point), 3, self.index_point_color, cv2.FILLED)
      
                  cv2.putText(img, f'fps: {fps}', (10, 20), cv2.FONT_HERSHEY_SIMPLEX, 0.6, (0, 0, 0), 2)
                  cv2.rectangle(img, (self.camera_padding, self.camera_padding),
                                (self.camera_width - self.camera_padding, self.camera_height - self.camera_padding),
                                (255, 0, 0), 1)
                  cv2.imshow('img', img)
                  if cv2.waitKey(1) & 0xff == ord('q'):
                      break
              self.cap.release()
      
      
      if __name__ == '__main__':
          gc = GestureControl()
          gc.run()
      

      代码详解

      初始化
      def __init__(self):
          self.camera_width, self.camera_height = (800, 480)
          self.cap = cv2.VideoCapture(0)
          self.cap.set(cv2.CAP_PROP_FRAME_WIDTH, self.camera_width)
          self.cap.set(cv2.CAP_PROP_FRAME_HEIGHT, self.camera_height)
          self.cap.set(cv2.CAP_PROP_BRIGHTNESS, 200)
          self.hands_detector = HandsDetector(
              static_image_mode=False,
              max_num_hands=1,
              model_complexity=1,
              min_detection_confidence=0.8,
              min_tracking_confidence=0.7
          )
          self.hands_detector_dict = dict()
      
          self.thumb_tip = list()
          self.index_finger_tip = list()
          self.middle_finger_tip = list()
          self.index_point = list()
      
          self.index_point_color_unselected = (255, 255, 0)
          self.index_point_color_selected = (255, 0, 255)
          self.index_point_color = self.index_point_color_unselected
      
          self.thumb_first_joint_len = 0
      
          pyautogui.PAUSE = 0
          self.screen_width, self.screen_height = pyautogui.size()
      
          self.mouse_smoothing = 5
          self.last_mouse_point = [self.screen_width // 2, self.screen_height // 2]
      
          self.camera_padding = 100
      
          self.mouse_left_status_up = 1
          self.mouse_left_status_down = 2
          self.mouse_left_status = self.mouse_left_status_up
      
          self.mouse_right_status_up = 1
          self.mouse_right_status_down = 2
          self.mouse_right_status = self.mouse_right_status_up
      
      • self.cap = cv2.VideoCapture(0):初始化视频捕获设备,参数 0 表示连接到第一个摄像头。
      • self.hands_detector = HandsDetector(...):初始化手部姿态检测器。
      • self.index_point_color_unselected 和 self.index_point_color_selected:定义鼠标指针未选中和选中时的颜色。
      • self.mouse_smoothing:定义鼠标平滑系数,用于减少鼠标移动时的抖动。
      • self.last_mouse_point:初始化鼠标在屏幕上的初始位置。
      • self.camera_padding:定义摄像头画面内的边距,作为手势可操作区域。
      计算两点之间的距离
      @staticmethod
      def two_point_distance(pt1: List[int], pt2: List[int]):
          return math.hypot(pt1[0] - pt2[0], pt1[1] - pt2[1])
      
      • math.hypot:计算两点之间的欧几里得距离。
      提取手势手指关键点
      def extract_gesture_finger_keypoint(self):
          if self.hands_detector_dict:
              self.thumb_tip = self.hands_detector_dict[0][4]
              self.index_finger_tip = self.hands_detector_dict[0][8]
              self.middle_finger_tip = self.hands_detector_dict[0][12]
              thumb_ip = self.hands_detector_dict[0][3]
      
              self.index_point = [
                  (self.index_finger_tip[0] + self.thumb_tip[0]) / 2,
                  (self.index_finger_tip[1] + self.thumb_tip[1]) / 2
              ]
      
              self.thumb_first_joint_len = self.two_point_distance(self.thumb_tip, thumb_ip)
      
      • 提取拇指、食指和中指的指尖坐标。
      • 计算拇指和食指指尖连线的中点坐标。
      • 计算拇指指尖与拇指远心端第一个关节的距离。
      移动鼠标指针
      def move_mouse_point(self):
          if not self.hands_detector_dict:
              return
      
          screen_index_point = self.camera_to_screen_point(camera_point=self.index_point)
      
          last_x, last_y = self.last_mouse_point
          current_x, current_y = screen_index_point
          smoothing_screen_index_point_x = last_x + (current_x - last_x) / self.mouse_smoothing
          smoothing_screen_index_point_y = last_y + (current_y - last_y) / self.mouse_smoothing
          screen_index_point = [smoothing_screen_index_point_x, smoothing_screen_index_point_y]
      
          pyautogui.moveTo(x=screen_index_point[0], y=screen_index_point[1], duration=0.02)
          self.last_mouse_point = screen_index_point
      
      • 将摄像头坐标转换为屏幕坐标。
      • 使用平滑算法减少鼠标移动时的抖动。
      • 使用 pyautogui.moveTo 移动鼠标指针。
      将摄像头坐标转换为屏幕坐标
      def camera_to_screen_point(self, camera_point: List[int]):
          safe_px = 10
      
          screen_x = erp(
              x=camera_point[0],
              xp=[self.camera_padding, self.camera_width - self.camera_padding],
              fp=[safe_px, self.screen_width - safe_px],
              left=safe_px,
              right=self.screen_width - safe_px
          )
          screen_y = erp(
              x=camera_point[1],
              xp=[self.camera_padding, self.camera_height - self.camera_padding],
              fp=[safe_px, self.screen_height - safe_px],
              left=safe_px,
              right=self.screen_height - safe_px
          )
          return [screen_x, screen_y]
      
      • 使用 erp 进行插值,将摄像头画面中的坐标映射到屏幕上的坐标。
      控制鼠标按钮
      def control_mouse_button(self):
          if self.hands_detector_dict:
              thumb_index_tip_distance = self.two_point_distance(self.thumb_tip, self.index_finger_tip)
              thumb_middle_tip_distance = self.two_point_distance(self.thumb_tip, self.middle_finger_tip)
      
              threshold_len_min = self.thumb_first_joint_len * 0.5
              threshold_len_max = self.thumb_first_joint_len * 0.6
      
              if thumb_index_tip_distance >= threshold_len_max and thumb_middle_tip_distance >= threshold_len_max:
                  if self.mouse_left_status == self.mouse_left_status_down:
                      pyautogui.mouseUp(button='left')
                      self.mouse_left_status = self.mouse_left_status_up
                  if self.mouse_right_status == self.mouse_right_status_down:
                      pyautogui.mouseUp(button='right')
                      self.mouse_right_status = self.mouse_right_status_up
                  self.index_point_color = self.index_point_color_unselected
              elif thumb_index_tip_distance < threshold_len_min and thumb_middle_tip_distance >= threshold_len_max:
                  if self.mouse_left_status == self.mouse_left_status_up:
                      pyautogui.mouseDown(button='left')
                      self.mouse_left_status = self.mouse_left_status_down
                  if self.mouse_right_status == self.mouse_right_status_down:
                      pyautogui.mouseUp(button='right')
                      self.mouse_right_status = self.mouse_right_status_up
                  self.index_point_color = self.index_point_color_selected
              elif thumb_index_tip_distance < threshold_len_min and thumb_middle_tip_distance < threshold_len_min:
                  if self.mouse_left_status == self.mouse_left_status_up:
                      pyautogui.mouseDown(button='left')
                      self.mouse_left_status = self.mouse_left_status_down
                  if self.mouse_right_status == self.mouse_right_status_up:
                      pyautogui.mouseDown(button='right')
                      self.mouse_right_status = self.mouse_right_status_down
              else:
                  pass
      
      • 计算拇指与食指、中指指尖的距离。
      • 根据距离判断手势状态,控制鼠标左键和右键的按下和抬起。
      主循环
      def run(self):
          last_time = time.time()
          pyautogui.moveTo(x=self.last_mouse_point[0], y=self.last_mouse_point[1])
      
          while self.cap.isOpened():
              success, img = self.cap.read()
              if not success:
                  break
              img = cv2.flip(src=img, flipCode=1)
              img = cv2.resize(src=img, dsize=(self.camera_width, self.camera_height))
      
              self.hands_detector_dict = self.hands_detector.detect_hands_landmarks(
                  img=img,
                  show_hand_connections=True,
                  show_landmarks=False,
                  show_landmarks_id=False
              )
      
              self.extract_gesture_finger_keypoint()
              self.move_mouse_point()
              self.control_mouse_button()
      
              current_time = time.time()
              fps = round(1.0 / (current_time - last_time), 2)
              last_time = current_time
      
              if self.hands_detector_dict:
                  cv2.line(img, 32(self.index_finger_tip), 32(self.thumb_tip), (255, 0, 0), 1)
                  cv2.circle(img, 32(self.index_point), 3, self.index_point_color, cv2.FILLED)
      
              cv2.putText(img, f'fps: {fps}', (10, 20), cv2.FONT_HERSHEY_SIMPLEX, 0.6, (0, 0, 0), 2)
              cv2.rectangle(img, (self.camera_padding, self.camera_padding),
                            (self.camera_width - self.camera_padding, self.camera_height - self.camera_padding),
                            (255, 0, 0), 1)
              cv2.imshow('img', img)
              if cv2.waitKey(1) & 0xff == ord('q'):
                  break
          self.cap.release()
      
      • last_time = time.time():记录上次帧的时间。
      • while self.cap.isOpened():进入主循环,直到视频捕获设备关闭。
      • success, img = self.cap.read():读取一帧图像,success 表示读取是否成功,img 是读取到的图像。
      • img = cv2.flip(src=img, flipCode=1):水平翻转图像,使用户看到的是镜像效果。
      • img = cv2.resize(src=img, dsize=(self.camera_width, self.camera_height)):调整图像大小。
      • self.hands_detector_dict = self.hands_detector.detect_hands_landmarks(...):检测手部关键点。
      • self.extract_gesture_finger_keypoint():提取手势手指关键点。
      • self.move_mouse_point():移动鼠标指针。
      • self.control_mouse_button():控制鼠标按钮。
      • cv2.putText(...):在图像上显示帧率。
      • cv2.rectangle(...):绘制摄像头画面内的边距矩形。
      • cv2.imshow('img', img):显示图像。
      • if cv2.waitKey(1) & 0xff == ord('q'):等待按键输入,按 q 键退出循环。
      • self.cap.release():释放视频捕获设备。

      总结

      本文详细介绍了如何使用 OpenCV、MediaPipe 和 PyAutoGUI 实现一个基于手势识别的鼠标控制系统。通过本文的学习,你将能够理解手势识别的基本原理,并掌握如何在实际项目中应用这些技术。

      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.51cto.com/yanpeng/12589340,作者:燕鹏01,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:系统集成项目管理工程师学习之项目沟通管理

      下一篇:【Kubernets】容器网络基础一:Veth Pair

      相关文章

      2025-05-19 09:04:22

      gray_dilation_rect

      gray_dilation_rect

      2025-05-19 09:04:22
      byte , img , 灰度
      2025-05-07 09:08:42

      Camera模组硬件的构成

      CCM(Compact Camera Module):即微型摄像模块。因为常使用在手机上也被称为手机摄像头或者手机摄像模块

      2025-05-07 09:08:42
      摄像头
      2025-05-06 09:21:03

      系统度量和鼠标消息

      系统度量和鼠标消息

      2025-05-06 09:21:03
      右键 , 大小 , 鼠标
      2025-04-18 08:02:09

      传统CV算法——基于opencv的答题卡识别判卷系统

      基于OpenCV的答题卡识别系统,其主要功能是自动读取并评分答题卡上的选择题答案。系统通过图像处理和计算机视觉技术,自动化地完成了从读取图像到输出成绩的整个流程。

      2025-04-18 08:02:09
      cv2 , 图像 , 实现
      2025-03-31 08:57:06

      传统CV算法——基于Opencv的图像绘制

      传统CV算法——基于Opencv的图像绘制

      2025-03-31 08:57:06
      cv2 , 图像 , 坐标 , 矩形 , 绘制
      2025-03-28 07:42:50

      传统CV算法——图像基本操作与形态学操作

      传统CV算法——图像基本操作与形态学操作

      2025-03-28 07:42:50
      cv2 , 像素 , 图像 , 操作 , 运算
      2025-03-27 10:12:02

      JavaScript之事件

      JavaScript之事件

      2025-03-27 10:12:02
      事件 , 按钮 , 点击 , 触发 , 返回 , 键盘 , 鼠标
      2025-03-21 08:23:07

      OpenCV库模块解析

      它为计算机视觉应用程序提供了一个通用的基础设施,并加速了在商业产品中使用机器感知。

      2025-03-21 08:23:07
      cv2 , OpenCV , 函数 , 图像 , 检测 , 模块 , 算法
      2025-03-18 09:59:07

      JavaScript 拖拽与观察者模式的实现及应用

      JavaScript 拖拽与观察者模式的实现及应用

      2025-03-18 09:59:07
      事件 , 代码 , 模式 , 片段 , 订阅 , 鼠标
      2025-03-18 08:27:19

      深入了解JavaScript事件绑定:实现高效可靠的事件处理

      深入了解JavaScript事件绑定:实现高效可靠的事件处理

      2025-03-18 08:27:19
      event , 事件 , 对象 , 绑定 , 触发 , 鼠标
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5245407

      查看更多

      最新文章

      系统度量和鼠标消息

      2025-05-06 09:21:03

      传统CV算法——基于opencv的答题卡识别判卷系统

      2025-04-18 08:02:09

      基于 OpenCV 和自定义姿态检测器的实时姿态跟踪系统

      2024-12-18 08:24:44

      查看更多

      热门文章

      基于 OpenCV 和自定义姿态检测器的实时姿态跟踪系统

      2024-12-18 08:24:44

      传统CV算法——基于opencv的答题卡识别判卷系统

      2025-04-18 08:02:09

      系统度量和鼠标消息

      2025-05-06 09:21:03

      查看更多

      热门标签

      服务器 linux 虚拟机 Linux 数据库 运维 网络 日志 数据恢复 java python 配置 nginx centos mysql
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      系统度量和鼠标消息

      基于 OpenCV 和自定义姿态检测器的实时姿态跟踪系统

      传统CV算法——基于opencv的答题卡识别判卷系统

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号