GRLib:一个开源手势检测和识别的 Python 库
提出了一个基于设备的实时手势识别系统,利用单个 RGB 相机检测一组预定义的静态手势,该系统包括手骨骼跟踪器和手势分类器,使用 MediaPipe Hands 作为手骨骼跟踪器的基础,在世界度量空间中添加了 3D 关键点的估计,并创建两个不同的手势分类器,一个基于启发式方法,另一个使用神经网络。
Oct, 2021
该研究论文提出了一个用户友好的框架,使用户能够自定义和部署自己的手势识别流程,包括使用预训练的单手嵌入模型进行微调,提供低代码解决方案用于训练和部署自定义手势识别模型,以及提供无代码的 Web 前端,最终得到的自定义手势识别可以在实时场景中进行设备上运行。
Sep, 2023
本研究聚焦于手势识别,通过数据级融合和多流卷积神经网络架构的集成调节器,有效地解决了人手形态中的个体差异问题,将骨骼模式的时空手势信息编码到 RGB 图像中,从而提高了姿势理解的语义并降低了噪声,其在 SHREC2017、DHG1428、FPHA、LMDHG 和 CNR 等基准数据集上实现了实时运行,大幅减少硬件需求和计算复杂性,为资源受限设备的人机交互和环境智能提供了可靠性和创新性。
Jun, 2024
本文旨在开发一种高效的手势检测和分类模型,利用基于频道剪枝的 YOLOv5-small 模型构建具有快速响应时间和高检测速度的手势控制人机交互界面。我们的方法在实时场景中通过有效分类手势指令,达到了超过 60 帧每秒的平均检测速度,满足实时应用控制的要求。
Jul, 2024
HGR-Net 是一个使用两个 CNN 阶段的手势识别模型。第一阶段执行精确的语义分割以确定手部区域,第二阶段在深度表示的融合分类之前识别手势。通过在公共数据集上进行的大量实验,该模型在静态手势的分割和识别方面几乎达到了与最先进性能相当的效果。
Jun, 2018
我们提出了一种用于便携式可穿戴设备的新型轻量级手势识别框架,该框架由一系列最先进的深度学习模型驱动,能以实时性灵敏地识别手势,实现了 80%的分类准确度和仅 0.12 秒的平均延迟。
Apr, 2019
本文展示了一种使用热像数据的手势检测系统,使用基于背景减法的手掩模生成、k-means 算法手区域识别、手臂区域去除的手势分割以及基于卷积神经网络的手势分类来实现多个手区域的快速处理, 并引入了泡沫生长和泡沫搜索两种新算法, 进行更快的手势分割。我们收集了一个包含 10 种手势的新热像数据集,并报道了 97%的端到端手势识别准确率。
Mar, 2023
本文介绍了一个用于大量静态手势和动态手势分类识别的人机交互框架,利用佩戴式传感器进行数据收集,并采用降维和神经网络等处理技术,最终实现了在实时环境下的高准确率手势识别。
Apr, 2023
本研究提出了一种层次结构的卷积神经网络架构,通过使用滑动窗口方法,使离线工作的卷积神经网络架构能够高效地在线操作,同时细化了手势检测和分类。该架构达到了 94.04%和 83.82%的离线分类准确率以及可实现良好的在线操作表现。
Jan, 2019
本研究利用深度学习探索了三种不同的方法来识别手势:基于监督学习的方法、自监督学习方法和基于可视化的技术应用于三维运动骨架数据。实验结果表明,监督学习方法能够准确识别手势,而自监督学习方法在模拟环境中提高了识别准确性,Grad-CAM 可视化结果显示了模型对相关骨骼关节的关注。
Jun, 2024