跳转至

2024

获取Azure Kinect摄像头的内参

约 645 个字 • 23 行代码

由于同学需要摄像头的焦距等参数来将深度帧的数据转换成3维坐标系中的坐标,所以开始在网上搜索相应的方法

一开始找到了这篇文章,

Azure Kinect 获取相机内参 - BuckyI - 博客园 (cnblogs.com)

但是安装了pykinect_azure包后,运行文章中的代码出现了报错,就放弃参考这篇文章了

2024数模国赛记录

约 14594 个字 • 2714 行代码

分析题目

6号晚上开始和队友看题,看完A B C题,感觉B题偏向概率论,C题有点太开放了感觉不是很好写,而A题感觉就是一个运动学的题目,(刚好以前PhO的运动学知识还残存着...,并且队友也略懂物理)感觉会比较好写出来,于是就开始分析A题中的题目。

不过在一开始还是把A B题都ChatGPT分析了一下

查看连接手机热点的设备的ip

约 623 个字

通过电脑软件查看

打算通过电脑和树莓派同时连接手机热点,然后ssh远程连接树莓派。但是由于用来开热点的手机是小米的,发现在小米设置里面不能看到连接的设备的ip地址(只能看到mac地址),于是使用英文在bing上搜索相应的方法

how to check ip of device connected to phone's hotspot - 搜索 (bing.com)

然后在这个文章上找到了可用的方法,

在Python中实现使用MediaPipe摄像头视频流识别手势并显示标注图像

约 490 个字 • 141 行代码

由于mediapipe官方的文档以及python的代码示例中,

没有给出摄像头视频流检测的代码,代码示例中只提供了对4张示例图片进行检测的代码,于是开始参考代码示例进行代码的编写。

重新编写视觉模块记录

约 3412 个字 • 265 行代码

由于以前的视觉部分的代码看起来很💩(感觉代码文件的结构很混乱,不够易读),于是打算重新编写新的。

我先是分别询问了chatgpt和copilot关于如何在摄像头一直保持开启的状态下,切换使用不同的功能

实现人脸比对功能的记录

约 895 个字 • 116 行代码

由于比赛中,在完成任务之后,需要回到发出这个任务的志愿者前,所以需要识别出这个志愿者,因此需要使用人脸比对功能

于是询问Microsoft Copilot如何实现

实现检测人脸朝向相对相机偏移程度的记录

约 2642 个字 • 287 行代码

由于比赛需要机器人走到志愿者的正面后,再向志愿者询问,所以打算通过检测人脸朝向相对于相机的偏移程度(人脸正对相机认为不偏移),来判断机器人是否到达志愿者的正面

于是通过询问Microsoft Copilot,找到了一个比较好用的github的仓库

yinguobing/head-pose-estimation: Realtime human head pose estimation with ONNXRuntime and OpenCV. (github.com)