获取Azure Kinect摄像头的内参
约 645 个字 • 23 行代码
由于同学需要摄像头的焦距等参数来将深度帧的数据转换成3维坐标系中的坐标,所以开始在网上搜索相应的方法
一开始找到了这篇文章,
Azure Kinect 获取相机内参 - BuckyI - 博客园 (cnblogs.com)
但是安装了pykinect_azure包后,运行文章中的代码出现了报错,就放弃参考这篇文章了
继续阅读
约 645 个字 • 23 行代码
由于同学需要摄像头的焦距等参数来将深度帧的数据转换成3维坐标系中的坐标,所以开始在网上搜索相应的方法
一开始找到了这篇文章,
Azure Kinect 获取相机内参 - BuckyI - 博客园 (cnblogs.com)
但是安装了pykinect_azure包后,运行文章中的代码出现了报错,就放弃参考这篇文章了
约 490 个字 • 141 行代码
由于mediapipe官方的文档以及python的代码示例中,
没有给出摄像头视频流检测的代码,代码示例中只提供了对4张示例图片进行检测的代码,于是开始参考代码示例进行代码的编写。
约 3412 个字 • 265 行代码
由于以前的视觉部分的代码看起来很💩(感觉代码文件的结构很混乱,不够易读),于是打算重新编写新的。
我先是分别询问了chatgpt和copilot关于如何在摄像头一直保持开启的状态下,切换使用不同的功能
约 895 个字 • 116 行代码
由于比赛中,在完成任务之后,需要回到发出这个任务的志愿者前,所以需要识别出这个志愿者,因此需要使用人脸比对功能
于是询问Microsoft Copilot如何实现
约 2642 个字 • 287 行代码
由于比赛需要机器人走到志愿者的正面后,再向志愿者询问,所以打算通过检测人脸朝向相对于相机的偏移程度(人脸正对相机认为不偏移),来判断机器人是否到达志愿者的正面
于是通过询问Microsoft Copilot,找到了一个比较好用的github的仓库
约 383 个字 • 25 行代码
因为618促销,于是买了一个一年的服务器打算玩一玩。
由于原来的服务器的系统是WordPress系统,于是重置系统为CentOS
约 1243 个字 • 113 行代码
由于之前拿到的sd卡上烧录的树莓派系统是32位的,是armv7l架构,所以很多python包都没有编译好的whl文件,于是重新跟老师要了一张新的sd卡,打算重新烧录64位的系统
约 265 个字 • 10 行代码
由于金工实习任务是造一个小机器人,而队友打算使用树莓派4B并使用树莓派摄像头来进行图像识别,于是开始进行摸索(之前没有使用树莓派的经验)。
约 766 个字 • 76 行代码
按照README.md中的指示安装环境时,按顺序 pip install
之后,尝试运行时,显示了torch 2.1.0版本与xformers的要求不匹配的警告,
查看xformers版本为 0.0.26
,于是打算安装低版本的xformers,
安装时,发现会安装 2.1.1
版本的torch,于是就添加上了 --no-deps
的选项(不安装依赖),
再次运行,就没有版本不匹配的报错了
安装xformers后,提示torchaudio torchvision的版本不兼容了 · Issue #24 · 3DTopia/LGM (github.com)
约 442 个字 • 4 行代码
由于大创项目需要跑一个文生3D模型,于是给开了一个学校服务器的账号,
提到需要使用ssh方式连接,并且推荐使用MobaXterm和vscode,于是先搜索了如何使用vscode连接远程服务器,
参考了这个文章