详情请见 requirements.txt
1、首先,在anaconda中新建python3.8的环境
conda create -n sam python==3.8
2、使用pip安装requirements.txt中的依赖包
pip install -r requirements.txt
3、在使用onnxruntime的GPU进行推理时,需要安装CUDA支持,具体安装方法以及对应CUDA版本可根据此链接安装。
代码所需模型文件可以在百度网盘下载,这里由于我的电脑配置有限,只提供了vit_b的encoder模型。
链接:https://pan.baidu.com/s/1p031-5NcCROCpkaLhrhQdg?pwd=klep 提取码:klep --来自百度网盘超级会员V5的分享
1、激活sam环境
conda activate sam
2、跳转到工程目录
cd /path/of/your/project
3、运行inference.py
python .\inference.py --img .\images\dog.jpg --warmup 0 --output test.jpg
其中,输入的参数如下:
--img: 图像文件路径
--vit-model: vit encoder模型路径
--decoder-model: decoder模型路径
--device: 模型运行的设备,可选择cuda或cpu,默认为cuda
--warmup: 模型的预热轮次,默认不预热
--output: 输出图像位置
在运行inference.py后,首先使用vit对图像进行特征提取,当提取图像特征以后,则弹出窗口显示图像,此时,可使用鼠标左键在图像上点击,或使用鼠标右键对图像点击,绘制矩形框,此时会将采集的prompt输入decoder,进行分割。当分割完成后,点击键盘s键则可保存到输出图像位置。
分割前
分割后
1、https://github.com/facebookresearch/segment-anything