박민혀기
SAM2(Segmentation Anything Model) by Meta on RPi5(해상도에 따른 추론 시간 비교) 본문
Research
SAM2(Segmentation Anything Model) by Meta on RPi5(해상도에 따른 추론 시간 비교)
박민혀기 2024. 8. 13. 13:56이번에는 이전 실험과 해상도만 다르게 해서 실험해보았다.
코드와 모델은 이전과 동일하게 진행하였다.
https://forthe-future.tistory.com/128
SAM2(Segmentation Anything Model) by Meta on RPi5
2024년 07월 Meta에서 객체인식 모델인 SAM2를 출시하였다.기존 SAM과 가장 큰 차이점은 비디오 객체 인식이 효율적으로 가능하다는 것이다. 기존 SAM을 들어본 적도 사용해 본 적도 없기 때문에 SAM2
forthe-future.tistory.com
Experiment 1
Resolution : 1024x768

소요 시간은 40초 정도로 생각보다 오래 걸렸다.
분류 정확도는 Good!
심지어 입에 물고있는 나무잎까지 분류해냈다..

Experiment 2
Resolution : 480x640

소요 시간은 40초 정도로 이전에 높은 해상도와 비슷하게 측정되었다.
분류 정확도는 역시 Good!
이렇게 순차적으로 진행되는 Mask를 보여주니 추후에 분석하거나 활용할 때 좋을 것 같다.
masks, scores, logits = predictor.predict(
point_coords=input_point,
point_labels=input_label,
#이부분이 Mask 출력 결정 부분
#False일 경우 Mask3와 같은 최종 결과물만 출력
multimask_output=True,
)

결론
SAM2는 라즈베리파이 환경에서 해상도에 따른 처리 속도 차이는 거의 없다.
'Research' 카테고리의 다른 글
| Split Learning with YOLOv3 (Split Learning?) (0) | 2024.10.08 |
|---|---|
| YOLOv3 install on Raspberry Pi (0) | 2024.08.29 |
| SAM2(Segmentation Anything Model) by Meta on RPi5 (0) | 2024.08.13 |
| Guide for using Google Drive API on RPi(2) (0) | 2024.06.12 |
| Guide for using Google Drive API on RPi (0) | 2024.06.12 |