목록Research (11)
박민혀기

Instruction그동안 일과 논문 작성이 겹치면서 포스팅을 미루고 미루다 이제서야 한적해진 수요일 오전에 포스팅을 해본다.. (사실 한건 산더미이지만 OS 포팅을 기다리면서 이해했던 것도 정리할 겸 쓴다.)실제로 YOLO 훈련 관련한 공부는 24년도 하반기부터 본격적으로 시작했지만 시스템 환경 문제, 각종 패키지 버전 문제, 코드 문제 등이 겹치면서 습득하는 데까지 오래 걸렸다. 머리가 안 좋아 삽질을 많이 한 케이스 같다.사실 내가 사용한 소스코드는 Google Colab에서 사용하면 바로 동작이 가능한 코드이다. 하지만 PC로(RTX3080, i9-12900) 학습하면 학습 속도가 더 빠르다는 얘기를 듣고 시작하게 되었다.Darknet Struct & NVIDIA Library 우선 지금까지 했던..

지난 포스팅에서는 Split Learning의 개념을 간단하게 살펴보았다.https://forthe-future.tistory.com/132 Split Learning with YOLOv3 (1)이번 포스팅에서는 현재 연구 중인 Split Learning 관련하여 정리해 보려 한다.본격적으로 포스팅하기 전에 배경 지식인 Split Learning, YOLO 등에 대해 간단하게 설명할 예정이다. Split Learning이란?Splitforthe-future.tistory.com 이번 주제는 PyTorch과 Darknet을 활용하여 YOLOv3를 구현하는 것을 알아볼 것이다.YOLOv3의 백본인 Darknet은 객체 탐지 알고리즘을 구현하고 실행하기 위한 오픈 소스 신경망 프레임워크이다.YOLO를 개발한 ..

이번 포스팅에서는 현재 연구 중인 Split Learning 관련하여 정리해 보려 한다.본격적으로 포스팅하기 전에 배경 지식인 Split Learning, YOLO 등에 대해 간단하게 설명할 예정이다. Split Learning이란?Split Learning이란 데이터 프라이버시를 보호하면서 분산 협업 학습을 가능하게 하는 방법이다.Split Learning은 크게 두 단계로 나눌 수 있고 각 단계의 특징은 다음과 같다.학습 단계(Training Phase)모델 파라미터를 학습하고 최적화하는 과정클라이언트와 서버 간에 데이터와 그래디언트를 주고받으며 반복적으로 모델을 개선데이터 프라이버시를 유지하면서 협력적으로 모델을 훈련추론 단계(Inference Phase)학습된 모델을 사용하여 새로운 데이터에 대한..

라즈베리파이 환경에서 객체감지 YOLO를 사용하기 위해 필요한 패키지나 백본을 설치해야 한다.아마 리눅스 환경에서도 비슷하게 동작할 것으로 예상되는데, 윈도우에서 사용하려면 백본(Darknet) build나 CUDA, OpenCV, cudnn등 다양한 부분에서 비교적 설치가 까다롭다. 2024-09-10 업데이트 : 리눅스 윈도우 환경 두 환경 모두 정상 동작함 우선 있는 장비로 빠르게 사용하기 위해 라즈베리 파이 5를 가지고 설치했다. Darknet 설치기본적인 OS 업데이트와 필요한 패키지, 라이브러리를 설치해야 한다.#OS Updatesudo apt-get update#Darknet을 컴파일하기 위해 필요한 의존성 설치sudo apt-get install build-essential libopenc..

이번에는 이전 실험과 해상도만 다르게 해서 실험해보았다. 코드와 모델은 이전과 동일하게 진행하였다.https://forthe-future.tistory.com/128 SAM2(Segmentation Anything Model) by Meta on RPi52024년 07월 Meta에서 객체인식 모델인 SAM2를 출시하였다.기존 SAM과 가장 큰 차이점은 비디오 객체 인식이 효율적으로 가능하다는 것이다. 기존 SAM을 들어본 적도 사용해 본 적도 없기 때문에 SAM2forthe-future.tistory.com Experiment 1Resolution : 1024x768 소요 시간은 40초 정도로 생각보다 오래 걸렸다.분류 정확도는 Good!심지어 입에 물고있는 나무잎까지 분류해냈다.. Experiment ..

2024년 07월 Meta에서 객체인식 모델인 SAM2를 출시하였다.기존 SAM과 가장 큰 차이점은 비디오 객체 인식이 효율적으로 가능하다는 것이다. 기존 SAM을 들어본 적도 사용해 본 적도 없기 때문에 SAM2를 직접 구현하고 응용해 보면서 Meta에서 나온 SAM 모델을 알아 볼 예정이다. 기본 예제는 Cloab에서 실행되는 것을 보여주지만 나는 리눅스 환경인 라즈베리파이 5 환경에서 테스트를 했다. https://github.com/facebookresearch/segment-anything-2 GitHub - facebookresearch/segment-anything-2: The repository provides code for running inference with the Meta Seg..

Upload in Specific folder with Google Drive APIGoogle Drive API를 사용하여 파일 업로드를 진행하는 프로젝트이다. 지난 포스팅에서 기능이 추가되어서 포스팅을 진행하였다.(기본적인 기능은 동일) 지난 포스팅에서는 라즈베리파이 환경에서 Google Dirve API 프로젝트 생성 및 설정과 Google Client Library 설치, OpenCV 설치를 한 후 실시간 라즈베리파이에서 촬영된 이미지를 Google Drive API를 이용하여 드라이브에 업로드하였다. https://forthe-future.tistory.com/126 Guide for using Google Drive API on RPiHardware/Software EnvironmentProc..

Hardware/Software EnvironmentProcessor : RaspberryPi3, 4Camera : Raspberry Pi Camera(B) Rev 2.0Language : PythonLibrary : OpenCV, Google Client Library Flow구글 드라이버를 사용하기 위해 사용자 동의가 필요하다.프로그램에서 OAuth 동의서를 사용자에게 요청하고 사용자가 동의하게 되면 프로그램에게 동의서(동의 정보)를 전달하게 된다. 프로그램은 동의서를 구글에게 전달해 API 사용을 허가받게 되고, 그 후에 구글 API를 사용할 수 있게 된다.추가 자세한 내용은 Google Cloud Create 부분에서 설명 Google Cloud Create플리케이션과 동의 화면, API를 관리하..