이 가이드에서는 YOLO(You Only Look Once) 기반 객체 탐지 기능을 사용하여, 여러 객체를 동시에 인식하고 바운딩 박스를 표시하는 과정을 단계별로 안내합니다.
OneClickAI의 YOLO 객체 탐지 콘텐츠는 사용자로부터 수집된 이미지를 학습하여, 여러 객체를 동시에 인식하고 바운딩 박스를 표시합니다.
이를 통해 여러 종류의 사물을 한 번에 분류 및 위치파악 할 수 있으며, 자율주행, 보안, 재고관리 등 다양한 분야에 응용할 수 있습니다.
YOLO 객체 탐지 페이지는 크게 데이터 수집, 학습, 결과 확인 세 부분으로 구성됩니다.
데이터 수집 작업을 더욱 빠르고 편리하게 진행할 수 있습니다.
사용자가 업로드한 이미지를 표시하고, 바운딩 박스를 통해 각 객체의 위치와 라벨을 지정합니다. 웹캠을 사용해 실시간 이미지 캡처도 지원됩니다.
또한, 키보드 단축키를 통해 데이터 수집 작업을 더욱 빠르고 편리하게 진행할 수 있습니다.
수집된 이미지 개수에 따라 자동으로 학습 설정(에폭, 배치 크기, 학습률 등)이 결정됩니다. 별도의 학습 설정 메뉴 없이, 수집된 데이터의 양에 맞춰 최적의 설정으로 학습이 진행됩니다.
학습된 모델을 이용해 테스트 이미지에 대한 추론 결과(바운딩 박스, 라벨, 신뢰도 등)를 확인할 수 있습니다.
YOLO 객체 탐지에서는 데이터를 손쉽게 업로드하고, 학습된 데이터셋을 파일로 다운로드할 수 있습니다.
이 기능은 프로젝트 진행 중 데이터 백업은 물론, 다른 환경에서의 재학습 및 모델 공유에 큰 편의성을 제공합니다.
수집된 이미지와 라벨링된 바운딩 박스 정보를 바탕으로 YOLO 모델이 자동으로 학습됩니다. 학습 진행률은 화면에 표시되어 현재 학습 상태를 한눈에 확인할 수 있습니다.
별도의 학습 설정 없이, 데이터의 양에 따라 최적의 에폭, 배치 크기, 학습률이 자동으로 적용됩니다.
학습이 완료되면, 웹캠을 통해 실시간으로 객체 탐지 결과를 테스트할 수 있습니다.
또는 이미지 업로드를 통해 추론 결과를 확인하거나, 여러 이미지를 동시에 업로드하여 일괄 추론 기능을 활용할 수 있습니다.
모델이 예측한 객체 위치가 바운딩 박스로 표시되며, 해당 라벨과 신뢰도가 함께 표기됩니다.