에지 분석의 전환점

아티클
2022년 05월 2일
감시 카메라에서 실행되는 분석이 새로운 것은 아니지만, 개발자를 위한 더 낮은 임계값, 뛰어난 처리 능력을 갖춘 강력한 카메라 그리고 딥 러닝의 조합은 새로운 세대의 에지 분석을 가능하게 하며, 이러한 분석은 개발자의 상상력에 의해서만 제한됩니다. Axis Communications의 핵심 기술 부문 디렉터인 Mats Thulin을 만나 현재와 미래의 이점에 대한 그의 견해를 들었습니다.

Axis 시스템 온 칩(SoC)의 최신 세대인 ARTPEC-8의 출시는 네트워크 에지에서의 딥 러닝 분석의 새로운 시대를 나타냅니다. 카메라 자체 내에서 처리되는 실시간 물체 감지 및 분류와 같은 분석을 제공하는 ARTPEC-8은 20년 이상 지속된 개발 노력의 집약체입니다.

카메라 내 분석이 새로운 것은 아니지만(비디오 모션 감지는 10여 년 전부터 Axis 카메라의 기능이었음), 우수한 이미지 품질과 딥 러닝의 조합은 분석 능력을 혁신적으로 변화시켰습니다.

 

서버 단에서의 분석 부담 감소

Axis Communications의 핵심 기술 부문 디렉터인 Mats Thulin은 "10년 전 감시 카메라에는 네트워크 에지에서 고급 분석을 제공하는 데 필요한 처리 능력이 없었기 때문에 자연스럽게 부하가 서버 기반 분석으로 집중되었습니다"라고 말합니다. "하지만 서버의 처리 능력은 충분한 반면, 다른 요인으로 인해 문제가 발생할 수 있습니다. 비디오 이미지를 카메라에서 서버로 전송하기 전에 압축하면, 분석되는 이미지의 품질이 저하될 수 있고 모든 분석이 서버에서 수행되는 솔루션을 확장하는 것은 비용이 많이 드는 일일 수 있습니다."

이는 분석 내에서 딥 러닝이 사용되는 경우에 특히 그렇습니다. Mats는 계속해서 다음과 같이 말합니다. "딥 러닝을 사용하는 분석은 컴퓨팅 집약적인 작업입니다. 분석을 순전히 서버에서 실행하는 경우 영상은 인코딩한 다음 다시 디코딩해야 하므로, 스트림을 처리할 수 있으려면 추가로 시간이 걸립니다. 20-30대의 카메라가 있는 비교적 작은 시스템에서도 고해상도에서 초당 20 또는 30 프레임으로 많은 영상 스트림을 처리하려면 상당한 자원이 필요합니다."

"Axis 에지 장치의 처리 능력과 기능은 이제 분석 기능이 에지 장치로 다시 마이그레이션되는 수준에 이르렀습니다"라고 Mats는 덧붙입니다. "카메라 자체 내에서 더 많은 분석을 수행하면 컴퓨팅 집약적인 서버 및 클라우드 기반 분석의 필요성이 줄어듭니다. 또한 중요한 것은, 캡처 시점의 이미지, 즉 가능한 최고 품질 상태의 이미지에 분석이 적용된다는 것을 의미합니다."

머신과 사람에 최적화된 이미지

이미지 품질의 발전은 이미지를 점점 더 인간 운영자 대신 머신(기계)이 '본다'는 사실을 고려합니다. 이는 중요한 차이점입니다. 머신은 인간과 같은 방식으로 이미지를 보지 않기 때문입니다.

"이제 AI가 분석하고 인간의 눈에 최적화할 수 있도록 영상 이미지를 '조정'할 수 있습니다"라고 Mats는 설명합니다. "예를 들어, 운영자를 위해 이미지를 조정할 때 일반적으로 노이즈를 줄이는 것을 목표로 합니다. 그러나 AI 분석의 경우 노이즈 감소가 필요하지 않습니다. 인간 또는 AI 분석을 위해 이미지를 조정하는 것의 목표가 다르기 때문에, 두 가지를 동시에 사용하면 더 높은 품질의 결과를 얻을 수 있습니다."

Edge analytics
에지 분석에 대한 1페이지 인포그래픽을 크게 보시려면 클릭하세요

시스템 확장성 향상

에지에서의 분석은 네트워크를 통해 전송되는 데이터의 양을 줄여 대역폭, 스토리지 및 서버의 효율을 높일 수 있습니다. 그렇다고 서버 기반 분석이 아직 역할을 하지 못한다는 말은 아닙니다. 전혀 아닙니다. 궁극적으로, 에지 분석과 서버 및 클라우드 기반 분석의 강점을 활용하는 하이브리드 접근 방식이 최적의 솔루션이 될 것입니다.

"에지와 서버가 처리 부하를 공유하면 시스템을 훨씬 더 많이 확장할 수 있습니다. 에지 분석 기능이 있는 새 카메라를 추가하면 서버 처리 능력을 높일 필요가 없기 때문입니다"라고 Mats는 설명합니다.

단독형 에지 시스템은 장면 분석 애플리케이션에 계속 사용되고 객체 인식 및 분류에 기반한 실시간 경고를 생성할 것이겠지만, Mats는 하이브리드 서버 및 에지 분석 솔루션이 고급 처리 분야에서 점점 더 지배적인 요구 사항이 될 것이라고 믿습니다.

이것은 영상 이미지와 함께 에지 분석에 의해 생성된 메타데이터에 의해 촉진됩니다. 영상의 맥락에서 메타데이터는 본질적으로 장면의 요소에 태그를 지정합니다. 즉, 단순히 장면 미가공 영상물이 아니라 장면에 대한 설명자 또는 인텔리전스를 추가합니다. 영상 관리 소프트웨어(VMS)는 메타데이터를 사용하여 장면에 대응할 수 있습니다. 즉 실시간으로 작업을 트리거하거나 또는 사후 이벤트를 트리거할 수 있을 뿐만 아니라 관심 요소를 검색하거나 추가 분석을 수행할 수 있습니다.

프라이버시 보호

에지 분석은 보안, 안전 및 운영 상의 이점을 제공할 뿐만 아니라 개인 정보 보호를 지원하는 데 도움이 됩니다. 예를 들어, 리테일 환경에서 유용한 에지 기반 인원 계수 분석은 카메라에서 영상 이미지가 아닌 데이터만 전송하면 됩니다.

그러나 에지 분석은 영상 이미지가 전송되는 경우에도 개인 정보를 보호할 수 있습니다.

"지능형 마스킹은 장면에 등장하는 인물의 얼굴을 흐릿하게 처리하므로, 개인 정보가 보호된다는 것을 뜻합니다. 필요할 때만 볼 수 있는 원본 스트림을 추가로 전송하면, 사고가 발생한 경우 운영자가 마스킹 미적용 영상에 계속 액세스할 수 있습니다"라고 Mats는 말합니다.

컴퓨터 비전 애플리케이션의 새로운 세계

ARTPEC-8로 구동되는 하드웨어의 향상된 기능과 함께 AXIS Camera Application Platform(ACAP)의 향상은 그 어느 때보다 더 광범위한 개발자 그룹에게 친숙한 환경에서 컴퓨터 비전 애플리케이션을 만들 수 있는 기회를 제공합니다. 이제 4세대인 ACAP에는 업계 표준 API 및 프레임워크는 물론 고급 프로그래밍 언어에 대한 지원이 포함됩니다.

"ACAP 버전 4의 변경 사항은 기존 감시 부문과 다른 배경을 가진 개발 파트너가 증가하고 있음을 뜻합니다"라고 Mats는 강조합니다. "ACAP은 클라우드 또는 서버 배경의 개발자를 위한 친숙한 개방형 구성 요소를 기반으로 합니다. 우리는 개발자가 다양한 ONVIF 준수 제품으로 하이브리드 아키텍처를 만들 수 있는 개방형 환경을 위한 ONVIF 메타데이터 규격을 추진하고 있습니다. 이것은 하이브리드 시스템과 아키텍처가 작동하도록 하는 핵심 요소 중 하나입니다."

분석 감지 능력의 발전은 보안 개발자와 더 넓은 분야의 혁신 기업에게도 도움이 됩니다.

"카메라가 맥락에 기반에 장면을 이해하는 기술(예를 들어 거리, 잔디 또는 주차장 등을 구별하는)이 점점 더 발전함에 따른 객체 감지의 발전은 우리가 장면과 장면 내의 다른 객체에 대한 더 정확한 분석을 구현하는 데 도움이 될 것입니다. 이 지식은 또 다른 수준의 혁신을 가져올 것입니다"라고 Mats는 말합니다. "에지 분석의 새로운 잠재력은 우리의 기존 파트너, 컴퓨터 비전 애플리케이션을 처음 접하는 개발자, 그리고 물론 우리 고객에게 엄청날 것입니다."

비디오 분석의 새로운 시대에 대해 더 자세히 읽어 보세요
인터뷰 보기
관련 정보