美 노스캐롤라이나주립대 연구팀이 여러 대의 카메라로 촬영한 2차원 이미지를 바탕으로 3차원 공간을 효과적으로 매핑할 수 있는 인공지능(AI) 기술을 개발했다고 13일 밝혔다.
이 기술은 제한적인 컴퓨팅 환경에서도 효과적으로 작동하기 때문에 자율주행 차량이나 자율주행 로봇의 내비게이션을 개선하는 데 유용할 것으로 기대된다.
연구팀은 오는 20일 워싱턴주 시애틀에서 열릴 예정인 ‘컴퓨터 비전 및 패턴 인식에 관한 IEEE/CVF 컨퍼런스’에서 연구 성과를 발표할 예정이다.(논문 제목:Multi-View Attentive Contextualization for Multi-View 3D Object Detection)
논문 교신 저자인 노스캐롤라이나주립대 티앤푸 우(Tianfu Wu) 교수는 “대부분의 자율주행 자동차는 ‘비전 트랜스포머’라고 불리는 강력한 인공지능 프로그램을 활용해 여러 대의 카메라로 2D 이미지를 촬영하고 차량 주변의 3D 공간을 표현한다”며, “이러한 인공지능 프로그램들은 다른 접근 방식을 취하고 있지만 아직 상당히 개선의 여지가 있다”고 말했다.
티앤푸 우 교수는 "MvACON(Multi-View Attentive Contextualization)이라고 불리는 우리의 기술은 3D 공간을 매핑하는 능력을 향상시키기 위해 기존 비전 트랜스포머 AI와 함께 사용할 수 있는 플러그 앤 플레이 보완제"라며, "비전 트랜스포머는 카메라로부터 추가적으로 데이터를 얻는 것이 아니라 데이터를 더 잘 활용할 뿐"이라고 말했다.
MvACON은 우 교수팀이 지난해 발표한 ‘PaCa(Patch-to-Cluster Attention)'라고 불리는 접근 방식을 수정함으로써 효과적으로 작동한다. PaCa는 트랜스포머 AI가 이미지에서 객체를 보다 효율적이고 식별할 수 있도록 지원한다.
연구팀은 MvACON의 성능을 확인하기 위해 BEVFormer, BEVFormer DFA3D 변형, PETR 등 세 가지 비전 트랜스포머를 테스트했다. 각각의 비전 트랜스포머는 6개의 다른 카메라로부터 2D 이미지를 수집했다. 실험 결과 MvACON이 각 비전 트랜스포머의 성능을 크게 향상시킨 것으로 나타났다.
우 교수는 "물체의 위치와 물체의 속도 및 방향에 관한 성능이 특히 향상되었다"며, "비전 트랜스포머에 MvACON을 추가할 때 컴퓨팅 자원의 증가는 거의 무시할 수 있는 수준이었다“고 말했다. ”다음 단계에선 MvACON을 추가적인 벤치마크 데이터세트와 비교해 테스트하고, 자율주행차량의 실제 비디오 입력과 비교해 테스트할 것이다. MvACON이 기존 비전 트랜스포머를 계속 능가한다면 널리 사용될 수 있을 것으로 낙관한다"고 덧붙였다.
장길수 ksjang@irobotnews.com
<저작권자 © 로봇신문사 무단전재 및 재배포금지>
'로봇부품·소프트웨어' 카테고리의 다른 글
아이엘사이언스, '에스오에스랩' 라이다 소형화 광학렌즈 개발 협업 (0) | 2024.06.17 |
---|---|
中칭화대, 쓰레기 분류하는 로봇 촉각시스템 개발 (0) | 2024.06.17 |
日 스기노머신, 절삭 가공용 로봇 엔드 이펙터 개발 (0) | 2024.06.14 |
테솔로, '2024 넥스트라이즈'에서 로봇 그리퍼 기술 선봬 (0) | 2024.06.12 |
에이딘로보틱스, 이노비즈 A등급 취득 (0) | 2024.06.11 |