소식/알림

드론동향
[로봇신문] 자율주행차, 드론에서 쏜 가짜 도로표지판에 깜빡 속아
주임 20-03-03 16:39 1,338 hit

자율주행차, 드론에서 쏜 가짜 도로표지판에 깜빡 속아

이스라엘 연구팀, 프로젝터 투사 영상사용 공격 위험 경고


95c953a864b0b2a93c9451b7a1500fe3_1583221006_9283.png
▲ 이스라엘 벤구리온 대학 사이버보안연구센터 연구원들은 자율주행차에 탑재된 오토파일럿이 도로상에 투영된 유령 이미지를 실물로 인식하며(왼쪽), 모바일 아이를 단 630 PRO 자율 차량 시스템이 

나무에 투영된 도로표지판 이미지를 실제 도로 표지판으로 간주한다(오른쪽)는 것을 발견했다. (사진=Cyber Security Labs @bgu) 


자율주행차를 타고 가던 중 주행을 맡은 인공지능(AI) 프로그램이 도로에 투영된 가짜 차선이나 가짜 디지털 표지판에 깜빡 속아 넘어간다면? 생각만 해도 아찔하다. 

그런데 시험결과 자율주행차는 드론 프로젝터에서 투영된 가짜 표시를 진짜와 구별하지 못했다.


'사이테크 데일리'에 따르면 이스라엘 벤구리온대(BGU) 연구팀은 자율차에 탑재된 오토파일럿 프로그램이 드론에서 투영된 가짜로 만들어진 도로 위 차선 표시나 

디지털 광고판에 투영된 가짜 교통표지판에 속아 넘어갔다는 연구결과를 발표했다. 이는 자율주행차의 보급 확산 및 정착을 위해서는 더 정밀한 센서가 필요하다는 

것을 보여주는 결과로 해석된다.


벤구리온대 사이버 보안연구센터 연구원들은 자율주행 프로그램인 '오토파일럿'이 도로나 광고판에 투사된 ‘유령(Phantom)’ 이미지에 대응해 브레이크를 잘못 제동시킬 수 

있다는 사실을 확인했다.


연구진은 국제암호학회(International Association for Cryptologic Research) 홈페이지(IACR.org)에 발표된 ‘ADAS의 유령(Phantom of the ADAS)’이라는 새로운 논문을 

통해 반자율, 또는 완전자율자동차의 자동조종(autopilot) 장치와 첨단 운전자 보조 시스템(ADAS)이 깊이없는 투영 영상을 실제 물체로 착각한다는 사실을 시연해 보였다.


이들은 공격자(해커)들이 상업용 드론과 값싼 이미지 프로젝터를 사용해 이같은 문제점을 악용함으로써 어떻게 특별한 전문 지식없이도 자율주행차를 조작하고 운전자나 

승객에게 해를 끼칠 수 있는지 보여주었다.


이미 완전·반자동 자율주행차가 전 세계에 보급되고 있는 가운데, 자율주행차 업계는 자동차를 다른 차나 보행자, 그리고 주변 인프라와 연계시켜 주는 차량 통신 시스템(V2X)에서 

크게 뒤처져 있다. 연구원들에 따르면 그러한 시스템 부족은 운행중인 자율차량이 내부 센서에만 의존하게 하고 써드파티와의 가상 인지 내용 검증을 막음으로써 이른 바 

‘유효성 격차(validation gap)’를 가져오게 만든다.


연구원들은 오토파일럿이 가짜 영상에 브레이크를 밟도록 만든 것 외에도, 디지털 광고판에 125밀리초(1밀리=1000분의 1)동안 투사한 유령 교통 표지판을 진짜라고 

믿도록 ADAS를 속일 수 있다는 것을 보여주었다.


마지막으로 그들은 프로젝터를 장착한 드론이 도로 위에 투사한 가짜 차선 표시가 자율주행차 오토파일럿을 반대편의 다가오는 차선으로 유도할 수 있다는 사실도 증명했다.


유발 엘로비치 벤구리온대 소프트웨어정보시스템공학 및 사이버보안연구센터 교수의 지도를 받는 박사과정 학생 벤 나시(Ben Nassi) 수석 저자는 “현재 자동차 업계에서는 

런 형태의 공격에 대해서는 고려하지 않고 있다. 이는 버그나 코딩 오류가 아니다. 실제 물체와 가짜 물체의 구별하는 훈련, 시각적 물체 감지 기능 사용 훈련 등을 받지 않은 

센서의 근본적인 결함 때문이”라고 말했다.


시험 결과 도로에 투사된 깊이가 없는 물체는 심도 센서가 2D와 3D를 구별할 수 있음에도 실제 물체로 간주됐다. 벤구리온대 연구원들은 ‘실수로 인한 미안함보다 안전성을 

우선하는’ 정책의 결과 자동차가 시각적인 2D 물체를 진짜라고 생각하게 만들었다고 믿고 있다.


하지만 이번 연구결과는 이같은 자율주행차 업계의 정책이 오히려 자율주행차 안전성의 발목을 잡을 수 있다는 것도 동시에 보여 주고 있다.


연구진은 감지된 물체의 사건 발생 상황 전후 맥락, 표면, 반사광 등을 분석하는 신경망 모델을 개발 중인데, 이 모델은 가짜 영상을 높은 정확도로 검출할 수 있게 된다.


이 논문의 제목은 “ADAS의 유령:ADAS에 대한 유령의 공격(Phantom of theADAS: Phantom Attacks on Driver-Assistance Systems)”으로서 저자는 벤 나시, 두디 나시, 

라즈 벤-네타넬, 이스루엘 미르스키, 올레그 드로킨, 유발 엘로비치다. 이 논문은 국제암호연구협회의 웹사이트에 게재되어 있다.


https://youtu.be/1cSw4fXYqWI 



http://www.irobotnews.com/news/articleView.html?idxno=19798 

출처: 로봇신문, 이성원 sungwonly09@gmail.com

TOP