최영훈 교수의 IASL 연구실에서 발표한 논문 "Energy-Constrained Multi-UAV Coverage Path Planning for an Aerial Imagery Mission Using Column Generation"가 "Journal of Intelligent & Robotic Systems 2019"에 게재되었다.
[그림 1] ABECOM과 RBECOM의 경로 탐색 결과 비교
Journal of Intelligent & Robotic Systems에 실린 “Energy-Constrained Multi-UAV Coverage Path Planning for an Aerial Imagery Mission Using Column Generation” 연구에서는 UAV를 활용하여 특정 지역을 스캔하는 임무를 다루었다. 이러한 임무는 정찰, 영상/이미지 촬영, 수색/구조 등의 다양한 임무로 확장되어 활용될 수 있다. UAV를 이런 임무를 수행할 때에는 최대한 회전비행을 하는 횟수를 줄이는 것이 중요한데 기존의 선형계획법을 활용한 경로 생성 방법으로는 항공기의 회전비행 특성을 반영하기가 어려웠다. 그 이유는 회전의 유무는 직전에 방문했던 waypoint와 다음에 방문할 waypoint가 결정된 뒤에 알 수 있는데 이 조건을 선형으로 표현하기 힘들기 때문이다. 이 연구에서 linear programming과 dynamic programming을 결합한 column generation 알고리즘을 통하여 이 문제를 해결할 수 있음을 보였다.
엄태훈 교수의 연구실에서 발표한 논문 "A Systematic Approach to Threat Modeling and Security Analysis for Software Defined Networking"이 "IEEE Access" 2019년 호에 게재되었다.
논문 사이트로 이동
[Figure 1] A framework for security assessment in SDN
Software Defined Networking (SDN) extends capabilities of existing networks by providing various functionalities, such as flexible networking controls. However, there are many security threat vectors in SDN, including existing and emerging ones arising from new functionalities, that may hinder the use of SDN. To tackle this problem, many countermeasures have been developed to mitigate various threats faced in SDN. However, their effectiveness must be analyzed and compared to fully understand how security posture of SDN changes when the countermeasure is adopted. Also, it becomes difficult to optimize the security of SDN without using a systematic approach to evaluate the security posture of SDN. In this paper, we propose a novel framework to systematically model and analyze the security posture of SDN. We develop a novel graphical security model formalism named Threat Vector Hierarchical Attack Representation Model (TV-HARM), which provides a systematic approach to evaluate threats, attacks and countermeasures for SDN. The TV-HARM captures different threats and their combinations, enabling security risk assessment of SDN. In addition, we define three new security metrics to represent security of SDN. Our experimental results showed that the proposed security assessment framework can capture and evaluate various security threats to SDN, demonstrating the applicability and feasibility of the proposed framework.
최영식 교수의 RML 연구실에서 단안 카메라를 통해 획득한 영상에서 Semantic segmentation 및 Depth 등의 시각 정보를 추출하여, 이를 기반으로 공중로봇이 장애물을 피해 목표지점까지 자율 비행하도록 하는 딥 강화학습(Deep Reinforcement Learning) 기술을 개발했다.
본 연구는 삼성전자의 미래기술육성센터의 지원으로 2016년 9월부터 2018년 8월까지 진행되었다. 본 연구에서 개발한 시각 정보 추출 인공 신경망(Artificial Neural Network)을 실제 한국항공대 주변 풍경에 적용해본 영상이다. 아래 [영상 1]은 3가지 화면으로 구성되어 있으며, 위에서부터 RGB 이미지, Semantic Segmentation, 그리고 Depth를 나타낸다. CityScape 및 KITTI 데이터셋으로 실험한 결과 기존의 인공 신경망과 비교했을 때, 신경망의 크기는 1/20에서 1/30이지만 정확성은 최대 10% 더 높은 결과를 보였다. 신경망의 크기를 크게 줄인 결과 임베디드 GPGPU 장비인 nVidia의 Jetson TX2에서도 작동할 수 있었으며, 10Hz의 속도로 시각 정보를 추출하는데 성공했다.
[영상 1] 실제 환경에서의 시각 정보 추출 시험
[영상 2] 딥 강화학습(Deep Reinforcement Learning)을 이용한 공중로봇의 장애물 회피 훈련
위 [영상 2]는 본 연구를 통해 추출한 시각 정보를 이용해 시뮬레이션 환경에서 자율비행을 학습시킨 결과이다. Microsoft의 AirSim 환경에서 최대 16대의 에이전트가 동시에 딥 강화학습을 진행했다. GPS를 통해 목표 지점을 정해주면 공중 로봇이 장애물을 피해 목표 지점까지 비행하도록 학습시켰다. 약 24시간 학습한 후 충돌 없이 목표 지점까지 비행할 확률이 50%에 달했으며 약 48시간 학습 후에는 90% 이상에 달했다.
[영상 3] 실제 환경에서의 공중로봇 장애물 회피 시험
위 [영상 3]은 48시간의 시뮬레이션 학습을 마친 후 이를 실제 환경에 적용하여 실험한 결과이다. 공중로봇으로는 Parrot의 Bebop 2.0을 활용했으며, GPGPU 장비로는 nVidia의 Jetson TX2를 활용했다. 공중로봇의 단안 카메라가 이미지를 촬영하여 GPGPU 장비로 이를 전송하면, GPGPU 장비가 5Hz로 공중로봇의 비행 방향(Heading)과 속력을 제어한다. 실험 결과 목표 지점까지의 경로상에 장애물이 존재하면 약 5m에서 10m 전에 미리 비행 방향을 변경했으며, 장애물과 가까워질 수록 속력을 줄이는 것을 확인했다. 또한 장애물이 이동하더라도 충돌하지 않고 지속적으로 비행 방향과 속력을 조절하는 것을 확인했다. 다만 시뮬레이션 환경 상 움직이는 장애물에 대한 훈련을 실시하지 않았기 때문에, 충돌은 피하더라도 목표 지점까지 비행하는 경로를 찾는데는 실패하는 경향을 보였다.