로봇신문사
> 기획·테크 > 특집
[IROS2016]14일 워크샵KAIST 김종환 교수, 한양대 서일홍 교수 강연 내용
폰트키우기 폰트줄이기 프린트하기 메일보내기 신고하기
승인 2016.10.16  21:17:48
트위터 페이스북 구글+ 밴드

IROS 2016 공식 일정 마지막 날인 14일에는 하루 종일 워크숍과 튜토리얼 행사가 열렸다. 이날 워크숍 중 "Assistance and Service Robotics in a Human Environment"와 "Personal Robot Interaction" 두 가지 주제의 초청강연을 소개한다. 이 내용은 KAIST 김종환 교수 연구실 이원형(박사과정) 연구원이 보내 온 내용입니다.

▲ KAIST 김종환 교수가 강연하고 있다.
오전에 열린 "Assistance and Service Robotics in a Human Environment" 주제 워크숍에서 KAIST 전기전자공학부 김종환 교수는 'Task Intelligence for Service Robots'을 제목으로 강연했다.

김 교수는 서비스로봇이 작업을 수행하기 위한 지능 기술들을 ‘작업지능(task intelligent)'으로 소개하며, 본인 연구실에서 개발한 로봇인 ‘마이봇(Mybot)’과 통합 메모리 구조를 통해 설명했다. 김 교수는 빅데이터와 이를 처리하는 알고리즘의 개발, 그리고 GPU를 이용한 병렬계산의 기술 발전이 인공지능의 비약적 성취를 가능하게 했다며, 이러한 차세대 기술의 물결은 지능물결로 찾아오게 될 것이라고 주장했다.

지능 기술을 로봇에 구현하기 위해 연구실에서 제안한 지능 운영 아키텍쳐 iOA(intelligent Operating Architecture)와 휴머노이드형 서비스 로봇인 ‘Mybot’이 소개됐고, 이 시스템을 통해 통해 물주기, 물건 찾기, 음료수 따르기, 물건 정리, 토스트 굽기 등 다양한 서비스 시나리오가 보여졌다. 그는 로봇의 작업 지능을 위한 세부 기술들로 로봇의 지각(perception), 주의(attention), 학습, 메모리, 사고, 행동생성을 설명했다. 로봇의 지각능력 향상을 위해서 RGB-D 센서에 온도 센서를 추가한 시스템이 많은 관심을 받았고, 물체인식 기술, 로봇의 시선처리 방법, 시연학습을 위한 인식과 작업 순서 기억, 상황 기반 RNN 기술, 발달형 장기기억, 로봇의 행동 궤적을 빠르게 생성하기 위한 RRT기반 최신 기술도 소개되었다.

로봇이 효율적으로 상황을 학습하고 재현하도록 하기 위해 설계된 메모리 구조도 소개되었다. 이 구조는 인간의 장기 기억 구조를 모방하여 절차기억, 의미기억, 일화기억을 구현하였고, 학습 네트워크가 유연하게 상황에 따라 확장될 수 있도록 ART(Adaptive Resonance Theory)기술이 활용됐다. 이처럼 작업을 수행하기 위한 서비스 로봇 개발에는 다양한 지능 기술, 소프트웨어 개발, 하드웨어 제작과 같은 복합적 능력들이 필요함을 보였고, 실제 로봇이 부엌 환경에서 물건을 옮기고, 수도를 잠그는 등의 시연 영상으로 강연이 마무리되었다.


▲ KAIST 전기전자공학부 유용호 박사과정
강연 이후에는 구체적인 기술 설명이 유용호 KAIST전기전자공학부 박사과정에 의해 ”Memory-based Realization of Task Intelligence for Robots in Human Environment”라는 제목으로 발표됐다.

▲ 한양대 서일홍 교수가 강연하고 있다.
오후에 열린 "Personal Robot Interaction" 워크숍에서 한양대 서일홍 교수는 Cognitive X-ability for Social HRI를 제목으로 강연했다.

서 교수는 서비스 로봇을 현장에 배치하기 위해서는 많은 기술들이 필요함을 언급하며 ‘엑스 어빌리티(X-ability)’라는 용어를 제안했다. X-ability는 서비스 로봇이 많은 사람들을 상대하고 안내하기 위해 필요한 기술들을 일컫는 말로, 총 6가지의 기능들로 구성되고, 서 교수는 각각의 기능들을 연구실에서 구현한 내용을 바탕으로 설명했다.

X-ability의 첫 번째 기능은 '로봇이 지정된 공간 내에 로봇이 위치해 있도록 하는 기능'이다. 로봇은 자신이 서비스하고자 하는 공간이 어디까지 얼마나 허용되는지를 인지하고 군중 속에서도 자신의 영역을 유지하고 있어야 한다. 그러기 위해 로봇은 현장 기반 가상 울타리 (scene-based virtual fence)를 가지고 그 범위를 벗어나지 않도록 설계됐다. 두 번째 기능은 '로봇이 자신이 어디에 있는지 알도록 하는 기능'으로, 로봇이 가지고 있는 지도 정보와 영상 등의 정보로 수집되는 현재 입력 정보를 비교하여 자신의 위치를 추정하는 것이다. 세 번째 기능은 '로봇이 서비스 영역 내에서 어떻게 이동해야 하는지 알도록 하는 기능'으로 , 로봇이 자신의 위치로부터 목표로 하는 곳까지 이동(주행)할 수 있어야 한다. 네 번째 기능은 '로봇이 사람을 찾고, 누구인지 인식하며, 그 사람을 계속 추적할 수 있도록 하는 기능'이다. 서 교수는 이 문제를 해결하기 위한 방법으로 영상으로 입력되는 사람의 몸 정보를 분할하고 외형적 특징을 추출해내는 방법을 소개했다. 다섯 번째 기능은 '로봇이 물체를 찾고 인식하도록 하는 기능'이다. 서 교수는 이를 위해서는 물체와 배경을 구분하고, 물체가 어떤 것인지 알아내기 위해 특징점을 찾아 기존 정보와 연결시킬 줄도 알아야 한다고 설명했다. 또한, 작은 정보만 가지고도 물체를 묘사해내고 지속적으로 학습과 인식이 일어날 수 있도록 하는 기술에 대해 소개했다.여섯 번째 기능은 '로봇이 사용자와 목소리와 제스처 등을 통해 상호작용을 하도록 하는 기능'이다. 이 기능은 시연학습을 통해 구현되었다. 먼저 하이파이브를 하는 상황이 예시로 사용되었는데, 먼저 사람과 사람은 언제 어떻게 하이파이브를 하고자 하는지 시연을 하고 로봇은 사람 동작의 공간적 정보관계를 관찰 및 분석하여 사람의 행동에 대응하도록 설계됐다. 또한, 서 교수는 이러한 상황의 연장선 상에서 사람과 사람이 언제 어떻게 서로간의 정보를 공유하는지 공동 관심(joint attention) 상황을 학습하는 예시를 보여주었다. 사람은 움직이는 물체, 비정상적 소리, 손가락 등으로 지시하는 상황, 눈이 마주칠 때 등에 공동 관심이 생기는데, 이를 사람과 로봇의 상호작용 상황에도 적용하고자 했다.

마무리 발언으로 서 교수는 서비스 로봇에게는 여전히 불확하고 예측이 어려운 환경에서 자동화될 수 있는 역량이 요구된다면서, 여러 작은 문제들을 많이 풀어서 일반적인 상황으로 통합 적용해가는 시도가 많이 필요하다고 설명했다.

이 기사에 대한 댓글 이야기 (0)
자동등록방지용 코드를 입력하세요!   
확인
- 200자까지 쓰실 수 있습니다. (현재 0 byte / 최대 400byte)
- 욕설등 인신공격성 글은 삭제 합니다. [운영원칙]
이 기사에 대한 댓글 이야기 (0)
정원영의 다른기사 보기  
폰트키우기 폰트줄이기 프린트하기 메일보내기 신고하기
트위터 페이스북 구글+ 밴드 뒤로가기 위로가기
인기기사
1
파스토, 용인 스마트물류센터 추가 오픈
2
트위니-핌즈, 자율주행 로봇 활용 물류 사업 협력
3
‘제2회 MARS 월드포럼’, 대전컨벤션센터에서 개최
4
아마존, 로봇청소기업체 아이로봇 2조 2천억원에 인수
5
아마존, 아이로봇 인수로 강력한 로봇 생태계 구축
6
페덱스, 향후 3년간 버크셔 그레이 로봇 2600억원 규모 구매
7
비욘드 이매지네이션, 셀프 랩스에 휴머노이드 로봇 1천대 공급한다
8
자율주행 시스템용 AI 스타트업 '퍼셉티브 오토마타' 좌초
9
호주 시드니대-리치 로보틱스, 우주로봇 협력
10
美 카네기멜론대, 항공기용 인공지능 파일롯 개발
로봇신문 소개기사제보광고문의불편신고개인정보취급방침이메일무단수집거부청소년보호정책    *국제표준간행물번호 ISSN 2636-0381 *본지는 인터넷신문위원회 자율심의 준수 서약사입니다
08298) 서울 구로구 공원로 41(구로동, 현대파크빌 526호)  |  대표전화 : 02)867-6200  |  팩스 : 02)867-6203
등록번호 : 서울 아 02659  |  등록일자 : 2013.5.21  |  발행인·편집인 : 조규남  |  청소년보호책임자 : 박경일
Copyright © 2013 로봇신문사. All rights reserved. mail to editor@irobotnews.com