로봇신문사
> 뉴스 > 인공지능
MIT, 처음 보는 물건도 피킹하는 인공지능 로봇 개발DON(Dense Object Nets) 알고리즘 적용
폰트키우기 폰트줄이기 프린트하기 메일보내기 신고하기
승인 2018.09.12  16:41:09
트위터 페이스북 구글+ 밴드

   
 
사람은 머그잔을 잡을 때 머그잔에 붙어 있는 손잡이를 이용해 쉽게 들어올린다. 머그잔이 똑 바로 놓여 있거나 옆으로 누워 있거나 개의치 않는다. 신발이나 모자도 마찬가지다. 어디를 잡아야 신발이나 모자를 집어 올릴 수 있는지 쉽게 터득한다. 신발은 목이 긴 것도 있고 짧은 것도 있지만 사람은 손으로 신발 뒤 부분을 집거나 발이 들어가는 부분을 꼭 집어 들어올린다. 머그잔이나 신발의 크기에 상관없이, 그리고 처음보는 신발이나 머그잔이라도 집어 올리는데 전혀 문제가 없다.

하지만 로봇에게는 그런 능력이 없다. 산업 현장에 있는 로봇은 똑 같은 물건을 똑 같은 위치에서 집어올릴 수 있지만 모양이 제각각인 신발이나 머그잔을 집는 것은 불가능하다.

MIT CSAIL(컴퓨터·인공지능연구소) 소속 과학자들이 컴퓨터 비전시스템을 이용해 처음보는 물건들을 집어올릴 수 있는 인공지능 로봇 기술을 개발했다.

MIT 연구진은 컴퓨터 비전시스템과 ‘DON(Dense Object Nets)’으로 불리는 콘볼루션 신경망(CNN:Convolutional Neural Network) 기술을 접목해 처음보는 물건도 쉽게 집을 수 있는 기술을 개발했다. 이 기술은 다양한 이미지에 라벨을 붙여 훈련 시키는 방식이 아니라 ‘자가 지도(self-supervised)’ 방식이다. 스스로 학습할 수 있다는 의미다.

DON시스템은 물체를 일종의 ‘비주얼 로드맵(visual roadmap)’으로 인식한다. 비주얼 로드맵은 수많은 점들이 모여 좌표들을 형성하고 3D 형상을 만들어낸다. 연구팀은 이 같은 방식을 마치 여러 장의 사진을 붙여 파노라마 사진을 만들어내는 방식과 유사하다고 표현한다.

이 같은 방식으로 사람이 물체의 특정 부분을 가리키면 로봇은 스스로 다양한 각도에서 물체를 인식하고 조작하기에 편리한 지점들을 알아낸다. 신발의 형태가 달라지더라도 로봇은 집어야할 곳을 분명히 인식한다.

연구팀은 쿠카 로봇을 이용해 봉제 인형, 신발, 모자 등을 잡는 것을 시연했다. 처음보는 것도 별 어려움 없이 집는데 성공했다. 연구팀은 다음달 스위스 취리히에서 열리는 로봇 학습에 관한 컨퍼런스에서 이번 연구 성과를 발표할 예정이다.

 

장길수  ksjang@irobotnews.com
장길수의 다른기사 보기  
폰트키우기 폰트줄이기 프린트하기 메일보내기 신고하기
트위터 페이스북 구글+ 밴드 뒤로가기 위로가기
이 기사에 대한 댓글 이야기 (0)
자동등록방지용 코드를 입력하세요!   
확인
- 200자까지 쓰실 수 있습니다. (현재 0 byte / 최대 400byte)
- 욕설등 인신공격성 글은 삭제 합니다. [운영원칙]
이 기사에 대한 댓글 이야기 (0)
최근인기기사
1
현대중공업지주, 中 하궁즈넝과 합자회사 설립 협약
2
한국로봇산업진흥원, 지역 내 보육시설 대상 사회공헌활동 실시
3
중국 최대 '국제공업박람회' 개막
4
중소벤처기업부
5
미래엔 아이세움, 내일은 로봇왕 스페셜 대회 개최
6
한국 산업용 로봇 운영댓수, 내년 '미국' 추월
7
한국로봇산업진흥원, ‘재활로봇 활성화를 위한 간담회’ 개최
8
로봇윤리 규범화 본격 시동
9
'WRS 2018', 다음달 17일 일본 도쿄에서 개막
10
Seaon股份公司,梦想成为具有全球竞争力的软件编码机器人平台公司
로봇신문 소개기사제보광고문의불편신고개인정보취급방침이메일무단수집거부청소년보호정책    본지는 인터넷신문위원회 자율심의 준수 서약사입니다
08298) 서울 구로구 공원로 41(구로동, 현대파크빌 427호)  |  대표전화 : 02)867-6200  |  팩스 : 02)867-6203
등록번호 : 서울 아 02659  |  등록일자 : 2013.5.21  |  발행인·편집인 : 조규남  |  청소년보호책임자 : 박경일
Copyright © 2013 로봇신문사. All rights reserved. mail to editor@irobotnews.com