로봇신문사
> 뉴스 > 로봇 부품·소프트웨어
美 버클리대, 로봇학습용 데이터 세트 ‘브릿지 데이터 V2’ 발표윈도우X 250 6DoF 로봇팔로 수집···픽앤플레이스·밀기·쓸기 등 13개 스킬 포함
폰트키우기 폰트줄이기 프린트하기 메일보내기 신고하기
승인 2023.09.21  10:25:46
트위터 페이스북 구글+ 밴드
▲미국 UC버클리가 로봇 학습용 데이터세트인 ‘브리지 데이터 V2’를 내놓았다. 사진은 이 데이터세트의 ‘캐비닛 닫기’ 자연어 주석이 달린 로봇팔의 초기 및 최종 상태 궤적. (사진=UC버클리)

미국 캘리포니아 주립 버클리대(UC버클리) 연구팀이 로봇학습을 위한 데이터 세트인 ‘브리지 데이터 V2’(BridgeData V2)를 발표했다고 더로봇리포트가 지난 14일(현지시각) 보도했다.

이 데이터 세트는 로봇 조작 행동의 다양하고 방대한 데이터를 담고 있으며 확장 가능한 로봇 학습 연구를 촉진하기 위해 만들어졌다.

이 업데이트된 데이터 세트는 개방형 어휘 및 목표 이미지나 자연어 명령어 상태로 된 멀티태스크 학습 방법과 호환된다. 데이터 세트에서 학습된 기술은 새로운 객체 및 환경과 기관 전반에 걸쳐 일반화될 수 있다.

버클리대 연구팀은 다양한 환경에서 객체, 카메라 포즈, 작업 공간 위치 등의 변화를 가진 광범위한 작업 데이터를 수집했다. 이 모든 변화는 광범위한 일반화를 더 잘 지원하기 위한 것이다.

데이터 세트에는 6만 96개의 궤적, 5만 365개의 원격 조작 시연, 9731개의 롤아웃, 24개의 환경, 13개의 스킬이 포함돼 있다. 각 궤적에는 로봇이 수행하는 작업에 해당하는 자연어 명령어가 라벨로 표시돼 있다.

데이터 세트에 포함된 24개의 환경은 4개의 다른 범주로 그룹화된다. 대부분의 데이터는 싱크대, 난로, 전자레인지의 조합을 모두 포함하는 7개의 다른 장난감 부엌에서 가져온 것이다.

브리지데이터 V2에 포함된 13가지 스킬의 대부분은 픽앤플레이스, 밀기, 쓸기와 같은 기본적 물체 조작 작업에서 나왔다.

일부 데이터는 문 및 서랍을 열고 닫는 것과 같은 환경 조작에서 나왔다. 나머지 데이터는 블록 쌓기, 옷 접기, 입상(粒狀) 매체 쓸기와 같은 더 복잡한 작업에서 나왔다. 데이터의 일부는 이러한 범주를 혼합한 것에서 나왔다.

버클리대 팀은 데이터 세트를 사용해 여러 가지 최첨단 오프라인 학습 방법을 평가했다.

먼저 교육 데이터에 나타난 작업에 대한 데이터 세트를 평가했다. 교육에서 작업이 보여졌지만 팀이 이를 새로운 개체 위치, 주의 산만 개체 및 조명에 일반화하려면 여전히 많은 방법이 요구됐다.

그런 다음 연구팀은 이 데이터에서 새로운 개체 및 환경으로 일반화 기술이 필요한 작업에서 데이터 세트를 평가했다.

데이터는 윈도우X 250 6자유도(DOF) 로봇 팔로 수집됐다. 연구 팀은 가상현실(VR) 컨트롤러로 로봇을 원격 조작해 시연 내용을 수집했다. 컨트롤러 제어 주파수는 5Hz, 평균 궤적 길이는 38회 스텝이었다.

연구팀은 이를 감지하기 위해 어깨 위 뷰로 고정된 RGB 심도 카메라, 데이터 수집 중 무작위로 추출되는 포즈의 RGB 카메라 2대, 로봇 손목에 부착된 RGB 카메라를 사용했다. 모든 이미지는 640x480 화소 해상도로 저장된다.

데이터세트는 웹사이트(https://rail.eecs.berkeley.edu/datasets/bridge_release/zipped/)에서 다운로드할 수 있다. 원격 운영 시연을 위한 데이터와 대본으로 작성된 픽앤플레이스 폴리시(정책)에서 가져온 데이터는 별도의 집(zip) 파일로 제공된다.

연구팀은 데이터세트를 시작하기 위한 모델 교육 코드와 사전 교육된 가중치를 모두 제공한다.

깃허브에서는 데이터세트 상의 교육 및 정책 평가를 위한 코드 및 사용법을 제공한다.(https://github.com/rail-berkeley/bridge_data_v2)

UC버클리 연구팀은 로봇 하드웨어를 설정하기 위한 사용법을 제공한다. (참고, https://docs.google.com/document/d/1si-6cTElTWTgflwcZRPfgHU7-UwfCUkEztkH3ge5CGc/edit?pli=1)

이성원  robot3@irobotnews.com
이 기사에 대한 댓글 이야기 (0)
자동등록방지용 코드를 입력하세요!   
확인
- 200자까지 쓰실 수 있습니다. (현재 0 byte / 최대 400byte)
- 욕설등 인신공격성 글은 삭제 합니다. [운영원칙]
이 기사에 대한 댓글 이야기 (0)
이성원의 다른기사 보기  
폰트키우기 폰트줄이기 프린트하기 메일보내기 신고하기
트위터 페이스북 구글+ 밴드 뒤로가기 위로가기
인기기사
1
일본 '2023 국제로봇전', 29일 개막...역대 최대 규모
2
中 국유기업 CETC도 휴머노이드 로봇 공개
3
레나투스 로보틱스, '2023 국제로봇전'에 자동창고시스템 출품
4
쿤텍-KISA, 프라이빗 5G 클라우드 기반 로봇 응용 프로그램 보호 서비스 개발
5
KAIST-구글딥마인드, 시각 개념 이해하는 인공지능 구현
6
일본 미쓰비시전기, 산업용 로봇 신제품 출품
7
2023 로보컵 아시아태평양대회, 12월 6일 평창에서 개막
8
항공안전기술원, '2023 K-드론시스템 실증시연'
9
KAIST, '인공지능반도체대학원' 개원
10
대전 로봇기업들, '2023 국제로봇전'에 공동관 구성
로봇신문 소개기사제보광고문의불편신고개인정보취급방침이메일무단수집거부청소년보호정책    *국제표준간행물번호 ISSN 2636-0381 *본지는 인터넷신문위원회 자율심의 준수 서약사입니다
08298) 서울 구로구 공원로 41(구로동, 현대파크빌 526호)  |  대표전화 : 02)867-6200  |  팩스 : 02)867-6203
등록번호 : 서울 아 02659  |  등록일자 : 2013.5.21  |  발행인·편집인 : 조규남  |  청소년보호책임자 : 박경일
Copyright © 2013 로봇신문사. All rights reserved. mail to editor@irobotnews.com