로봇신문사
> 뉴스 > 로봇 부품·소프트웨어
美 버클리대, 로봇학습용 데이터 세트 ‘브릿지 데이터 V2’ 발표윈도우X 250 6DoF 로봇팔로 수집···픽앤플레이스·밀기·쓸기 등 13개 스킬 포함
폰트키우기 폰트줄이기 프린트하기 메일보내기 신고하기
승인 2023.09.21  10:25:46
트위터 페이스북 구글+ 밴드
▲미국 UC버클리가 로봇 학습용 데이터세트인 ‘브리지 데이터 V2’를 내놓았다. 사진은 이 데이터세트의 ‘캐비닛 닫기’ 자연어 주석이 달린 로봇팔의 초기 및 최종 상태 궤적. (사진=UC버클리)

미국 캘리포니아 주립 버클리대(UC버클리) 연구팀이 로봇학습을 위한 데이터 세트인 ‘브리지 데이터 V2’(BridgeData V2)를 발표했다고 더로봇리포트가 지난 14일(현지시각) 보도했다.

이 데이터 세트는 로봇 조작 행동의 다양하고 방대한 데이터를 담고 있으며 확장 가능한 로봇 학습 연구를 촉진하기 위해 만들어졌다.

이 업데이트된 데이터 세트는 개방형 어휘 및 목표 이미지나 자연어 명령어 상태로 된 멀티태스크 학습 방법과 호환된다. 데이터 세트에서 학습된 기술은 새로운 객체 및 환경과 기관 전반에 걸쳐 일반화될 수 있다.

버클리대 연구팀은 다양한 환경에서 객체, 카메라 포즈, 작업 공간 위치 등의 변화를 가진 광범위한 작업 데이터를 수집했다. 이 모든 변화는 광범위한 일반화를 더 잘 지원하기 위한 것이다.

데이터 세트에는 6만 96개의 궤적, 5만 365개의 원격 조작 시연, 9731개의 롤아웃, 24개의 환경, 13개의 스킬이 포함돼 있다. 각 궤적에는 로봇이 수행하는 작업에 해당하는 자연어 명령어가 라벨로 표시돼 있다.

데이터 세트에 포함된 24개의 환경은 4개의 다른 범주로 그룹화된다. 대부분의 데이터는 싱크대, 난로, 전자레인지의 조합을 모두 포함하는 7개의 다른 장난감 부엌에서 가져온 것이다.

브리지데이터 V2에 포함된 13가지 스킬의 대부분은 픽앤플레이스, 밀기, 쓸기와 같은 기본적 물체 조작 작업에서 나왔다.

일부 데이터는 문 및 서랍을 열고 닫는 것과 같은 환경 조작에서 나왔다. 나머지 데이터는 블록 쌓기, 옷 접기, 입상(粒狀) 매체 쓸기와 같은 더 복잡한 작업에서 나왔다. 데이터의 일부는 이러한 범주를 혼합한 것에서 나왔다.

버클리대 팀은 데이터 세트를 사용해 여러 가지 최첨단 오프라인 학습 방법을 평가했다.

먼저 교육 데이터에 나타난 작업에 대한 데이터 세트를 평가했다. 교육에서 작업이 보여졌지만 팀이 이를 새로운 개체 위치, 주의 산만 개체 및 조명에 일반화하려면 여전히 많은 방법이 요구됐다.

그런 다음 연구팀은 이 데이터에서 새로운 개체 및 환경으로 일반화 기술이 필요한 작업에서 데이터 세트를 평가했다.

데이터는 윈도우X 250 6자유도(DOF) 로봇 팔로 수집됐다. 연구 팀은 가상현실(VR) 컨트롤러로 로봇을 원격 조작해 시연 내용을 수집했다. 컨트롤러 제어 주파수는 5Hz, 평균 궤적 길이는 38회 스텝이었다.

연구팀은 이를 감지하기 위해 어깨 위 뷰로 고정된 RGB 심도 카메라, 데이터 수집 중 무작위로 추출되는 포즈의 RGB 카메라 2대, 로봇 손목에 부착된 RGB 카메라를 사용했다. 모든 이미지는 640x480 화소 해상도로 저장된다.

데이터세트는 웹사이트(https://rail.eecs.berkeley.edu/datasets/bridge_release/zipped/)에서 다운로드할 수 있다. 원격 운영 시연을 위한 데이터와 대본으로 작성된 픽앤플레이스 폴리시(정책)에서 가져온 데이터는 별도의 집(zip) 파일로 제공된다.

연구팀은 데이터세트를 시작하기 위한 모델 교육 코드와 사전 교육된 가중치를 모두 제공한다.

깃허브에서는 데이터세트 상의 교육 및 정책 평가를 위한 코드 및 사용법을 제공한다.(https://github.com/rail-berkeley/bridge_data_v2)

UC버클리 연구팀은 로봇 하드웨어를 설정하기 위한 사용법을 제공한다. (참고, https://docs.google.com/document/d/1si-6cTElTWTgflwcZRPfgHU7-UwfCUkEztkH3ge5CGc/edit?pli=1)

이성원  robot3@irobotnews.com
이 기사에 대한 댓글 이야기 (0)
자동등록방지용 코드를 입력하세요!   
확인
- 200자까지 쓰실 수 있습니다. (현재 0 byte / 최대 400byte)
- 욕설등 인신공격성 글은 삭제 합니다. [운영원칙]
이 기사에 대한 댓글 이야기 (0)
이성원의 다른기사 보기  
폰트키우기 폰트줄이기 프린트하기 메일보내기 신고하기
트위터 페이스북 구글+ 밴드 뒤로가기 위로가기
인기기사
1
레인보우로보틱스, 2023년 실적 발표 … 연간 매출 152.5억원 기록
2
인피닉, 자율주행기술 개발 위한 열상 센서 데이터셋 공개
3
영인모빌리티, '2024 드론쇼 코리아'에 드론ㆍ로봇 출품
4
화성시동탄아르딤복지관, 엔젤로보틱스 웨어러블 로봇 'M20-B' 도입
5
티라유텍, 2023년 연결 매출 544억원 달성
6
에이딘로보틱스, '모덱스 2024'에 물류용 로봇 피킹 솔루션 선봬
7
국제미래학회, 국내 최초로 ‘챗GPT 인공지능 지도사’ 자격 취득 과정 개설
8
마음AI, 오는 3월 6일 창립 9주년 기념 컨퍼런스 개최
9
일본 로봇 기업, 유럽으로 눈 돌린다
10
이모션웨이브, MWC 2024에서 멀티모달형 AI 음악 기술 선보여
로봇신문 소개기사제보광고문의불편신고개인정보취급방침이메일무단수집거부청소년보호정책    *국제표준간행물번호 ISSN 2636-0381 *본지는 인터넷신문위원회 자율심의 준수 서약사입니다
08298) 서울 구로구 공원로 41(구로동, 현대파크빌 526호)  |  대표전화 : 02)867-6200  |  팩스 : 02)867-6203
등록번호 : 서울 아 02659  |  등록일자 : 2013.5.21  |  발행인·편집인 : 조규남  |  청소년보호책임자 : 박경일
Copyright © 2013 로봇신문사. All rights reserved. mail to editor@irobotnews.com