본문 바로가기

테크크런치기사

연구원은 로봇이 미래를 볼 수 있도록 훈련시킨다.

https://techcrunch.com/2017/12/08/researchers-train-robots-to-see-into-the-future/?ncid=rss


로봇은 대개 실시간으로 반응합니다. 어떤 일이 발생하면 응답합니다. 현재 캘리포니아 대학의 버클리 대학 (University of California, Berkeley)은 로봇이 이전에 보지 못했던 것들과 상호 작용할 수 있도록 "행동의 미래를 상상해보십시오"시스템을 연구하고 있습니다.

이 기술은 시각적 예측 (vision foresight)이라고 불리우며 "로봇은 특정 동작 순서를 수행 할 때 카메라가 볼 수있는 것을 예측할 수 있습니다."

연구원을 쓴다.

이러한 로봇의 상상력은 아직까지는 비교적 단순합니다 (미래에는 불과 몇 초 밖에 걸리지 않습니다).하지만 로봇이 장애물을 피해 테이블 ​​위에서 물건을 움직이는 방법을 파악하기에 충분합니다. 결정적으로 로봇은 인간의 도움이나 물리학, 환경 또는 물체에 대한 사전 지식없이 이러한 작업을 수행하는 방법을 배울 수 있습니다. 시각적 인 상상력은 로봇이 탁자 위에 물건을 가지고 노는 무인 감독 탐험에서 완전히 배웠기 때문입니다. 이 플레이 단계가 끝나면 로봇은 세계의 예측 모델을 구축하고이 모델을 사용하여 이전에 보지 못했던 새 오브젝트를 조작 할 수 있습니다.

"우리의 행동이 어떻게 우리의 환경에서 물체를 움직이는 지 상상할 수있는 것과 같은 방식으로,이 방법은 로봇이 주변의 세계에 다른 행동이 어떻게 영향을 미치는지 시각화 할 수 있습니다."라고 버클리 전기 부교수 세르게이 레빈 (Sergey Levine) Engineeing 및 컴퓨터 과학. 이는 복잡한 현실 세계에서 매우 유연한 기술을 지능적으로 계획 할 수있게 해줍니다. "

시스템은 컨볼 루션 반복적 인 비디오 예측을 사용하여 "로봇 동작에 따라 이미지의 픽셀이 한 프레임에서 다음 프레임으로 어떻게 이동하는지 예측"합니다. 즉, 오브젝트를 만지거나 움직이기 전에 시나리오를 재생할 수 있습니다.

"과거에는 로봇이 인간 감독자가 피드백을 제공하고 피드백을 제공하는 기술을 배웠습니다. 이 작업을 흥미롭게 만드는 것은 로봇이 스스로 시각적 객체 조작 기술의 범위를 전적으로 배울 수 있다는 것입니다. "라고 Levine의 실험실 연구원이자 원래의 DNA 모델을 발명 한 Chelsea Finn은 말했습니다.

로봇은 주변 환경이나 특수 센서에 대한 특별한 정보가 필요하지 않습니다. 카메라를 사용하여 장면을 분석 한 다음 그에 따라 행동합니다. 테이블에있는 물체를 서로 움직이면 어떤 일이 발생하는지 예측할 수 있습니다.

"아이들은 장난감으로 놀고, 움직이고, 쥐고, 등등으로 세상을 배울 수 있습니다. 이 연구의 목표는 로봇이 자율적 인 상호 작용을 통해 세계가 어떻게 작동 하는지를 배우기 위해 로봇이 똑같이 할 수있게하는 것입니다. "라고 Levine은 말했습니다. "이 로봇의 기능은 여전히 ​​제한적이지만 그 기술은 전적으로 자동으로 학습되어 이전에 관찰 된 상호 작용 패턴을 바탕으로 이전에는 볼 수 없었던 대상과의 복잡한 물리적 상호 작용을 예측할 수 있습니다."