https://techcrunch.com/2017/12/08/researchers-train-robots-to-see-into-the-future/?ncid=rss
로봇은 대개 실시간으로 반응합니다. 어떤 일이 발생하면 응답합니다. 현재 캘리포니아 대학의 버클리 대학 (University of California, Berkeley)은 로봇이 이전에 보지 못했던 것들과 상호 작용할 수 있도록 "행동의 미래를 상상해보십시오"시스템을 연구하고 있습니다.
이 기술은 시각적 예측 (vision foresight)이라고 불리우며 "로봇은 특정 동작 순서를 수행 할 때 카메라가 볼 수있는 것을 예측할 수 있습니다."
연구원을 쓴다.
"우리의 행동이 어떻게 우리의 환경에서 물체를 움직이는 지 상상할 수있는 것과 같은 방식으로,이 방법은 로봇이 주변의 세계에 다른 행동이 어떻게 영향을 미치는지 시각화 할 수 있습니다."라고 버클리 전기 부교수 세르게이 레빈 (Sergey Levine) Engineeing 및 컴퓨터 과학. 이는 복잡한 현실 세계에서 매우 유연한 기술을 지능적으로 계획 할 수있게 해줍니다. "
시스템은 컨볼 루션 반복적 인 비디오 예측을 사용하여 "로봇 동작에 따라 이미지의 픽셀이 한 프레임에서 다음 프레임으로 어떻게 이동하는지 예측"합니다. 즉, 오브젝트를 만지거나 움직이기 전에 시나리오를 재생할 수 있습니다.
"과거에는 로봇이 인간 감독자가 피드백을 제공하고 피드백을 제공하는 기술을 배웠습니다. 이 작업을 흥미롭게 만드는 것은 로봇이 스스로 시각적 객체 조작 기술의 범위를 전적으로 배울 수 있다는 것입니다. "라고 Levine의 실험실 연구원이자 원래의 DNA 모델을 발명 한 Chelsea Finn은 말했습니다.
로봇은 주변 환경이나 특수 센서에 대한 특별한 정보가 필요하지 않습니다. 카메라를 사용하여 장면을 분석 한 다음 그에 따라 행동합니다. 테이블에있는 물체를 서로 움직이면 어떤 일이 발생하는지 예측할 수 있습니다.
"아이들은 장난감으로 놀고, 움직이고, 쥐고, 등등으로 세상을 배울 수 있습니다. 이 연구의 목표는 로봇이 자율적 인 상호 작용을 통해 세계가 어떻게 작동 하는지를 배우기 위해 로봇이 똑같이 할 수있게하는 것입니다. "라고 Levine은 말했습니다. "이 로봇의 기능은 여전히 제한적이지만 그 기술은 전적으로 자동으로 학습되어 이전에 관찰 된 상호 작용 패턴을 바탕으로 이전에는 볼 수 없었던 대상과의 복잡한 물리적 상호 작용을 예측할 수 있습니다."