본문 바로가기

테크크런치기사

Google 사용자 정의 TPU 기계, 알파 버전 공개 - 클라우드에서 기계 학습을 가속

출처 : http://jp.techcrunch.com/2018/02/13/2018-02-12-googles-custom-tpu-machine-learning-accelerators-are-now-available-in-beta/


Google의 TPU ( Tensor Processing Units )는 TensorFlow 프레임 워크에서 기계 학습을 효율적으로 수행하기 위해 독자적으로 개발 된 커스텀 칩이다. 이 TPU 알파 버전이지만, 클라우드 에서 이용할 수있게되었다 .

Google이 디자인 한 칩은 일부 기계 학습의 흐름을 타사의 표준 GPU보다 훨씬 빠르게 처리 할 수 ​​있다고한다. 이 TPU의 소비 전력이 적은 것은 Google 측에 중요한 포인트 일 것이다. 개발자 측은 전력 등 그다지 신경 쓰지 않겠지 만, Google에게 데이터 센터의 전력 공급은 큰 과제 다. 또한 이용 요금 인하에도 이어진다.

Google는 9 개월 전에 I / O 개발자 컨퍼런스에서 클라우드에 TPU를 이용할 수 있도록한다고 발표 했다 (이 때 일부 개발자에 한정하여 액세스를 허용). 각각의 Cloud TPU는 4 기의 ASIC 및 64GB의 광대역 메모리를 갖추고있다. Google에 따르면, 하나의 TPU 보드의 피크 능력 180TFLOPS이라고한다.

이미 TensorFlow를 이용하여 기계 학습을 실행하는 사용자는 새로운 서비스를 이용하기 위해 코드를 크게 고쳐 쓸 필요는 없다. 그러나 당분간 Cloud TPU를 이용하는 것은 한 번의 클릭라고 할 수는 없다. 액세스를 관리하기 위해 '이용 희망자는 Cloud TPU의 사용 할당을 신청할 필요가있다 "는 것이다. 할당받은 후 1TPU1 시간당 6.50 달러의 요금이된다. 표준 Tesla P100 GPU가 미국에서 1 시간 1.46 달러에 이용할 수있다. 그러나 FP16에 의한 피크 능력은 21TFLOPS 정도 다.

기계 학습에서 큰 실적을 올려왔다 Google만큼, 새로운 클라우드 TPU 서비스는 사용자가 몰리는 것이다. 장기적으로 보면, Google에게 중요한 것은 Google Cloud에 AWS와 Azure에 대한 차별화 요소를 제공하는데있다. 클라우드 서비스도 기본적인 부분에서는 아무도 거의 일률적이다. 컨테이너 기술 덕분에 플랫폼을 옮겨도 매우 간단 해졌다. 그런 점에서 TensorFlow 및 사용자 정의 TPU는 Google 고유의 것이다. 적어도 당분간 기계 학습 분야에서 경쟁은 당해 낼 도리가 없을 것이다.