Googleの新しいAIマイクロチップはビットコインマイナーの手法を踏襲している Googleの新しいAIマイクロチップはビットコインマイナーの手法を踏襲している

Googleの新しいAIマイクロチップはビットコインマイナーの手法を踏襲している

Googleの新しいAIマイクロチップはビットコインマイナーの技術を模倣している

昨日開催されたGoogle I/O開発者会議において、CEOのサンダー・ピチャイ氏は、機械学習と人工知能(AI)におけるGoogleの優位性を支えるカスタムメイドのチップについて簡潔に説明しました。TPU(Tensor Processing Unit、GoogleのAIプラットフォームTensorFlowにちなみ)と呼ばれるこのチップは、Googleの意思決定アルゴリズムを実行するために特別に設計されています。FacebookやMicrosoftといった多くの企業は、機械学習と人工知能(AI)にGPUを使用しています。

しかし、ピチャイ氏の講演と付随するブログ投稿では、TPUに関する詳細はごくわずかしか明らかにされていません。このチップについて私たちが知っている唯一の有用な情報は、それがASIC(特定用途向け集積回路)であるということです。ASICチップは市販されているものではなく、多くの電力を消費することなく、特定のタスクを非常に効率的に実行するように特別に設計されています。スマートフォンのバッテリー充電制御など、変化のないアプリケーションで使用されています。

ASIC設計者は、必要な計算の種類に合わせてチップのトランジスタのサイズと配置をカスタマイズします。TPUに関するブログ記事を執筆したGoogleのハードウェアエンジニア、ノーム・ジョッピ氏は、機械学習ではそれほど精密な計算を必要としないため、このチップは1回の演算あたりのトランジスタ数が少なくなるように設計されていると述べています。

ピチャイの重要な統計はワット当たりの性能であり、GoogleはTPUが「桁違いに」優れていると言っている。

TPUチップは単に速度がわずかに速いだけで、消費電力が大幅に少ない可能性も十分にあります。ASICチップは非常に電力効率が高く、これがビットコインマイニングにおいて近年ASICチップへの関心が高まっている主な理由の一つです。マイニングは機械学習と同様に、大量の計算を高速に実行するコンピューターを必要とし、一般的にGPUに依存してきました。

ビットコインの世界では、ASICベースのマイニングリグはGPUベースのリグと同じ処理を実行しながら、消費電力を20倍も抑えることができます。これは、このビットコインフォーラムで詳しく説明されています。この例では、AMD R9 290グラフィックカード6枚(平均250ワットの電力を消費し、コンピュータコンポーネントも含む)と、DualMiner ASICカード78枚(USB電源で2.5ワットの電力を消費)が並列接続されています。どちらの構成も同じ計算(5.4 Mh/s)を実行できると定格されていますが、GPUベースのリグは控えめに見積もっても1500ワット以上を消費するのに対し、ASICリグは200ワット未満しか消費しません。

基本的に、統計は誤解を招く可能性があり、TPU に関する客観的なベンチマークを見なければ、これらの主張には懐疑的になる必要があるということが重要です。

ASICチップは1960年代から製造されていますが、いくつかの欠点も指摘されています。例えば、ASICチップは特定のコードを非常に特殊な方法で実行するように設計されているためです。Googleの機械学習アーキテクチャが変更された場合、TPUは役に立たなくなる可能性があります。Googleはあらゆる用途にTensorflowプラットフォームを使用しているため、その可能性は低いですが、可能性は依然として残っています。

ウォール・ストリート・ジャーナルは、 Google がストリートビューの標識の読み取り速度を向上させるために 2015 年 4 月から TPU を使用していると報じており、ピチャイ氏はスピーチの中で、TPU が Google のクラウド マシン ラーニング プラットフォームで使用されていることに言及しました。

Googleは、現時点ではTPUチップに関する詳しい情報は提供していないとしている。