AI Hardware: GPUs, TPUs and Beyond
カートのアイテムが多すぎます
ご購入は五十タイトルがカートに入っている場合のみです。
カートに追加できませんでした。
しばらく経ってから再度お試しください。
ウィッシュリストに追加できませんでした。
しばらく経ってから再度お試しください。
ほしい物リストの削除に失敗しました。
しばらく経ってから再度お試しください。
ポッドキャストのフォローに失敗しました
ポッドキャストのフォロー解除に失敗しました
-
ナレーター:
-
著者:
概要
This episode is all about the specialized hardware that makes modern AI possible. We explain how GPUs became the workhorses of deep learning by offering massive parallelism for matrix math, and how companies like Google went further to build TPUs (Tensor Processing Units) optimized for neural network workloads. You’ll hear about the latest AI chips, from NVIDIA’s powerful GPUs driving large model training, to emerging AI accelerators like Graphcore’s IPU, Cerebras’s wafer-scale engine, and even AI on the edge (Apple’s neural engines, etc.). We discuss what each brings in terms of speed, memory, efficiency, and how they’re deployed, giving a peek into the data centers (and devices) where AI calculations run.
adbl_web_anon_alc_button_suppression_c
まだレビューはありません