Тензорный процессор Google

Из Википедии, бесплатной энциклопедии

Тензорный процессор Google
Tensor Processing Unit 3.0
Tensor Processing Unit 3.0
Логотип Викисклада Медиафайлы на Викискладе

Тензорный процессор Google (англ. Google Tensor Processing Unit, Google TPU) — тензорный процессор, относящийся к классу нейронных процессоров, являющийся специализированной интегральной схемой, разработанной корпорацией Google и предназначенной для использования с библиотекой машинного обучения TensorFlow. Представлен в 2016 году на конференции Google I/O, при этом утверждалось, что устройства к тому моменту уже использовались внутри корпорации Google более года[1][2].

По сравнению с графическими процессорами, рассчитан на более высокий объём вычислений с пониженной точностью (например, всего 8-разрядную точность[3]) при более высокой производительности на ватт и отсутствии модуля для растризации и текстурных блоков[1][2].

Утверждается, что тензорные процессоры применялись в серии игр в го программы AlphaGo против Ли Седоля[2] и в следующих подобных поединках[4]. Также корпорация применила тензорные процессоры для обработки фотографий Google Street View на предмет извлечения текста, сообщалось, что весь объём обработан менее чем за пять дней. В Google Фото один тензорный процессор может обрабатывать более 100 миллионов фотографий в день. Также устройство применяется для самообучающейся системы RankBrain, обрабатывающей отклики поисковой системы Google.

Устройство реализовано как матричный умножитель для 8-разрядных чисел, управляемый CISC-инструкциями центрального процессора по шине PCIe 3.0. Изготавливается по технологии 28 нм, тактовая частота составляет 700 МГц и имеет тепловую расчётную мощность 28—40 Вт. Оснащается 28 Мбайт встроенной оперативной памяти и 4 Мбайт 32-разрядных аккумуляторов, накапливающих результаты в массивах из 8-битных множителей, организованных в матрицу размером 256×256. Инструкции устройства передают данные на узел или получают их из него, выполняют матричные умножения или свёртки[5]. В такт может производиться 65536 умножений на каждой матрице; в секунду — до 92 трлн[6].

Характеристики разных поколений тензорных процессоров

[править | править код]
Характеристики TPU:[7][8][9]
TPU v1 TPU v2[10] TPU v3[11] TPU v4[8][12] TPU v5e[13][14] TPU v5p[15] TPU v6 (Trillium)[16]
Дата выхода 2016 2017 2018 2021 2023 конец 2023 2024
Технологический процесс 28 нм 16 нм 16 нм 7 нм
Размер чипа (мм2) 331 < 625 < 700 < 400
Встроенная память (Мб) 28 32 32 144
Тактовая частота (МГц) 700 700 940 1050
Оперативная память 8 Гб DDR3 16 Гб HBM 32 Гб HBM 32 Гб HBM 16 Гб HBM2 95 Гб HBM2
Пропускная способность памяти 34 Гб/с 600 Гб/с 900 Гб/с 1200 Гб/с
Тепловая схема питания (Вт) 75 280 220 170
TOPS (Трлн. операций в секунду) 23 45 123 275 197 459
TOPS/Вт 0.31 0.16 0.56 1.62

Примечания

[править | править код]
  1. 1 2 "Google's Tensor Processing Unit explained: this is what the future of computing looks like". TechRadar (англ.). Архивировано 26 февраля 2022. Дата обращения: 19 января 2017. {{cite news}}: Указан более чем один параметр |accessdate= and |access-date= (справка)
  2. 1 2 3 Jouppi, Norm Google supercharges machine learning tasks with TPU custom chip (англ.). Google Cloud Platform Blog. Google (18 мая 2016). Дата обращения: 22 января 2017. Архивировано 18 мая 2016 года.
  3. Armasu, Lucian Google's Big Chip Unveil For Machine Learning: Tensor Processing Unit With 10x Better Efficiency (Updated). Tom's Hardware (19 мая 2016). Дата обращения: 26 июня 2016.
  4. The Future of Go Summit, Match One: Ke Jie & AlphaGo на YouTube, начиная с 6:03:10 (23 мая 2017)
  5. Norman P. Jouppi et al. In-Datacentre Performance Analysis of a Tensor Processing Unit (англ.). Дата обращения: 24 мая 2017. Архивировано 3 июля 2017 года. (44th International Symposium on Computer Architecture (ISCA), 2017)
  6. Ian Cutress (2017-08-22). "Hot Chips: Google TPU Performance Analysis Live Blog (3pm PT, 10pm UTC)" (англ.). AnandTech. Архивировано 23 августа 2017. Дата обращения: 23 августа 2017.
  7. Jouppi, Norman P.; Yoon, Doe Hyun; Ashcraft, Matthew; Gottscho, Mark (2021-06-14). Ten lessons from three generations that shaped Google's TPUv4i (PDF). International Symposium on Computer Architecture. Valencia, Spain. doi:10.1109/ISCA52012.2021.00010. ISBN 978-1-4503-9086-6. Архивировано (PDF) 9 июня 2021. Дата обращения: 12 марта 2023. {{cite conference}}: Неизвестный параметр |deadlink= игнорируется (|url-status= предлагается) (справка)
  8. 1 2 System Architecture | Cloud TPU (англ.). Google Cloud. Дата обращения: 11 декабря 2022. Архивировано 11 декабря 2022 года.
  9. Kennedy, Patrick (2017-08-22). "Case Study on the Google TPU and GDDR5 from Hot Chips 29". Serve The Home. Архивировано 23 ноября 2021. Дата обращения: 23 августа 2017.
  10. Блок Google TPU второго поколения в задачах машинного обучения демонстрирует производительность выше, чем у GPU Nvidia GV100 (рус.). iXBT.com (19 мая 2017). Дата обращения: 3 октября 2023. Архивировано 2 октября 2022 года.
  11. Google представила TPU 3.0 — тензорные процессоры третьего поколения (рус.). Overclockers.ru (9 мая 2018). Дата обращения: 3 октября 2023. Архивировано 3 ноября 2023 года.
  12. Stay tuned, more information on TPU v4 is coming soon Архивная копия от 12 марта 2023 на Wayback Machine, retrieved 2020-08-06.
  13. Google Cloud анонсировала новое поколение собственных ИИ-ускорителей TPU v5e (рус.). ServerNews.ru (30 августа 2023). Дата обращения: 3 октября 2023. Архивировано 20 сентября 2023 года.
  14. Expanding our AI-optimized infrastructure portfolio: Introducing Cloud TPU v5e and announcing A3 GA (англ.). Google Cloud (29 августа 2023). Дата обращения: 3 октября 2023. Архивировано 20 сентября 2023 года.
  15. Google представила Cloud TPU v5p — свой самый мощный ИИ-ускоритель (рус.). ServerNews.ru (7 декабря 2023). Дата обращения: 7 октября 2024.
  16. Шестое поколение ускорителей Google TPU v6 готово к обучению ИИ-моделей следующего поколения (рус.). ServerNews.ru (16 мая 2024). Дата обращения: 7 октября 2024.