Cuộc chạy đua về chip cho trí tuệ nhân tạo

Intel, Nvidia và các doanh nghiệp khởi nghiệp khác đang phát triển những chip mới để giúp các hệ thống machine learning chạy nhanh hơn, mạnh hơn.
  • Trí tu? nhân t?o có thay th? ???c con ng??i?
  • Google và ??i quân trí tu? nhân t?o
  • Trí tu? nhân t?o c?a Google ?ánh b?i c?u vô ??ch c? vây th? gi?i
  • ‘Siri Nga’ ???c coi là trí tu? nhân t?o t?t nh?t
Cu?c ch?y ?ua v? chip cho trí tu? nhân t?o 1
GPU Nvidia Tesla P100 ???c thi?t k? cho các ?ng d?ng data center hi?u n?ng cao và trí tu? nhân t?o.

Trong vài n?m g?n ?ây, nh?ng k? thu?t ti?n b? v? h?c máy ( machine learning ) ?ã giúp máy tính có th? nh?n bi?t ???c v?t th? trong ?nh ch?p, hi?u ???c câu l?nh t? ngôn ng? con ng??i và d?ch ngôn ng? vi?t khá chính xác.

Nh?ng trong khi các s?n ph?m tiêu dùng nh? Siri c?a Apple hay Google Translate có th? ho?t ??ng ???c theo th?i gian th?c thì vi?c th?c s? t?o nh?ng mô hình toán h?c ph?c t?p cho các công c? này v?n hành tr?n tru l?i m?i ch? d?a vào ki?n trúc máy tính truy?n th?ng, c?n r?t nhi?u th?i gian, tài nguyên x? lý và ?i?n n?ng. K?t qu? là các nhà s?n xu?t chip nh? Intel , hãng s?n xu?t ?? ho? Nvidia và hãng chip di ??ng Qualcomm , cùng m?t s? doanh nghi?p kh?i nghi?p khác ?ang ch?y ?ua phát tri?n ph?n c?ng chuyên cho các h? th?ng h?c sâu (deep learning) nh?m gi?m chi phí cho các n?n t?ng trí tu? nhân t?o , ??ng th?i giúp chúng v?n hành nhanh và hi?u qu? h?n.

Theo các nhà nghiên c?u AI, t?m quan tr?ng c?a nh?ng chip nh? v?y ?? phát tri?n và ?ào t?o nh?ng thu?t toán AI m?i cho th?y chúng c?n ph?i ???c nhanh chóng phát tri?n. CEO c?a Nvidia, Jen-Hsun Huang, cho bi?t h?i tháng 11 v?a qua r?ng: "Thay vì ph?i m?t nhi?u tháng tr?i, h? th?ng AI ch? c?n m?t vài ngày”.

Trong khi nh?c ??n Nvidia, chúng ta th??ng ngh? ??n card màn hình, giúp game th? ch?i game b?n súng góc nhìn th? nh?t m??t mà h?n, có th? ch?y ? ?? phân gi?i màn hình cao nh?t. Nh?ng không ch? có v?y, Nvidia c?ng ?ang t?p trung vào nghiên c?u, ??a chip x? lý ?? ho? GPU c?a h? vào ?? ch?y các tính toán khoa h?c và x? lý d? li?u l?n trong các trung tâm d? li?u.

Ian Buck, phó ch? t?ch và giám ??c m?ng ?i?n toán c?a Nvidia, cho bi?t: “Trong vòng 10 n?m qua, chúng tôi ?ã mang công ngh? GPU ra ngoài l?nh v?c ?? ho?, ??a nó ph?c v? cho nhi?u ?ng d?ng h?n”.

D?ng hình video game và d?ng ?nh theo th?i gian th?c d?a trên GPU là nh?ng tác v? liên quan ??n tính toán các ph??ng trình toán h?c, nh? nhân h? s? ma tr?n, x? lý các tính toán c? b?n nh?ng v?i s? l??ng l?n song song nhau. Các nhà nghiên c?u ?ã tìm th?y ???c nh?ng ??c ?i?m t??ng ??ng nh? v?y không nh?ng trong d?ng hình truy?n th?ng, mà còn có th? áp d?ng cho nh?ng ?ng d?ng khác, trong ?ó có ch?y gi? l?p th?i ti?t và l?p mô hình các c?u trúc t? bào sinh h?c ph?c t?p.

Và sau này, GPU ?ã thích ?ng ???c v?i các h? th?ng m?ng th?n kinh (neutral network) cho AI, các ki?n trúc toán h?c ???c gi? l?p theo mô hình c?a não b? con ng??i ?? ch?y marchine learning . Vì ?? ch?y machine learning, các nhà nghiên c?u c?ng d?a r?t nhi?u vào kh? n?ng tính toán ma tr?n song song, l?p ?i l?p l?i nhi?u l?n.

Nh?ng t??ng ??ng gi?a tính toán x? lý d?ng hình ?? ho? và tính toán toán h?c, AI ?ã giúp Nvidia có ???c l?i th? không nh? trong th? tr??ng này. Hãng cho bi?t doanh thu v? trung tâm d? li?u (data center) t?ng g?p ?ôi m?i n?m trong báo cáo tài chính quý k?t thúc ngày 21/10 v?a qua, ??t 240 tri?u USD, mà ph?n l?n nh? vào nhu c?u liên quan ??n deep learning. Các nhà s?n xu?t GPU khác c?ng r?t ph?n ch?n v? nhu c?u m?i c?a th? tr??ng, sau khi có nh?ng báo cáo doanh thu GPU trong toàn ngành công nghi?p máy tính c? gi?m d?n theo n?m vì th? tr??ng máy tính bàn vài n?m qua không m?y l?c quan. Hi?n t?i, Nvidia th?ng tr? th? tr??ng GPU v?i h?n 70% th? ph?n và giá c? phi?u c?a hãng g?n nh? t?ng g?p 3 trong n?m v?a qua vì GPU tìm ???c ?ng d?ng m?i trong l?nh v?c AI .

Card ?? ho? giúp th? gi?i AI chuy?n mình

N?m 2012, t?i cu?c thi ImageNet Large Scale Visual Recognition Challenge, l?n ??u tiên có m?t ??i tham gia ?ã s? d?ng h? th?ng deep learning d?a trên GPU ?? v?n hành l?n, và nhóm này th?ng gi?i, v??t qua các ??i th? t?ng ?o?t gi?i n?m tr??c ?ó. Buck cho bi?t: “H? ??y ???c ?? chính xác c?a thu?t toán t? 70% lên 85%”.

GPU tr? thành thành ph?n “chu?n” trong các trung tâm d? li?u c?a nhi?u doanh nghi?p làm machine learning. Nvidia cho bi?t GPU c?a h? ???c dùng trong các d?ch v? machine learning trên ?i?n toán ?ám mây mà Amazon và Microsoft cung c?p. Nh?ng Nvidia và các công ty khác v?n nghiên c?u th? h? chip m?i ?? có th? ?ào t?o ???c các h? th?ng deep learning và s? d?ng chúng ?? x? lý thông tin hi?u qu? h?n n?a.

Quan tr?ng là các thi?t k? GPU hi?n th?i có thi?t k? h??ng x? lý ?? ho? nhi?u h?n, không chuyên cho AI. Nigel Toon, CEO c?a Graphcore, công ty kh?i nghi?p v? machine learning t?i Bristol, Anh Qu?c cho bi?t nh?ng h?n ch? c?a GPU ?ã khi?n các nhà l?p trình ph?i c?u trúc d? li?u theo cách riêng ?? có th? t?n d?ng ???c n?ng l?c x? lý c?a GPU, nên r?t khó ?ng d?ng ki?n trúc GPU truy?n th?ng ?? l?p trình cho h? th?ng x? lý nh?ng d? li?u ph?c t?p nh? nh?n di?n v?t th? trong video, hay nh?n bi?t âm thanh. Graphcore ?ang phát tri?n chip g?i là "Intelligent processing units”, mà Toon cho bi?t công ty ông phát tri?n t? ??u, v?i m?c tiêu thi?t k? s?n ph?m là h??ng ??n deep learning.

Các nhà s?n xu?t chip khác cho bi?t machine learning s? t?n d?ng ???c r?t nhi?u n?ng l?c tính toán n?u ch?y v?i b? x? lý ???c thi?t k? riêng, v?i t?c ?? k?t n?i nhanh gi?a các nhân tính toán song song, truy c?p nhanh ??n b? nh? ch?a các mô hình và d? li?u ph?c t?p, ??ng th?i các x? lý tính toán toán h?c ???c t?i ?u v? t?c ?? h?n so v?i v? tính chính xác nh? c?a GPU truy?n th?ng. Google h?i tháng 5/2016 cho bi?t h? th?ng AlphaGo t?ng ?ánh b?i ki?n t??ng c? vây Lee Sedol h?i ??u n?m 2016, s? d?ng chip tu? bi?n riêng c?a Google mà h? g?i là “Tensor processing units”. Và tháng 11/2016, Intel c?ng cho bi?t h? d? ki?n s? tung ra chip không ch?y GPU trong vòng 3 n?m t?i, ph?n l?n chip này d?a trên công ngh? c?a Nervana, có th? ?ào t?o các mô hình machine learning nhanh h?n 100 l?n so v?i GPU hi?n th?i, và có kh? n?ng ch?y v?i nh?ng thu?t toán m?i, ph?c t?p h?n.

TrueNorth - chip mô ph?ng não c?a IBM

M?t s? công ty công ngh? l?n nh? Google và Intel ?ã t?p trung không ít ngu?n l?c ?áng k? nh?m t?o ra chip máy tính chuyên bi?t h?n dành cho Deep Learning. Tuy nhiên, IBM ?ã ti?p c?n theo cách khác th??ng: th? nghi?m TrueNorth, chip l?y c?m h?ng phát tri?n d?a trên não ng??i, v?n hành nh? m?t n?n t?ng ph?n c?ng dành cho Deep Learning.

Cu?c ch?y ?ua v? chip cho trí tu? nhân t?o 2

Kh? n?ng h?c sâu m?nh d?a trên thu?t toán g?i là Convolution Neuron Networks (m?ng n?-ron k?t h?p) bao g?m các l?p nút (node) máy tính (còn ???c g?i là neuron - t? bào th?n kinh). Nh?ng m?ng n?-ron nh? v?y có th? l?c m?t l??ng l?n d? li?u thông qua các l?p tính toán "sâu" ?? x? lý t?t h?n, ch?ng h?n, vi?c t? ??ng nh?n di?n m?t t?ng ng??i ho?c hi?u các ngôn ng? khác nhau. ?ây là nh?ng n?ng l?c công ngh? ?ã t?o ra s?c m?nh cho nh?ng d?ch v? tr?c tuy?n c?a Google, Facebook, Amazon, và Microsoft.

Khi ch? dùng m?t TrueNorth chip, k?t qu? ??t ???c v??t qua ?? chính xác c?a m?t trong tám b? d? li?u ??nh cao. Nh?ng các nhà nghiên c?u c?a IBM ?ã có th? t?ng ?? chính xác c?a ph?n c?ng khi tính toán h?c sâu b?ng cách s? d?ng lên ??n 8 chip. ?i?u ?ó cho phép TrueNorth ??t hi?u qu? ngang hay h?n ba b? d? li?u.

Rao c?a Nervana Systems cho bi?t: “Có nhi?u gi?i pháp m?ng th?n kinh mà chúng ta th?y ??u có nh?ng h?n ch? v? thi?t k? ph?n c?ng”. Nh?ng h?n ch? này còn có th? g?m c? nh?ng r?c r?i n?i t?i v? tính ph?c t?p c?a ph?n c?ng, vì các ràng bu?c v? b? nh? và t?c ?? x? lý.

Theo Aditya Kaul, giám ??c nghiên c?u t?i công ty nghiên c?u th? tr??ng Tractica, Intel và các hãng c?nh tranh khác c?ng ?ang chu?n b? cho m?t t??ng lai các mô hình machine learning ???c ?ào t?o và ???c tri?n khai trên ph?n c?ng di ??ng, không ch? trong trung tâm d? li?u. ?i?u này r?t thi?t th?c khi ?ng d?ng cho các thi?t b? nh? xe t? lái , vì xe c?n ph?n ?ng ???c v?i nh?ng gì x?y ra xung quanh và có th? h?c bi?t nh?ng thông tin ??u vào nhanh h?n so v?i ch? d?a trên lu?ng d? li?u l?y t? ?i?n toán ?ám mây có ?? tr?. 

Cu?c ch?y ?ua v? chip cho trí tu? nhân t?o 3
H? th?ng machine learning AlphaGo c?a Google ?ánh b?i ki?n t??ng c? vây h?i ??u n?m ngoái.

Còn Jack Dashwood, giám ??c truy?n thông c?a công ty kh?i nghi?p machine learning Movidius, cho bi?t: "D?n d?n, b?n s? th?y s? chuy?n d?ch t? ?i?n toán ?ám mây ??n thi?t b? ??u cu?i”. ?i?u này ngh?a là th? tr??ng s? có nhu c?u v? các máy tính nh?, g?n, ti?t ki?m ?i?n n?ng ???c t?i ?u cho machine learning, nh?t là các thi?t b? di ??ng. "Khi b?n ?eo tai nghe vào, b?n không mu?n mang theo m?t th? gì khác nh? pin cho tai nghe ? th?t l?ng n?a. Movidius b? Intel mua l?i h?i tháng 9/2016, chuyên cung c?p b? x? lý t?p trung x? lý hình ?nh máy tính cho các thi?t b?, trong ?ó có drone do nhà s?n xu?t Trung Qu?c DJI s? d?ng.

C?ng v?y, Nvidia ti?p t?c tung ra GPU t?ng c??ng h? tr? cho machine learning v?i nh?ng tính n?ng thân thi?n nh? tính toán nhanh, không ?òi h?i phép toàn chính xác, và các n?n t?ng AI cho các ?ng d?ng th? h? m?i nh? xe t? lái. Nhà s?n xu?t xe ?i?n Tesla Motors h?i tháng 10/2016 c?ng t?ng công b? các m?u xe c?a h? s?n xu?t ??u ???c trang b? h? th?ng ?i?n toán cho xe t? hành, s? d?ng ph?n c?ng Nvidia h? tr? m?ng th?n kinh ?? x? lý d? li?u ??u vào t? camera và radar. Nvidia c?ng m?i công b? các k? ho?ch cung c?p ph?n c?ng cho Vi?n Nghiên c?u ung th? M? (NCI) và B? N?ng l??ng M? qua d? án mang tên Cancer Moonshot. 

Tensor Processing Unit c?a Google

Không ph?i CPU, GPU hay FPGA, mà là TPU. Google v?a cho bi?t b? x? lý Tensor Processing Unit c?a h? có tính n?ng machine learning cao c?p, v?i s?c m?nh k?t h?p c?a ba th? h? tr??c g?p l?i.

TPU là chip x? lý ???c Google phát tri?n và ??a vào máy tính AlphaGo - h? th?ng trí tu? nhân t?o ?ã ?ánh b?i ki?n t??ng c? vây Lee Sedol h?i ??u n?m nay.

Theo Google, TPU có trong các trung tâm d? li?u t? h?n m?t n?m nay, và chúng có t?c ?? x? lý t?i ?u t?t h?n cho machine learning (h?c máy). ?i?u này giúp thúc ??y ngành công nghi?p máy tính ti?n b? nhanh h?n kho?ng 7 n?m (t??ng ???ng v?i 3 th? h? c?a ??nh lu?t Moore). TPU ???c ch?nh s?a chuyên cho các ?ng d?ng machine learning, không thiên nhi?u v? tính chính xác trong tính toán, ngh?a là chip c?n ít transistor h?n cho m?i tác v?. Do v?y, chip có th? th?c hi?n ???c nhi?u tác v? h?n cùng lúc, là mô hình thích h?p cho machine learning và nh?ng mô hình nh? v?y s? cho k?t qu? nhanh chóng, chính xác.

Cu?c ch?y ?ua v? chip cho trí tu? nhân t?o 4

TPU r?t nh?, có th? g?n vào khe c?m ? c?ng trong các rack trung tâm d? li?u và ?ã ???c RankBrain và Street View s? d?ng.

Các nhà công nghi?p cho r?ng TPU ra ??i không khi?n Google lo?i b? CPU và GPU ?i ???c, và TPU có th? s? là m?t hình th?c chip m?i, ???c ?ng d?ng trong các thu?t toán v? machine learning mà thôi, thay cho GPU và CPU ng?n quá nhi?u tài nguyên h? th?ng.

 Google kh?ng ??nh là kh? n?ng x? lý c?a TPU ??y nhanh ??nh lu?t Moore lên ??n 7 n?m. Các nhà phân tích không nghi ng? kh?ng ??nh này.

 

PC World VN 01/2017

 

Nguồn tin: www.pcworld.com.vn