Thứ gì đã truyền sức mạnh cho AI của Facebook, Google, giúp máy tính mô phỏng được não người?

17/04/2016 13:09 PM | Công nghệ

AlphaGo, cỗ máy trí tuệ nhân tạo vừa đánh bại Lee Sedol, sử dụng tới 280 GPU để tính toán các nước đi cho mình, vậy tại sao các chip đồ họa lại quan trọng như vậy với thuật toán của trí tuệ nhân tạo như vậy.

Google và Facebook đều mã nguồn mở những thiết kế về phần cứng điện toán để cung cấp sức mạnh cho trí tuệ nhân tạo sử dụng trong sản phẩm của họ. Các thuật toán thông minh này đem lại sức mạnh cho cỗ máy tìm kiếm của Google và chức năng đề nghị kết quả, trợ lý kỹ thuật số của Facebook Messenger, M – và tất nhiên công cụ quảng cáo nhắm mục tiêu của cả hai hãng đều phải sử dụng đến những thuật toán này.

Chiếc máy chủ mã nguồn mở của Facebook, với tên mã là Big Sur, được gắn kèm với một chip xử lý đồ họa GPU – loại card đồ họa được sử dụng trong máy tính cá nhân PC để chơi các trò chơi điện tử mới nhất với đồ họa 3D. Tương tự như vậy, AI của Google, TensorFlow cũng sử dụng những phần cứng này để cung cấp sức mạnh cho thuật toán của mình. Vậy tại sao điện toán trí tuệ nhân tạo lại được chạy trên các chíp xử lý đồ họa thay vì các bộ xử lý thông thường trên máy tính?

Ban đầu các GPU được thiết kế như một bộ đồng xử lý hoạt động bên cạnh bộ xử lý trung tâm của máy tính (các CPU) để giảm tải cho nhu cầu tính toán các tác vụ đồ họa. Trong đó, kiết xuất (render) các khung cảnh đồ họa 3D được xem như tác vụ song song khó nhất. Do không có kết nối nào và sự phụ thuộc lẫn nhau nào giữa hai khu vực khác nhau của một hình ảnh, tác vụ này có thể dễ dàng tách ra thành các tác vụ riêng biệt, để xử lý song song đồng thời tại cùng một thời điểm, vì vậy tác vụ sẽ được hoàn thành nhanh chóng hơn hẳn.

Cũng chính khả năng xử lý song song này đã dẫn các nhà sản xuất GPU sử dụng phần cứng của họ đến một mục đích khác. Bằng cách tối ưu hóa chúng để chúng có thể đạt được công suất tính toán cực đại, chỉ trong những tác vụ song song quan trọng, GPU giờ có thể biến thành các bộ xử lý chuyên dụng, để chạy bất cứ câu lệnh song song nào, không chỉ các tác vụ đồ họa. Mặt khác, CPU được tối ưu để chạy nhanh hơn khi xử lý các tác vụ đơn luồng (single thread), bởi vì phần lớn các phần mềm thông thường vẫn là xử lý đơn luồng.

Trái ngược với các CPU khi có một, hai, bốn và tám nhân xử lý, các GPU hiện đại có đến hàng ngàn nhân: ví dụ card đồ họa NVIDIA Tesla M40 sử dụng trong các máy chủ của Facebook có 3.072 các nhân CUDA. Tuy nhiên, khả năng tính toán song song khổng lồ này cũng có giá của nó: phần mềm phải được viết riêng biệt để tận dụng lợi thế của nó, trong khi các GPU vốn khó để lập trình.

Điều gì khiến GPU phù hợp với AI

Một trong những nguyên nhân khiến GPU nổi lên như sự lựa chọn thích hợp cho phần cứng siêu máy tính đến từ những vấn đề tính toán đòi hỏi khắt khe nhất, vốn rất phù hợp để thực hiện song song.

Một ví dụ hàng đầu cho trường hợp này là học sâu, một trong những bước tiến hàng đầu của AI. Cách tiếp cận đầy sức mạnh này được củng cố bằng ý tưởng về mạng lưới thần kinh – một mạng lưới rộng lớn của các điểm nút được kết nối chặt chẽ với nhau. Ý tưởng này đã từng thất bại vào những năm 1990. Nhưng giờ, công nghệ đã cho phép chúng ta xây dựng được các mạng lưới thần kinh rộng hơn, sâu hơn, để cách tiếp cận này cải thiện kết quả tính toán một cách căn bản. Các mạng lưới thần kinh này cung cấp sức mạnh cho phần mềm nhận dạng giọng nói, dịch ngôn ngữ, và là phương tiện tìm kiếm ngữ nghĩa mà Google, Facebook và nhiều ứng dụng khác sử dụng hàng ngày.

Đào tạo một mạng lưới thần kinh để nó có thể “học” các công việc tương tự như việc thiết lập kết nối giữa các nơron và củng cố các kết nối đó trong bộ não. Về mặt điện toán, quá trình học này có thể được thực hiện song song, vì vậy nó có thể được tăng tốc bằng phần cứng với GPU.

Ngoài ra, các thuật toán học máy đòi hỏi các ví dụ để học từ đó, vì vậy nó cũng thích hợp để tăng tốc bằng cách sử dụng xử lý song song. Với các công cụ học máy mã nguồn mở ví dụ như Thư viện mã Torch và các máy chủ sử dụng GPU, việc đào tạo một mạng lưới thần kinh sẽ được tăng tốc lên nhiều lần so hệ thống sử dụng các CPU.

Vậy GPU có phải là tương lai của điện toán

Trong nhiều thập kỷ, chúng ta đã quen với định luật Moore, theo đó, sức mạnh xử lý của máy tính sẽ tăng gấp đôi sau mỗi hai năm. Điều này đạt được phần lớn thông qua quá trình thu nhỏ đáng kể kích thước chip, dẫn đến giảm lượng nhiệt phát ra, cho phép CPU chạy nhanh hơn. Tuy nhiên, “bữa trưa miễn phí” giờ đã sắp kết thúc khi các chip bán dẫn đã được thu nhỏ gần đến những giới hạn cơ bản, và lý thuyết của miếng silicon.

Hiện giờ, con đường khả thi duy nhất để có được tốc độ nhanh hơn là nhờ vào khả năng song song hóa lớn hơn. Ví dụ như sự nổi lên của các CPU nhiều nhân trong 10 năm gần đây. Tuy nhiên, các GPU đã bắt đầu điều này từ lâu.

Siêu máy tính Titan tại Phòng thí nghiệm Quốc gia Oak Ridge của Mỹ.

Bên cạnh AI, các GPU cũng được sử dụng để mô phỏng dòng chảy và khí động lực học, các động cơ vật lý và mô phỏng não bộ, và nhiều ứng dụng khác nữa. Một số máy tính mạnh nhất thế giới, ví dụ siêu máy tính Titan tại Phòng thí nghiệm Quốc gia Oak Ridge, hiện là siêu máy tính nhanh thứ hai thế giới, được xây dựng trên các bộ gia tốc bằng GPU của NVIDIA.

Trong khi đó, siêu máy tính nhất thế giới, Tianhe-2 sử dụng các bộ đồng xử lý song song của Intel Xeon Phi. Tuy nhiên, không phải mọi vấn đề đều có thể được giải quyết dễ dàng bằng tính toán song song, việc lập trình trong các môi trường này là một trong những khó khăn đó.

Người ta cho rằng, tương lai của điện toán, ít nhất của AI, sẽ ngày càng thuộc về các máy tính mô phỏng hoạt động của hệ thống thần kinh. Chip TrueNorth của IBM là một bộ xử lý như vậy, ngoài ra còn một chip khác đang trong quá trình phát triển của dự án trị giá 1 tỷ Euro, Human Brain Project.

Trong mô hình mẫu này, thay vì mô phỏng mạng lưới thần kinh với một mạng lưới nhiều bộ xử lý, con chip chính là một mạng lưới thần kinh. Mỗi bóng bán dẫn silicon riêng biệt trên con chip tạo thành một bản mạch, xử lý và giao tiếp thông qua các tín hiệu điện, không khác mấy so với các nơron trong bộ não sinh học.

Chip TrueNorth của IBM - 5,4 tỷ bóng bán dẫn trên một chiếc tem bưu điện.

Những người đề xuất các hệ thống này cho rằng chúng sẽ giúp chúng ta mở rộng quy mô của mạng lưới thần kinh đến quy mô và sự phức tạp của bộ não người, mang AI đến điểm mốc có thể cạnh tranh với trí tuệ con người. Nhưng những người khác, phần lớn là các nhà nghiên cứu về não bộ, lại thận trọng hơn. Họ cho rằng bộ não con người có nhiều thứ hơn chỉ là số lượng và mật độ của các nơron.

Dù sao đi nữa, dường như những gì chúng ta biết về bộ não sẽ được áp dụng trên các siêu máy tính, để thiết kế nhằm bắt chước cách nó hoạt động.

Cùng chuyên mục
XEM