Một vài ngày trước, Facebook đã chia sẻ rộng rãi thiết kế của open-sourced hardware (tạm dịch: phần cứng nguồn mở - PCNM) dành cho trí thông minh nhân tạo (AI). Đây hứa hẹn sẽ là sự khởi đầu cho những đột phá mới trong lĩnh vực tưởng như đã bị lãng quên này.


Hầu hết mọi người đều không biết một sự thật là những công ty lớn như Facebook, Google hay Amazon không mua phần cứng từ những nhà cung cấp lớn như Dell, HP hay IBM. Thay vào đó, họ tự thiết kế phần cứng cho riêng mình dựa trên các linh kiện sẵn có. Website Facebook và tất cả các ứng dụng của mạng xã hội này hiện đều được lưu trữ trong một cơ sở điện toán đám mây được tạo thành từ 10.000 máy tính do các kỹ sư phần cứng của Facebook tự thiết kế.

Theo Arstechnica, việc công bố rộng rãi thiết kế PCNM cho AI đồng nghĩa với việc các kỹ sư thuộc Phòng Thí nghiệm Trí tuệ Nhân tạo của Facebook (FAIR) đã có thể sử dụng thuật toán Deep Learning (một thuật toán xây dựng AI) để chạy các ứng dụng của Facebook. Nếu như các nhà phát triển phần mềm của Facebook đang dự định xây dựng một hệ thống deep-learning cho người dùng, thì một module phần cứng tiêu chuẩn tối ưu hóa cho deep-learning sẽ cần phải được thiết kế và triển khai. Và module này đã ra đời với tên gọi Big Sur.


Big Sur khác biệt so với những module khác ở chỗ nó tạo nên từ các GPU Nvidia Tesla M40. Mỗi một đơn vị của module này sẽ có tới 8 thanh card Nvidia Tesla M40 (ảnh trên). Mỗi thanh card Nvidia Tesla M40 có 3072 nhân và bộ nhớ 12GB. Trong những năm gần đây GPU được coi như là những "siêu máy tính của người nghèo". Với số lượng nhân dồi dào, việc xử lý những quy trình song song như giải mã mật khẩu hay machine learning (thuật ngữ dùng để chỉ một phân ngành của AI) sẽ được tăng tốc đáng kể, như mô tả trong biểu đồ benchmark dưới đây:


Về thiết kế, không có bất kỳ thành phần nào của Big Sur là đặc biệt. Ba năm trước, Facebook đã khởi động một dự án có tên Open Compute cùng với các công ty điện toán đám mây lớn khác như Microsoft. Kế hoạch là nhằm mở rộng từ việc chia sẻ phần mềm mã nguồn mở sang PCNM, để có thể tận dụng được ưu thế của các nghiên cứu khác và lợi thế kinh tế của sản xuất quy mô lớn bằng cách kết hợp đơn hàng của các công ty với nhau. Facebook đã thông báo rằng họ sẽ chia sẻ rộng rãi thiết kế của Big Sur tới các thành viên thuộc dự án Open Compute.

Cũng trong thông báo trên, Facebook cho biết: "Chúng tôi đang có một cộng đồng hỗ trợ cho phần mềm và phần cứng nguồn mở, và FAIR sẽ tiếp tục cam kết đó bằng cách công bố các mã nguồn mở và các khám phá của chúng tôi dưới dạng các văn bản học thuật miễn phí … Chúng tôi muốn khuyến khích các nhà nghiên cứu trí tuệ nhân tạo khác chia sẻ công nghệ của họ". Trong tháng vừa rồi, cả Google, Microsoft và IBM đều đã công bố những dự án nghiên cứu machine learning của mình.

Có nguồn tin cho rằng việc Facebook công bố mã nguồn mở của Big Sur là nhằm ngăn chặn sự mâu thuẫn trong liên minh hợp tác giữa Google, Facebook, và những cái tên hàng đầu khác trong lĩnh vực nghiên cứu trí tuệ nhân tạo. Những công ty này có thể sẽ đưa các tính năng machine learning vào các ứng dụng độc quyền của họ để nhằm mục đích cạnh tranh thương mại. Ví dụ như Facebook M có thể sử dụng deep-learning để trả lời các câu hỏi về nội dung của một bức ảnh, như trong video dưới đây:

Video trình diễn khả năng phân tích tuyệt vời của deep-learning

Lịch sử của deep-learning là một quá trình hợp tác lâu dài, và có vẻ theo thời gian nó sẽ vẫn như vậy. Sự tăng tốc của các nghiên cứu nhờ việc chia sẻ thông tin giữa các dự án với nhau quan trọng hơn nhiều so với những lợi ích thương mại. Mới đây OpenAI, một công ty nghiên cứu trí tuệ nhân tạo phi lợi nhuận, đã được thành lập với số vốn 1 tỷ USD tới từ một nhóm các tỷ phú của thung lũng Silicon như Elon Musk, Peter Thiel … Công ty sẽ được chèo lái bởi Ilya Sutskever, kỹ sư của Google Brain. Mục tiêu của OpenAI là nâng cấp trí thông minh nhân tạo theo cách có lợi nhất cho loài người. OpenAI sẽ mang một cách tiếp cận mới tới trí tuệ nhân tạo bằng cách chia sẻ những tập dữ liệu huấn luyện (training data set), những nguyên liệu thô cần thiết để tạo ra trí thông minh nhân tạo.

Sự quan tâm tới lĩnh vực deep-learning đang tăng nhanh chóng, mặc dù đây vẫn là một lĩnh vực mang tính học thuật cao. Hằng năm, một hội nghị thường niên của quỹ NIPS (một quỹ hỗ trợ các nghiên cứu trí tuệ nhân tạo) được tổ chức với các thành viên tham gia chủ yếu là các trường đại học và viện nghiên cứu. Chỉ có một số ít các công ty được tham dự như Google, Facebook, IBM … Mặc dù vậy, mới đây Giáo sư Neil Lawrence của Đại học Sheffield đã biên soạn những dữ liệu từ hội nghị NIPS gần nhất và công bố trên Facebook của mình, một động thái cho thấy cả hai lĩnh vực deep-learning và neural network đang thực sự bước vào thời kỳ bùng nổ.


Sự tăng lên về số thành viên tham dự hội nghị NIPS, số vốn đầu tư của các công ty công nghệ hàng đầu, và cả sự tăng lên của các kho phần cứng và phần mềm mã nguồn mở chính là một thước đo tốt để đánh giá sự phát triển của AI và deep-learning. Có lẽ viễn cảnh con người có thể trò chuyện với máy móc như trong bộ phim Bicentennial Man sẽ không còn quá xa vời nữa.

Anh Minh