Big Tech đang đi theo con đường của IBM thập niên 1960

(ĐTCK) Sự bùng nổ của cuộc đua giành vị thế thống trị thị trường trí tuệ nhân tạo (AI) đã thúc đẩy các tập đoàn công nghệ khổng lồ áp dụng các mô hình kinh doanh gợi nhớ đến IBM những năm 1960.

Các ông lớn công nghệ vận hành hạ tầng điện toán đám mây quy mô siêu lớn gồm Alphabet, Meta, Microsoft và Amazon đều đang ở những giai đoạn khác nhau trong việc phát triển chip AI tùy chỉnh để sử dụng trong các trung tâm dữ liệu, phục vụ dịch vụ đám mây và phần mềm. Alphabet thậm chí được cho là đang đàm phán để bán các chip vật lý mang tên TPU cho Meta, động thái có thể khiến Alphabet cạnh tranh trực tiếp với nhà sản xuất chip hàng đầu Nvidia.

Những nỗ lực đó đã khiến các nhà phân tích của Bloomberg Intelligence dự đoán thị trường chip AI tùy chỉnh sẽ tăng trưởng lên 122 tỷ USD vào năm 2033.

Việc các tập đoàn công nghệ lớn tự sản xuất linh kiện không chỉ dừng ở chip. Theo nhà phân tích Jonathan Atkin của RBC Capital Markets, Microsoft và Amazon đang đầu tư vào “dark fiber” – các tuyến cáp quang đã được lắp đặt dưới lòng đất nhưng chưa được sử dụng. Ông cho biết Google và Meta cũng sở hữu hệ thống cáp riêng, nhưng vẫn mua thêm từ các bên thứ ba. Những tuyến cáp này đóng vai trò quan trọng trong việc kết nối các trung tâm dữ liệu với doanh nghiệp sử dụng dịch vụ của họ.

Xu hướng các nhà cung cấp dịch vụ đám mây tự phát triển linh kiện (phần cứng) để vận hành các sản phẩm cốt lõi (phần mềm) cho thấy Thung lũng Silicon đang quay trở lại mô hình tích hợp theo chiều dọc – cách vận hành từng được các ông lớn trong ngành dầu mỏ và thép tiên phong vào cuối thế kỷ 19, và sau đó được IBM áp dụng trong cuộc cách mạng kỹ thuật số.

IBM từng là một trong những công ty tích hợp theo chiều dọc thành công nhất vào những năm 1960, khi hãng tự sản xuất các linh kiện phần cứng cho dòng máy tính lớn (mainframe). Chiến lược này xuất phát từ quan điểm rằng việc tự chế tạo các bộ phận chuyên biệt sẽ giúp nâng cao chất lượng sản phẩm cuối cùng là các hệ thống mainframe, đồng thời cải thiện biên lợi nhuận, trong bối cảnh lo ngại thiếu hụt linh kiện cho các máy tính đời đầu.

Nhưng tất cả đã sụp đổ sau đó. Vào những năm 1990, chi phí sản xuất chất bán dẫn giảm cũng như sự trỗi dậy của Microsoft và Intel đã làm suy yếu lợi thế cạnh tranh từng rất vững chắc của IBM, và công ty này không còn được xem là doanh nghiệp tích hợp theo chiều dọc vào năm 2000.

Cũng giống như sự xuất hiện của máy tính đã thúc đẩy IBM hướng tới tích hợp theo chiều dọc, sự phổ biến của AI kể từ khi ChatGPT được ra mắt vào cuối năm 2022 đã đưa các ông lớn điện toán đám mây ngày nay vào một quỹ đạo tương tự. Đặc biệt, chi phí cao của chip Nvidia và sự khan hiếm nguồn cung đã thúc đẩy ông lớn công nghệ đẩy mạnh nỗ lực phát triển chip AI. Những con chip tùy chỉnh này rẻ hơn và được tối ưu hóa tốt hơn cho phần mềm của các công ty.

"Các nhà cung cấp dịch vụ điện toán đám mây quy mô lớn…nhận ra rằng có một mối nguy hiểm chiến lược nghiêm trọng khi chỉ có một nhà cung cấp duy nhất về điện toán AI…Vì vậy, giờ đây họ có một lý do chiến lược rất mạnh mẽ để tự sản xuất chip của riêng mình”, nhà phân tích Jay Goldberg của Seaport cho biết.

Meta được cho là đã bắt đầu thử nghiệm chip AI tự phát triển để huấn luyện mô hình từ năm ngoái và đã mua lại công ty khởi nghiệp chip Rivos nhằm đẩy nhanh nỗ lực phát triển chất bán dẫn tùy chỉnh. Trong khi đó, các chip TPU của Google đã đạt trình độ rất cao đến mức Anthropic, OpenAI và thậm chí cả đối thủ Meta đều ký các thỏa thuận đám mây lớn để tiếp cận công nghệ này. Sau thời gian trì hoãn kéo dài, Microsoft cũng đã ra mắt chip thế hệ mới Maia 200 vào tháng 1.

Amazon gần đây đã giới thiệu UltraServers – cụm máy chủ mới tích hợp chip AI tự phát triển Trainium thế hệ mới, bộ xử lý Graviton cùng hệ thống cáp và thiết bị mạng tùy chỉnh để kết nối các thành phần. Hiện Amazon vẫn cung cấp phần lớn năng lực tính toán AI thông qua các trung tâm dữ liệu sử dụng GPU của Nvidia, nhưng công ty đang ngày càng nhấn mạnh những lợi thế từ phần cứng do chính mình phát triển.

Paul Roberts - Giám đốc công nghệ của Amazon Web Services cho biết chip Trainium3 có thể mang lại lợi ích về giá thành/hiệu năng lên đến 60% cho khách hàng điện toán đám mây so với GPU trong các tác vụ suy luận.

Những lợi ích tiết kiệm năng lượng đó sẽ trở nên quan trọng hơn khi sự bùng nổ của các trung tâm dữ liệu AI bắt đầu chịu ảnh hưởng của các hạn chế về điện năng.

Nhưng nhà phân tích Goldberg cho rằng xu hướng tích hợp theo chiều dọc đang đạt đến "giới hạn tối đa" và không phải tất cả các ông lớn công nghệ đều sẽ thành công.

"Nếu muốn thiết kế một con chip tiên tiến, đó là một khoản chi phí khổng lồ…và chỉ có một số ít công ty có đủ khả năng chi trả”, ông cho biết.

Hạc Hiên
Theo báo chí nước ngoài

Tin liên quan

Tin cùng chuyên mục