29/11/2023 - 1720 lượt xem

Amazon công bố chip AI mới và mở rộng mối quan hệ với Nvidia

AWS đã công bố các chip mới để khách hàng xây dựng và chạy các ứng dụng trí tuệ nhân tạo, cũng như có kế hoạch cung cấp quyền truy cập vào các chip mới nhất của Nvidia.

Amazon Web Services (AWS), đơn vị đám mây của Amazon, vừa thông báo về việc phát triển các chip mới nhằm hỗ trợ khách hàng trong việc xây dựng và triển khai ứng dụng Trí tuệ Nhân tạo. Ngoài ra, AWS cũng đang lên kế hoạch cung cấp quyền truy cập vào các chip mới nhất của Nvidia.

AWS đang nỗ lực trở thành một nhà cung cấp dịch vụ đám mây với nhiều tùy chọn chi phí hiệu quả. Tuy nhiên, không chỉ giới hạn trong việc cung cấp các sản phẩm giá rẻ mang thương hiệu của Amazon mà còn mở rộng danh mục sản phẩm bao gồm các sản phẩm hàng đầu đến từ nhiều nhà cung cấp khác nhau. Trong số đó, có cả các GPU được đánh giá cao từ Nvidia, một trong những nhà sản xuất chip Trí tuệ Nhân tạo hàng đầu.

Nhu cầu về GPU Nvidia đã đột ngột tăng lên kể từ khi công ty khởi nghiệp OpenAI ra mắt chatbot ChatGPT vào năm trước. Chatbot này đã khiến cộng đồng người dùng ngạc nhiên với khả năng tóm tắt thông tin và sáng tạo văn bản với độ tự nhiên gần như con người. Điều này đã dẫn đến tình trạng thiếu hụt chip Nvidia, đặc biệt là khi các công ty đang đua nhau tích hợp các công nghệ Trí tuệ Nhân tạo tương tự vào sản phẩm của họ.

Cách tiếp cận theo 2 hướng của Amazon là vừa xây dựng chip của riêng mình vừa cho phép khách hàng truy cập vào chip mới nhất của Nvidia có thể sẽ giúp hãng này chống lại đối thủ cạnh tranh điện toán đám mây hàng đầu, Microsoft. Đầu tháng này, Microsoft đã thực hiện một cách tiếp cận tương tự bằng cách tiết lộ chip AI đầu tiên của mình, Maia 100, đồng thời cho biết đám mây Azure sẽ có GPU Nvidia H200.

Thông báo này được công bố tại hội nghị Reinvent diễn ra tại Las Vegas vào ngày thứ Ba. Cụ thể, Amazon Web Services (AWS) thông báo rằng họ sẽ cung cấp quyền truy cập vào bộ xử lý đồ họa H200 AI mới nhất của Nvidia. Đồng thời, họ cũng tiết lộ về chip trí tuệ nhân tạo Trainium2 và bộ xử lý đa năng Graviton4.

GPU mới của Nvidia đại diện cho bản nâng cấp từ H100, con chip mà OpenAI đã sử dụng để huấn luyện mô hình ngôn ngữ tiên tiến nhất của họ, GPT-4. Các công ty lớn, công ty khởi nghiệp và cơ quan chính phủ đều đang cạnh tranh để có được nguồn cung chip hạn chế, đồng nghĩa với việc nhu cầu thuê chúng từ các nhà cung cấp đám mây như Amazon cũng rất cao. Nvidia cho biết H200 sẽ tạo ra sản lượng nhanh gần gấp đôi so với H100.

Các chip Trainium2 của Amazon được thiết kế để đào tạo các mô hình AI, bao gồm cả loại mà các chatbot AI như ChatGPT của OpenAI và các đối thủ cạnh tranh của nó đang chạy. Amazon cho biết Startup Databricks và Anthropic do Amazon hậu thuẫn, một đối thủ cạnh tranh của OpenAI, có kế hoạch xây dựng các mô hình với chip Trainium2 mới, sẽ có hiệu suất tốt hơn bốn lần so với mô hình ban đầu.​

Không bỏ lỡ bài viết hay mỗi tuần!

Để lại thông tin, Tạp chí Trading sẽ cập nhật cho bạn các bài viết tương tự nhanh nhất qua email!

Website được phát triển bởi CÔNG TY TNHH MTV PIPSCOLLECTOR và là chuyên trang phi lợi nhuận dành cho mọi nhà đầu tư Việt.

© 2023, All rights reserved.

Địa chỉ: Văn phòng 2, Tầng 8, Tòa nhà Pearl Plaza, 561A Điện Biên Phủ, Phường 25, Quận Bình Thạnh, TP Hồ Chí Minh, Việt Nam

Follow Us

Email:tapchitrading.app@gmail.com

Được bảo trợ bởi:

Example Image
DMCA.com Protection Status