Theo báo cáo của Financial Associated Press vào ngày 19 tháng 7, sau nửa năm, Meta AI đã phát hành thế hệ mô hình lớn mã nguồn mở mới nhất Llama 2 vào thứ Ba. So với Llama 1 được phát hành vào tháng 2 năm nay, mã thông báo dùng để đào tạo đã tăng gấp đôi lên 2 nghìn tỷ đồng, đồng thời Llama 2 cũng đã tăng gấp đôi giới hạn độ dài ngữ cảnh quan trọng nhất khi sử dụng các mô hình lớn. Llama 2 bao gồm các mô hình có thông số 7 tỷ, 13 tỷ và 70 tỷ.
Meta cũng đã thông báo vào thứ Ba rằng họ sẽ hợp tác với dịch vụ đám mây Azure của Microsoft để ra mắt dịch vụ đám mây dựa trên mô hình Llama 2 cho các nhà phát triển trên toàn thế giới. Ngoài ra, Meta cũng đã thông báo với Qualcomm rằng Llama 2 sẽ có thể chạy trên chip Qualcomm, phá vỡ thế độc quyền của bộ xử lý Nvidia và AMD về ngành AI trên thị trường.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Meta ra mắt mẫu Llama 2, hợp tác với Microsoft và Qualcomm
Theo báo cáo của Financial Associated Press vào ngày 19 tháng 7, sau nửa năm, Meta AI đã phát hành thế hệ mô hình lớn mã nguồn mở mới nhất Llama 2 vào thứ Ba. So với Llama 1 được phát hành vào tháng 2 năm nay, mã thông báo dùng để đào tạo đã tăng gấp đôi lên 2 nghìn tỷ đồng, đồng thời Llama 2 cũng đã tăng gấp đôi giới hạn độ dài ngữ cảnh quan trọng nhất khi sử dụng các mô hình lớn. Llama 2 bao gồm các mô hình có thông số 7 tỷ, 13 tỷ và 70 tỷ.
Meta cũng đã thông báo vào thứ Ba rằng họ sẽ hợp tác với dịch vụ đám mây Azure của Microsoft để ra mắt dịch vụ đám mây dựa trên mô hình Llama 2 cho các nhà phát triển trên toàn thế giới. Ngoài ra, Meta cũng đã thông báo với Qualcomm rằng Llama 2 sẽ có thể chạy trên chip Qualcomm, phá vỡ thế độc quyền của bộ xử lý Nvidia và AMD về ngành AI trên thị trường.