Theo báo cáo của Nhật báo Ban Đổi mới Khoa học và Công nghệ vào ngày 7 tháng 9, He Jifeng, một học giả của Viện Hàn lâm Khoa học Trung Quốc, cho biết tại Hội nghị Inclusion Bund 2023 rằng vấn đề bảo mật chính của các mô hình lớn trước hết là về quyền riêng tư. Một lượng lớn thông tin và dữ liệu cá nhân của người dùng tham gia vào quá trình đào tạo của các mô hình lớn. , quá trình sử dụng liên quan đến rất nhiều thông tin cá nhân của người dùng, không nhận được sự bảo vệ quyền riêng tư thích đáng. Khả năng tạo ra khiến các cách rò rỉ quyền riêng tư trở nên đa dạng, khiến việc bảo vệ quyền riêng tư trở nên khó khăn hơn. Thứ hai, về mặt căn chỉnh, các giá trị của hệ thống cần phải phù hợp với giá trị con người sao cho phù hợp với lợi ích, nguyên tắc của người thiết kế và không tạo ra những kết quả có hại ngoài ý muốn. Nhưng các giá trị con người rất đa dạng và năng động, đồng thời sự “hữu ích” và “vô hại” của các mô hình lớn xung đột nhau, khiến sự liên kết trở thành một vấn đề nghiên cứu liên ngành phức tạp. Hiện tại, học tăng cường phản hồi là một phương pháp kỹ thuật để đạt được sự liên kết. Nó hướng dẫn mô hình tạo ra đầu ra chất lượng cao bằng cách phản hồi các tín hiệu khen thưởng khác nhau cho mô hình. Dựa trên việc cung cấp các nguyên tắc rõ ràng cho các mô hình lớn, hệ thống sẽ tự động huấn luyện mô hình và cung cấp đầu vào ban đầu cho tất cả các kết quả đầu ra được tạo ra.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Theo báo cáo của Nhật báo Ban Đổi mới Khoa học và Công nghệ vào ngày 7 tháng 9, He Jifeng, một học giả của Viện Hàn lâm Khoa học Trung Quốc, cho biết tại Hội nghị Inclusion Bund 2023 rằng vấn đề bảo mật chính của các mô hình lớn trước hết là về quyền riêng tư. Một lượng lớn thông tin và dữ liệu cá nhân của người dùng tham gia vào quá trình đào tạo của các mô hình lớn. , quá trình sử dụng liên quan đến rất nhiều thông tin cá nhân của người dùng, không nhận được sự bảo vệ quyền riêng tư thích đáng. Khả năng tạo ra khiến các cách rò rỉ quyền riêng tư trở nên đa dạng, khiến việc bảo vệ quyền riêng tư trở nên khó khăn hơn. Thứ hai, về mặt căn chỉnh, các giá trị của hệ thống cần phải phù hợp với giá trị con người sao cho phù hợp với lợi ích, nguyên tắc của người thiết kế và không tạo ra những kết quả có hại ngoài ý muốn. Nhưng các giá trị con người rất đa dạng và năng động, đồng thời sự “hữu ích” và “vô hại” của các mô hình lớn xung đột nhau, khiến sự liên kết trở thành một vấn đề nghiên cứu liên ngành phức tạp. Hiện tại, học tăng cường phản hồi là một phương pháp kỹ thuật để đạt được sự liên kết. Nó hướng dẫn mô hình tạo ra đầu ra chất lượng cao bằng cách phản hồi các tín hiệu khen thưởng khác nhau cho mô hình. Dựa trên việc cung cấp các nguyên tắc rõ ràng cho các mô hình lớn, hệ thống sẽ tự động huấn luyện mô hình và cung cấp đầu vào ban đầu cho tất cả các kết quả đầu ra được tạo ra.