Ai Sợ Robot? Có vẻ như rất nhiều người là như vậy. Hiện tại, số lượng các nhân vật nổi tiếng đưa ra tuyên bố công khai hoặc ký tên vào các bức thư ngỏ cảnh báo về những hiểm họa thảm khốc của trí tuệ nhân tạo đang gây sửng sốt.
Hàng trăm nhà khoa học, lãnh đạo doanh nghiệp và nhà hoạch định chính sách đã lên tiếng, từ những người tiên phong trong học sâu Geoffrey Hinton và Yoshua Bengio, đến CEO của các công ty AI hàng đầu như Sam Altman và Demis Hassabis, đến Hạ nghị sĩ California Ted Lieu và cựu Tổng thống Estonia Kersti Kaljulaid.
Khẳng định rõ ràng nhất được ký bởi tất cả những nhân vật này và nhiều nhân vật khác là một tuyên bố dài 22 từ được đưa ra cách đây hai tuần bởi Trung tâm An toàn Trí tuệ Nhân tạo (CAIS), một tổ chức nghiên cứu có trụ sở tại San Francisco, tuyên bố rằng “giảm thiểu nguy cơ tuyệt chủng do trí tuệ nhân tạo gây ra. Nó phải là ưu tiên toàn cầu, cùng với các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân."
Từ ngữ này là có chủ ý. Giám đốc CAIS Dan Hendrycks cho biết: "Nếu chúng tôi định sử dụng một tuyên bố theo kiểu thử nghiệm Rorschach, chúng tôi sẽ nói 'rủi ro hiện hữu' bởi vì nó có thể có nhiều ý nghĩa đối với nhiều người khác nhau". không phải về việc làm suy giảm nền kinh tế. "Đó là lý do tại sao chúng ta nói về 'nguy cơ tuyệt chủng', mặc dù nhiều người trong chúng ta cũng lo lắng về nhiều rủi ro khác," Hendrycks nói.
Chúng tôi đã từng ở đó trước đây: Sự diệt vong của AI đi kèm với sự cường điệu của AI. Nhưng lần này nó cảm thấy khác nhau. Cửa sổ Overton đã thay đổi. Điều từng là một quan điểm cực đoan giờ đã trở thành chủ đạo, thu hút sự chú ý của các nhà lãnh đạo thế giới. Jenna Burrell, giám đốc nghiên cứu của Data and Society, một tổ chức nghiên cứu tác động xã hội của công nghệ, cho biết: “Những tiếng nói lo ngại về AI quá lớn để có thể bỏ qua.
Chuyện gì đã xảy ra thế? Trí tuệ nhân tạo có thực sự trở nên (hơn) nguy hiểm? Tại sao những người đầu tiên giới thiệu công nghệ này lại bắt đầu gióng lên hồi chuông cảnh báo?
Phải thừa nhận rằng những quan điểm này được chia trong lĩnh vực này. Tuần trước, nhà khoa học trưởng của Meta, Yann LeCun, người đã chia sẻ Giải thưởng Turing 2018 với Hinton và Bengio, đã gọi lý thuyết ngày tận thế là "lố bịch". Aidan Gomez, giám đốc điều hành của công ty trí tuệ nhân tạo Cohere, cho biết đó là "một cách sử dụng thời gian vô lý".
Tương tự như vậy, những người khác chế giễu nó. Meredith Whittaker, chủ tịch của Signal, cho biết: “Hiện tại không có nhiều bằng chứng hơn so với năm 1950 rằng trí tuệ nhân tạo sẽ gây ra những rủi ro hiện hữu này. nghiên cứu ý nghĩa chính sách của trí tuệ nhân tạo. "Những câu chuyện ma rất dễ lây lan - sợ hãi thực sự rất thú vị và kích thích."
“Đó cũng là một cách để nhìn lại mọi thứ đang diễn ra ngày hôm nay,” Burrell nói. "Điều đó cho thấy chúng ta chưa nhìn thấy tác hại thực sự hoặc nghiêm trọng."
Một nỗi sợ cổ xưa
Mối quan tâm về những cỗ máy chạy trốn, tự cải tiến đã tồn tại kể từ Alan Turing. Những người theo chủ nghĩa vị lai như Vernor Vinge và Ray Kurzweil đã phổ biến những ý tưởng này bằng cách nói về cái gọi là "Điểm kỳ dị", một ngày giả định khi trí tuệ nhân tạo vượt qua trí thông minh của con người và bị máy móc chiếm lĩnh.
Nhưng cốt lõi của mối quan tâm này là câu hỏi về sự kiểm soát: nếu (hoặc khi nào) máy móc trở nên thông minh hơn, làm thế nào con người có thể duy trì sự thống trị của mình? Trong một bài báo năm 2017 có tiêu đề "AI gây ra rủi ro tồn tại như thế nào?" Karina Vold, một nhà triết học AI tại Đại học Toronto (người cũng đã ký vào tuyên bố CAIS), đưa ra những lập luận cơ bản đằng sau mối quan tâm này.
Lập luận có ba tiền đề chính. Đầu tiên, con người có thể tạo ra một cỗ máy siêu thông minh vượt qua mọi trí thông minh khác. Thứ hai, chúng ta có nguy cơ mất kiểm soát đối với các đặc vụ siêu trí tuệ có khả năng vượt qua chúng ta. Thứ ba, có khả năng một đặc vụ siêu trí tuệ sẽ làm những việc mà chúng ta không muốn nó làm.
Đặt tất cả những điều này lại với nhau, có thể tạo ra một cỗ máy làm những việc mà chúng ta không muốn nó làm, bao gồm cả việc tiêu diệt chúng ta, và chúng ta sẽ không thể ngăn chặn nó.
Cũng có những trường hợp khác nhau cho kịch bản này. Khi Hinton nêu lên những lo ngại của mình về trí tuệ nhân tạo vào tháng 5, ông đã trích dẫn ví dụ về việc rô-bốt định tuyến lại lưới điện để cung cấp thêm năng lượng cho chúng. Nhưng siêu trí tuệ (hoặc AGI) là không cần thiết. Máy móc ngu ngốc cũng có thể là thảm họa nếu chúng có quá nhiều không gian. Nhiều kịch bản liên quan đến việc triển khai liều lĩnh hoặc độc hại hơn là các bot tự phục vụ.
Trong một bài báo được xuất bản trực tuyến vào tuần trước, các nhà nghiên cứu trí tuệ nhân tạo Stuart Russell và Andrew Critch tại Đại học California, Berkeley (người cũng đã ký vào tuyên bố CAIS) đưa ra cách phân loại rủi ro hiện hữu. Những rủi ro này bao gồm từ các chatbot đưa ra lời khuyên lan truyền khiến hàng triệu người bỏ học đại học, đến các ngành công nghiệp tự trị theo đuổi mục tiêu kinh tế có hại, đến việc các quốc gia xây dựng siêu vũ khí do AI cung cấp.
Trong nhiều trường hợp tưởng tượng, một mô hình lý thuyết đạt được các mục tiêu do con người đưa ra, nhưng theo cách không tốt cho chúng ta. Đối với Hendrycks, người nghiên cứu cách các mô hình học sâu đôi khi hoạt động theo những cách không mong muốn khi dữ liệu đầu vào được cung cấp không xuất hiện trong dữ liệu đào tạo, một hệ thống AI có thể là thảm họa vì nó mang tính phá hoại hơn là toàn năng . “Nếu bạn đặt cho nó một mục tiêu và nó tìm ra một giải pháp kỳ lạ, nó sẽ đưa chúng ta vào một hành trình kỳ lạ,” ông nói.
Vấn đề với những tương lai có thể xảy ra này là chúng dựa trên một chuỗi chữ "nếu" khiến chúng giống như khoa học viễn tưởng. Bản thân Vold cũng thừa nhận như vậy. "Bởi vì các sự kiện cấu thành hoặc kích hoạt [rủi ro hiện sinh] là chưa từng có, nên những lập luận cho rằng chúng gây ra mối đe dọa như vậy phải có bản chất lý thuyết," cô viết. "Sự hiếm có của chúng cũng khiến cho bất kỳ suy đoán nào về cách thức hoặc thời điểm những sự kiện như vậy xảy ra đều mang tính chủ quan và không thể kiểm chứng bằng thực nghiệm."
Vậy tại sao ngày càng có nhiều người tin vào những ý tưởng này hơn bao giờ hết? François Chollet, một nhà nghiên cứu AI tại Google, cho biết: "Những người khác nhau nói về rủi ro vì những lý do khác nhau và họ có thể hiểu theo cách khác nhau. Nhưng đó là một câu chuyện không thể cưỡng lại được: "Rủi ro hiện hữu luôn là một câu chuyện hay."
Whittaker nói: “Có một yếu tố thần thoại, gần như tôn giáo đối với nó mà không thể bỏ qua. "Tôi nghĩ chúng ta cần nhận ra rằng những gì đang được mô tả không có cơ sở bằng chứng, nó gần với niềm tin, lòng nhiệt thành tôn giáo hơn là một diễn ngôn khoa học."
Sự lây lan của Ngày tận thế
Khi các nhà nghiên cứu học sâu lần đầu tiên bắt đầu đạt được một loạt thành công -- hãy nghĩ về điểm số nhận dạng hình ảnh phá kỷ lục của Hinton và đồng nghiệp của anh ấy trong cuộc thi ImageNet năm 2012 và chiến thắng AlphaGo đầu tiên của DeepMind trước một nhà vô địch là con người vào năm 2015, sự cường điệu nhanh chóng chuyển sang ngày tận thế cũng vậy. Các nhà khoa học nổi tiếng như Hawking và nhà vũ trụ học Martin Rees, cũng như các nhà lãnh đạo công nghệ cao cấp như Elon Musk, đã gióng lên hồi chuông cảnh báo về những rủi ro hiện hữu. Nhưng những nhân vật này không phải là chuyên gia AI.
Đứng trên sân khấu ở San Jose tám năm trước, Andrew Ng, người tiên phong trong lĩnh vực học sâu và sau đó là nhà khoa học trưởng tại Baidu, đã cười nhạo ý tưởng này.
“Trong tương lai xa, có thể sẽ có một cuộc đua robot sát thủ,” Andrew Ng nói với khán giả tại Hội nghị Công nghệ GPU Nvidia 2015. “Nhưng hôm nay tôi không cam kết ngăn chặn trí thông minh nhân tạo trở thành ác quỷ như tôi đang lo lắng về dân số quá mức trên sao Hỏa.” (Nhận xét của Ng được đưa tin vào thời điểm đó bởi trang tin công nghệ The Register.)
Andrew Ng, người đồng sáng lập phòng thí nghiệm trí tuệ nhân tạo của Google vào năm 2011 và hiện là Giám đốc điều hành của Landing AI, đã lặp lại cụm từ này trong các cuộc phỏng vấn kể từ đó. Nhưng bây giờ anh ấy ít lạc quan hơn. "Tôi đang giữ một tâm trí cởi mở và đang nói chuyện với một vài người để tìm hiểu thêm," anh ấy nói với tôi. "Sự phát triển nhanh chóng khiến các nhà khoa học phải suy nghĩ lại về rủi ro."
Giống như nhiều người, Ng bày tỏ lo ngại về sự phát triển nhanh chóng của AI tổng quát và khả năng sử dụng sai mục đích của nó. Tháng trước, ông lưu ý, một hình ảnh do AI tạo ra về một vụ nổ ở Lầu Năm Góc đã khiến mọi người hoảng sợ, khiến thị trường chứng khoán lao dốc.
“Thật không may, AI mạnh đến mức dường như nó cũng có khả năng gây ra những vấn đề lớn,” Ng nói. Nhưng ông không nói về robot sát thủ: "Ngay bây giờ, tôi vẫn thấy khó hiểu làm thế nào mà trí tuệ nhân tạo có thể dẫn đến sự tuyệt chủng của chúng ta".
Điều khác biệt so với trước đây là nhận thức rộng rãi về những gì AI có thể làm. ChatGPT đã cung cấp công nghệ này cho công chúng vào cuối năm ngoái. Chollet nói: “AI đột nhiên trở thành một chủ đề nóng trong dòng chính. "Mọi người đang xem xét trí tuệ nhân tạo một cách nghiêm túc vì họ nhận thấy những bước nhảy vọt đột ngột về khả năng là điềm báo cho nhiều bước nhảy vọt sắp tới."
Ngoài ra, trải nghiệm nói chuyện với một chatbot có thể đáng lo ngại. Cuộc trò chuyện là điều thường được hiểu là điều mà mọi người làm với người khác. Whittaker nói: “Nó bổ sung tính hợp pháp cho ý tưởng về việc AI giống như con người hoặc một người đối thoại có tri giác. “Tôi nghĩ nó khiến mọi người tin rằng nếu AI có thể mô phỏng giao tiếp của con người thì nó cũng có thể làm được XYZ.”
"Đó là lý do tại sao tôi bắt đầu cảm thấy rằng cuộc trò chuyện về nguy cơ sống sót có phần phù hợp - đưa ra những suy luận mà không có bằng chứng," cô nói.
Nhìn về phía trước
Chúng tôi có lý do để phẫn nộ. Khi các cơ quan quản lý bắt kịp ngành công nghệ, các câu hỏi đặt ra là loại hoạt động nào nên hoặc không nên bị hạn chế. Làm nổi bật những rủi ro dài hạn thay vì những tác hại ngắn hạn (chẳng hạn như tuyển dụng phân biệt đối xử hoặc thông tin sai lệch) giúp các cơ quan quản lý tập trung lại vào các vấn đề giả định trong tương lai.
Burrell nói: "Tôi nghi ngờ mối đe dọa của các ràng buộc pháp lý thực sự đã thúc đẩy một lập trường. Nói về rủi ro hiện hữu có thể xác thực mối quan tâm của các nhà quản lý mà không phá hủy các cơ hội kinh doanh". rõ ràng là điều gì đó vẫn chưa xảy ra."
Phóng đại mối lo ngại về rủi ro hiện hữu cũng tốt cho kinh doanh theo những cách khác. Chollet chỉ ra rằng các công ty AI hàng đầu cần chúng ta nghĩ rằng AGI đang đến và họ là những người xây dựng nó. “Nếu bạn muốn mọi người nghĩ rằng những gì bạn đang làm là mạnh mẽ, bạn nên khiến họ sợ hãi về điều đó,” ông nói.
Whittaker cũng có quan điểm tương tự. "Đó là một điều quan trọng để biến bạn thành người tạo ra một thực thể có thể mạnh hơn con người," cô nói.
Điều này không quan trọng nếu nó chỉ là tiếp thị hoặc cường điệu. Nhưng việc quyết định cái gì là rủi ro và không phải là rủi ro sẽ dẫn đến những hậu quả. Trong một thế giới hạn chế về ngân sách và sự chú ý, những thương tích ít nghiêm trọng hơn chiến tranh hạt nhân có thể bị bỏ qua vì chúng tôi không nghĩ rằng chúng là ưu tiên hàng đầu.
Sarah Myers West, giám đốc điều hành của Viện AI Now cho biết: “Đây là một câu hỏi quan trọng, đặc biệt là khi sự tập trung ngày càng tăng vào an toàn và bảo mật như một khuôn khổ hẹp cho sự can thiệp chính sách.
Khi Thủ tướng Rishi Sunak gặp những người đứng đầu các công ty AI, bao gồm Sam Altman và Demis Hassabis, vào tháng 5, chính phủ Vương quốc Anh đã đưa ra một tuyên bố rằng: "Thủ tướng và các CEO đã thảo luận về những rủi ro của công nghệ, từ thông tin sai lệch và an ninh quốc gia, đến một mối đe dọa hiện hữu".
Tuần trước, Altman nói với Thượng viện Hoa Kỳ rằng mối quan tâm lớn nhất của ông là ngành công nghiệp AI sẽ gây hại đáng kể cho thế giới. Lời khai của Altman đã làm dấy lên lời kêu gọi thành lập một loại cơ quan mới để giải quyết tác hại chưa từng có này.
Với việc dịch chuyển cửa sổ Overton, thiệt hại đã được thực hiện chưa? "Nếu chúng ta đang nói về tương lai xa, nếu chúng ta đang nói về rủi ro thần thoại, thì chúng ta đang hoàn toàn định hình lại vấn đề như một vấn đề tồn tại trong thế giới giả tưởng và giải pháp có thể tồn tại trong thế giới giả tưởng," Whittaker nói .
Nhưng Whittaker cũng lưu ý rằng các cuộc thảo luận chính sách xung quanh AI đã diễn ra trong nhiều năm, lâu hơn những lo ngại gần đây. "Tôi không tin vào sự tất yếu," cô nói. "Chúng ta sẽ thấy sự cường điệu bị phản tác dụng. Nó sẽ mất dần."
Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
MIT Technology Review: Làm thế nào rủi ro tồn tại trở thành Meme lớn nhất trong AI
Được viết bởi: Will Douglas Heaven
Nguồn: MIT Technology Review
Ai Sợ Robot? Có vẻ như rất nhiều người là như vậy. Hiện tại, số lượng các nhân vật nổi tiếng đưa ra tuyên bố công khai hoặc ký tên vào các bức thư ngỏ cảnh báo về những hiểm họa thảm khốc của trí tuệ nhân tạo đang gây sửng sốt.
Hàng trăm nhà khoa học, lãnh đạo doanh nghiệp và nhà hoạch định chính sách đã lên tiếng, từ những người tiên phong trong học sâu Geoffrey Hinton và Yoshua Bengio, đến CEO của các công ty AI hàng đầu như Sam Altman và Demis Hassabis, đến Hạ nghị sĩ California Ted Lieu và cựu Tổng thống Estonia Kersti Kaljulaid.
Khẳng định rõ ràng nhất được ký bởi tất cả những nhân vật này và nhiều nhân vật khác là một tuyên bố dài 22 từ được đưa ra cách đây hai tuần bởi Trung tâm An toàn Trí tuệ Nhân tạo (CAIS), một tổ chức nghiên cứu có trụ sở tại San Francisco, tuyên bố rằng “giảm thiểu nguy cơ tuyệt chủng do trí tuệ nhân tạo gây ra. Nó phải là ưu tiên toàn cầu, cùng với các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân."
Từ ngữ này là có chủ ý. Giám đốc CAIS Dan Hendrycks cho biết: "Nếu chúng tôi định sử dụng một tuyên bố theo kiểu thử nghiệm Rorschach, chúng tôi sẽ nói 'rủi ro hiện hữu' bởi vì nó có thể có nhiều ý nghĩa đối với nhiều người khác nhau". không phải về việc làm suy giảm nền kinh tế. "Đó là lý do tại sao chúng ta nói về 'nguy cơ tuyệt chủng', mặc dù nhiều người trong chúng ta cũng lo lắng về nhiều rủi ro khác," Hendrycks nói.
Chúng tôi đã từng ở đó trước đây: Sự diệt vong của AI đi kèm với sự cường điệu của AI. Nhưng lần này nó cảm thấy khác nhau. Cửa sổ Overton đã thay đổi. Điều từng là một quan điểm cực đoan giờ đã trở thành chủ đạo, thu hút sự chú ý của các nhà lãnh đạo thế giới. Jenna Burrell, giám đốc nghiên cứu của Data and Society, một tổ chức nghiên cứu tác động xã hội của công nghệ, cho biết: “Những tiếng nói lo ngại về AI quá lớn để có thể bỏ qua.
Chuyện gì đã xảy ra thế? Trí tuệ nhân tạo có thực sự trở nên (hơn) nguy hiểm? Tại sao những người đầu tiên giới thiệu công nghệ này lại bắt đầu gióng lên hồi chuông cảnh báo?
Phải thừa nhận rằng những quan điểm này được chia trong lĩnh vực này. Tuần trước, nhà khoa học trưởng của Meta, Yann LeCun, người đã chia sẻ Giải thưởng Turing 2018 với Hinton và Bengio, đã gọi lý thuyết ngày tận thế là "lố bịch". Aidan Gomez, giám đốc điều hành của công ty trí tuệ nhân tạo Cohere, cho biết đó là "một cách sử dụng thời gian vô lý".
Tương tự như vậy, những người khác chế giễu nó. Meredith Whittaker, chủ tịch của Signal, cho biết: “Hiện tại không có nhiều bằng chứng hơn so với năm 1950 rằng trí tuệ nhân tạo sẽ gây ra những rủi ro hiện hữu này. nghiên cứu ý nghĩa chính sách của trí tuệ nhân tạo. "Những câu chuyện ma rất dễ lây lan - sợ hãi thực sự rất thú vị và kích thích."
“Đó cũng là một cách để nhìn lại mọi thứ đang diễn ra ngày hôm nay,” Burrell nói. "Điều đó cho thấy chúng ta chưa nhìn thấy tác hại thực sự hoặc nghiêm trọng."
Một nỗi sợ cổ xưa
Mối quan tâm về những cỗ máy chạy trốn, tự cải tiến đã tồn tại kể từ Alan Turing. Những người theo chủ nghĩa vị lai như Vernor Vinge và Ray Kurzweil đã phổ biến những ý tưởng này bằng cách nói về cái gọi là "Điểm kỳ dị", một ngày giả định khi trí tuệ nhân tạo vượt qua trí thông minh của con người và bị máy móc chiếm lĩnh.
Nhưng cốt lõi của mối quan tâm này là câu hỏi về sự kiểm soát: nếu (hoặc khi nào) máy móc trở nên thông minh hơn, làm thế nào con người có thể duy trì sự thống trị của mình? Trong một bài báo năm 2017 có tiêu đề "AI gây ra rủi ro tồn tại như thế nào?" Karina Vold, một nhà triết học AI tại Đại học Toronto (người cũng đã ký vào tuyên bố CAIS), đưa ra những lập luận cơ bản đằng sau mối quan tâm này.
Lập luận có ba tiền đề chính. Đầu tiên, con người có thể tạo ra một cỗ máy siêu thông minh vượt qua mọi trí thông minh khác. Thứ hai, chúng ta có nguy cơ mất kiểm soát đối với các đặc vụ siêu trí tuệ có khả năng vượt qua chúng ta. Thứ ba, có khả năng một đặc vụ siêu trí tuệ sẽ làm những việc mà chúng ta không muốn nó làm.
Đặt tất cả những điều này lại với nhau, có thể tạo ra một cỗ máy làm những việc mà chúng ta không muốn nó làm, bao gồm cả việc tiêu diệt chúng ta, và chúng ta sẽ không thể ngăn chặn nó.
Cũng có những trường hợp khác nhau cho kịch bản này. Khi Hinton nêu lên những lo ngại của mình về trí tuệ nhân tạo vào tháng 5, ông đã trích dẫn ví dụ về việc rô-bốt định tuyến lại lưới điện để cung cấp thêm năng lượng cho chúng. Nhưng siêu trí tuệ (hoặc AGI) là không cần thiết. Máy móc ngu ngốc cũng có thể là thảm họa nếu chúng có quá nhiều không gian. Nhiều kịch bản liên quan đến việc triển khai liều lĩnh hoặc độc hại hơn là các bot tự phục vụ.
Trong một bài báo được xuất bản trực tuyến vào tuần trước, các nhà nghiên cứu trí tuệ nhân tạo Stuart Russell và Andrew Critch tại Đại học California, Berkeley (người cũng đã ký vào tuyên bố CAIS) đưa ra cách phân loại rủi ro hiện hữu. Những rủi ro này bao gồm từ các chatbot đưa ra lời khuyên lan truyền khiến hàng triệu người bỏ học đại học, đến các ngành công nghiệp tự trị theo đuổi mục tiêu kinh tế có hại, đến việc các quốc gia xây dựng siêu vũ khí do AI cung cấp.
Trong nhiều trường hợp tưởng tượng, một mô hình lý thuyết đạt được các mục tiêu do con người đưa ra, nhưng theo cách không tốt cho chúng ta. Đối với Hendrycks, người nghiên cứu cách các mô hình học sâu đôi khi hoạt động theo những cách không mong muốn khi dữ liệu đầu vào được cung cấp không xuất hiện trong dữ liệu đào tạo, một hệ thống AI có thể là thảm họa vì nó mang tính phá hoại hơn là toàn năng . “Nếu bạn đặt cho nó một mục tiêu và nó tìm ra một giải pháp kỳ lạ, nó sẽ đưa chúng ta vào một hành trình kỳ lạ,” ông nói.
Vấn đề với những tương lai có thể xảy ra này là chúng dựa trên một chuỗi chữ "nếu" khiến chúng giống như khoa học viễn tưởng. Bản thân Vold cũng thừa nhận như vậy. "Bởi vì các sự kiện cấu thành hoặc kích hoạt [rủi ro hiện sinh] là chưa từng có, nên những lập luận cho rằng chúng gây ra mối đe dọa như vậy phải có bản chất lý thuyết," cô viết. "Sự hiếm có của chúng cũng khiến cho bất kỳ suy đoán nào về cách thức hoặc thời điểm những sự kiện như vậy xảy ra đều mang tính chủ quan và không thể kiểm chứng bằng thực nghiệm."
Vậy tại sao ngày càng có nhiều người tin vào những ý tưởng này hơn bao giờ hết? François Chollet, một nhà nghiên cứu AI tại Google, cho biết: "Những người khác nhau nói về rủi ro vì những lý do khác nhau và họ có thể hiểu theo cách khác nhau. Nhưng đó là một câu chuyện không thể cưỡng lại được: "Rủi ro hiện hữu luôn là một câu chuyện hay."
Whittaker nói: “Có một yếu tố thần thoại, gần như tôn giáo đối với nó mà không thể bỏ qua. "Tôi nghĩ chúng ta cần nhận ra rằng những gì đang được mô tả không có cơ sở bằng chứng, nó gần với niềm tin, lòng nhiệt thành tôn giáo hơn là một diễn ngôn khoa học."
Sự lây lan của Ngày tận thế
Khi các nhà nghiên cứu học sâu lần đầu tiên bắt đầu đạt được một loạt thành công -- hãy nghĩ về điểm số nhận dạng hình ảnh phá kỷ lục của Hinton và đồng nghiệp của anh ấy trong cuộc thi ImageNet năm 2012 và chiến thắng AlphaGo đầu tiên của DeepMind trước một nhà vô địch là con người vào năm 2015, sự cường điệu nhanh chóng chuyển sang ngày tận thế cũng vậy. Các nhà khoa học nổi tiếng như Hawking và nhà vũ trụ học Martin Rees, cũng như các nhà lãnh đạo công nghệ cao cấp như Elon Musk, đã gióng lên hồi chuông cảnh báo về những rủi ro hiện hữu. Nhưng những nhân vật này không phải là chuyên gia AI.
Đứng trên sân khấu ở San Jose tám năm trước, Andrew Ng, người tiên phong trong lĩnh vực học sâu và sau đó là nhà khoa học trưởng tại Baidu, đã cười nhạo ý tưởng này.
“Trong tương lai xa, có thể sẽ có một cuộc đua robot sát thủ,” Andrew Ng nói với khán giả tại Hội nghị Công nghệ GPU Nvidia 2015. “Nhưng hôm nay tôi không cam kết ngăn chặn trí thông minh nhân tạo trở thành ác quỷ như tôi đang lo lắng về dân số quá mức trên sao Hỏa.” (Nhận xét của Ng được đưa tin vào thời điểm đó bởi trang tin công nghệ The Register.)
Andrew Ng, người đồng sáng lập phòng thí nghiệm trí tuệ nhân tạo của Google vào năm 2011 và hiện là Giám đốc điều hành của Landing AI, đã lặp lại cụm từ này trong các cuộc phỏng vấn kể từ đó. Nhưng bây giờ anh ấy ít lạc quan hơn. "Tôi đang giữ một tâm trí cởi mở và đang nói chuyện với một vài người để tìm hiểu thêm," anh ấy nói với tôi. "Sự phát triển nhanh chóng khiến các nhà khoa học phải suy nghĩ lại về rủi ro."
Giống như nhiều người, Ng bày tỏ lo ngại về sự phát triển nhanh chóng của AI tổng quát và khả năng sử dụng sai mục đích của nó. Tháng trước, ông lưu ý, một hình ảnh do AI tạo ra về một vụ nổ ở Lầu Năm Góc đã khiến mọi người hoảng sợ, khiến thị trường chứng khoán lao dốc.
“Thật không may, AI mạnh đến mức dường như nó cũng có khả năng gây ra những vấn đề lớn,” Ng nói. Nhưng ông không nói về robot sát thủ: "Ngay bây giờ, tôi vẫn thấy khó hiểu làm thế nào mà trí tuệ nhân tạo có thể dẫn đến sự tuyệt chủng của chúng ta".
Điều khác biệt so với trước đây là nhận thức rộng rãi về những gì AI có thể làm. ChatGPT đã cung cấp công nghệ này cho công chúng vào cuối năm ngoái. Chollet nói: “AI đột nhiên trở thành một chủ đề nóng trong dòng chính. "Mọi người đang xem xét trí tuệ nhân tạo một cách nghiêm túc vì họ nhận thấy những bước nhảy vọt đột ngột về khả năng là điềm báo cho nhiều bước nhảy vọt sắp tới."
Ngoài ra, trải nghiệm nói chuyện với một chatbot có thể đáng lo ngại. Cuộc trò chuyện là điều thường được hiểu là điều mà mọi người làm với người khác. Whittaker nói: “Nó bổ sung tính hợp pháp cho ý tưởng về việc AI giống như con người hoặc một người đối thoại có tri giác. “Tôi nghĩ nó khiến mọi người tin rằng nếu AI có thể mô phỏng giao tiếp của con người thì nó cũng có thể làm được XYZ.”
"Đó là lý do tại sao tôi bắt đầu cảm thấy rằng cuộc trò chuyện về nguy cơ sống sót có phần phù hợp - đưa ra những suy luận mà không có bằng chứng," cô nói.
Nhìn về phía trước
Chúng tôi có lý do để phẫn nộ. Khi các cơ quan quản lý bắt kịp ngành công nghệ, các câu hỏi đặt ra là loại hoạt động nào nên hoặc không nên bị hạn chế. Làm nổi bật những rủi ro dài hạn thay vì những tác hại ngắn hạn (chẳng hạn như tuyển dụng phân biệt đối xử hoặc thông tin sai lệch) giúp các cơ quan quản lý tập trung lại vào các vấn đề giả định trong tương lai.
Burrell nói: "Tôi nghi ngờ mối đe dọa của các ràng buộc pháp lý thực sự đã thúc đẩy một lập trường. Nói về rủi ro hiện hữu có thể xác thực mối quan tâm của các nhà quản lý mà không phá hủy các cơ hội kinh doanh". rõ ràng là điều gì đó vẫn chưa xảy ra."
Phóng đại mối lo ngại về rủi ro hiện hữu cũng tốt cho kinh doanh theo những cách khác. Chollet chỉ ra rằng các công ty AI hàng đầu cần chúng ta nghĩ rằng AGI đang đến và họ là những người xây dựng nó. “Nếu bạn muốn mọi người nghĩ rằng những gì bạn đang làm là mạnh mẽ, bạn nên khiến họ sợ hãi về điều đó,” ông nói.
Whittaker cũng có quan điểm tương tự. "Đó là một điều quan trọng để biến bạn thành người tạo ra một thực thể có thể mạnh hơn con người," cô nói.
Điều này không quan trọng nếu nó chỉ là tiếp thị hoặc cường điệu. Nhưng việc quyết định cái gì là rủi ro và không phải là rủi ro sẽ dẫn đến những hậu quả. Trong một thế giới hạn chế về ngân sách và sự chú ý, những thương tích ít nghiêm trọng hơn chiến tranh hạt nhân có thể bị bỏ qua vì chúng tôi không nghĩ rằng chúng là ưu tiên hàng đầu.
Sarah Myers West, giám đốc điều hành của Viện AI Now cho biết: “Đây là một câu hỏi quan trọng, đặc biệt là khi sự tập trung ngày càng tăng vào an toàn và bảo mật như một khuôn khổ hẹp cho sự can thiệp chính sách.
Khi Thủ tướng Rishi Sunak gặp những người đứng đầu các công ty AI, bao gồm Sam Altman và Demis Hassabis, vào tháng 5, chính phủ Vương quốc Anh đã đưa ra một tuyên bố rằng: "Thủ tướng và các CEO đã thảo luận về những rủi ro của công nghệ, từ thông tin sai lệch và an ninh quốc gia, đến một mối đe dọa hiện hữu".
Tuần trước, Altman nói với Thượng viện Hoa Kỳ rằng mối quan tâm lớn nhất của ông là ngành công nghiệp AI sẽ gây hại đáng kể cho thế giới. Lời khai của Altman đã làm dấy lên lời kêu gọi thành lập một loại cơ quan mới để giải quyết tác hại chưa từng có này.
Với việc dịch chuyển cửa sổ Overton, thiệt hại đã được thực hiện chưa? "Nếu chúng ta đang nói về tương lai xa, nếu chúng ta đang nói về rủi ro thần thoại, thì chúng ta đang hoàn toàn định hình lại vấn đề như một vấn đề tồn tại trong thế giới giả tưởng và giải pháp có thể tồn tại trong thế giới giả tưởng," Whittaker nói .
Nhưng Whittaker cũng lưu ý rằng các cuộc thảo luận chính sách xung quanh AI đã diễn ra trong nhiều năm, lâu hơn những lo ngại gần đây. "Tôi không tin vào sự tất yếu," cô nói. "Chúng ta sẽ thấy sự cường điệu bị phản tác dụng. Nó sẽ mất dần."