Уряд Японії розглядає можливість створення організації наступного року для вивчення питань безпеки ШІ, включаючи ризик перенаправлення цивільних технологій штучного інтелекту на військові цілі, з метою підвищення її безпеки, не перешкоджаючи дослідженням і розробкам, повідомляє Financial Associated Press з посиланням на Nikkei. Повідомляється, що очікується, що план буде офіційно оголошено вже цього місяця на засіданні Комітету зі стратегії штучного інтелекту, який відповідає за обговорення національних стратегій, пов'язаних зі штучним інтелектом, і включає професіоналів приватного сектору з досвідом роботи в галузі ШІ. Основна увага буде приділена найдосконалішій партії продуктів, таким як ChatGPT від OpenAI. Щоб уникнути дестабілізації приватного сектора, стандартна технологія штучного інтелекту, яка використовується підприємствами для підвищення операційної ефективності, не буде переслідуватися японським урядом. Нова організація планує вивчити потенційні ризики для національної безпеки, такі як можливість використання ШІ для отримання інформації для створення біологічної, хімічної чи іншої зброї, а також досліджуватиме вразливості безпеки, включаючи кібератаки. Він також досліджуватиме ризик того, що штучний інтелект стане неконтрольованим, а також питання, пов'язані з дезінформацією та упередженістю.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Уряд Японії розглядає можливість створення організації наступного року для вивчення питань безпеки ШІ, включаючи ризик перенаправлення цивільних технологій штучного інтелекту на військові цілі, з метою підвищення її безпеки, не перешкоджаючи дослідженням і розробкам, повідомляє Financial Associated Press з посиланням на Nikkei. Повідомляється, що очікується, що план буде офіційно оголошено вже цього місяця на засіданні Комітету зі стратегії штучного інтелекту, який відповідає за обговорення національних стратегій, пов'язаних зі штучним інтелектом, і включає професіоналів приватного сектору з досвідом роботи в галузі ШІ. Основна увага буде приділена найдосконалішій партії продуктів, таким як ChatGPT від OpenAI. Щоб уникнути дестабілізації приватного сектора, стандартна технологія штучного інтелекту, яка використовується підприємствами для підвищення операційної ефективності, не буде переслідуватися японським урядом. Нова організація планує вивчити потенційні ризики для національної безпеки, такі як можливість використання ШІ для отримання інформації для створення біологічної, хімічної чи іншої зброї, а також досліджуватиме вразливості безпеки, включаючи кібератаки. Він також досліджуватиме ризик того, що штучний інтелект стане неконтрольованим, а також питання, пов'язані з дезінформацією та упередженістю.