Согласно отчету Sina Technology от 6 июля, OpenAI, разработчик ChatGPT, заявил, что планирует инвестировать больше ресурсов и создать новую исследовательскую группу для изучения того, как обеспечить безопасность ИИ для людей и, в конечном итоге, реализовать использование ИИ для наблюдения за ИИ. Соучредитель OpenAI Илья Суцкеффер и руководитель AI Alignment Джейн Лейк заявили в официальном блоге: «Огромные возможности сверхразума могут привести к потере власти или даже к исчезновению людей. В настоящее время у нас нет решения, позволяющего манипулировать или контролировать возможные сверхразумный ИИ и предотвратить его превращение в мошенника». В сообщении в блоге прогнозируется, что сверхразумный ИИ, системы, которые умнее людей, могут появиться в течение следующих 10 лет. Людям нужны более мощные технологии, чем доступные в настоящее время, для управления сверхразумным ИИ, поэтому необходимы прорывы в «исследовании выравнивания ИИ», что является серьезной проблемой в управлении ИИ, требующей, чтобы цели ИИ и человеческие ценности и намерения были согласованы. OpenAI выделит 20% своих вычислительных мощностей для решения этой проблемы в следующие 4 года.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Согласно отчету Sina Technology от 6 июля, OpenAI, разработчик ChatGPT, заявил, что планирует инвестировать больше ресурсов и создать новую исследовательскую группу для изучения того, как обеспечить безопасность ИИ для людей и, в конечном итоге, реализовать использование ИИ для наблюдения за ИИ. Соучредитель OpenAI Илья Суцкеффер и руководитель AI Alignment Джейн Лейк заявили в официальном блоге: «Огромные возможности сверхразума могут привести к потере власти или даже к исчезновению людей. В настоящее время у нас нет решения, позволяющего манипулировать или контролировать возможные сверхразумный ИИ и предотвратить его превращение в мошенника». В сообщении в блоге прогнозируется, что сверхразумный ИИ, системы, которые умнее людей, могут появиться в течение следующих 10 лет. Людям нужны более мощные технологии, чем доступные в настоящее время, для управления сверхразумным ИИ, поэтому необходимы прорывы в «исследовании выравнивания ИИ», что является серьезной проблемой в управлении ИИ, требующей, чтобы цели ИИ и человеческие ценности и намерения были согласованы. OpenAI выделит 20% своих вычислительных мощностей для решения этой проблемы в следующие 4 года.