Загадочная новая модель OpenAI Q* была разоблачена!Говорят, что она слишком мощная и может уничтожить человечество?

Автор: Xiaoyan

Редактор: Белые облака

Как говорится, волна не устоялась, а волна поднимается.

Драма дворцовых боев OpenAI наконец-то подошла к концу после нескольких неудач. Как раз в тот момент, когда зрители подумали, что OpenAI наконец-то затихнет и вернется к спокойствию, новая буря не могла дождаться, чтобы начаться.

По данным Reuters, незадолго до увольнения Сэма Альтмана несколько исследователей направили в совет директоров письмо с предупреждением. Содержание этого письма-предупреждения, скорее всего, станет реальным триггером всего инцидента. Согласно предупреждающему письму, модель искусственного интеллекта следующего поколения, получившая внутреннее название Q* (произносится как Q Star), слишком мощная и продвинутая, чтобы ее можно было разработать, но насколько она мощная и продвинутая?

А лидером Q* является Илья Суцкев, главный научный сотрудник OpenAI, который также является фигурой, которая всегда была на пороге ее дворцовой борьбы.

Все, естественно, связали все это с «мятежом» OpenAI несколько дней назад, и не могли не обнаружить, что это была необычайно замечательная драма.

Новая модель Q*, что это такое?

До сих пор OpenAI не располагает официальными подробностями о Q*, давайте попробуем собрать воедино информацию в Интернете, чтобы понять, что же такое Q*.

Q*, также известный как Q Star. Следует отметить, что хотя в области глубокого обучения произведение между блоками решается, но в Q* это не так, он просто расшифровывается как «звезда».

В области искусственного интеллекта Q-related — это, по сути, Q-обучение. Основная концепция Q-обучения впервые родилась в 1989 году. ** В 2013 году компания DeepMind представила алгоритм под названием Deep Q Learning, улучшив способ обучения Q. Наиболее отличительной чертой глубокого Q-обучения является использование воспроизведения опыта, то есть выборки из нескольких результатов в прошлом, а затем использование Q-обучения, чтобы повысить стабильность модели и снизить риск того, что направление обучения модели будет слишком расходиться из-за определенного результата. **

В течение долгого времени исследования Q-обучения не были слишком заметными, поэтому концепция является относительно нишевой. Но Q-обучение сыграло чрезвычайно важную роль в развитии DQN. DQN относится к Deep Q Network, которая родилась из глубокого обучения Q. Идея DQN точно такая же, как и у Q-обучения, но процесс нахождения максимального значения вознаграждения в Q-обучении реализуется нейронными сетями. Вот тут-то и начинается разница.

То, что мы объяснили выше, это то, что представляет собой "Q", так что же означает "*"?

Поскольку у OpenAI нет официального объяснения, каждый может только строить догадки на эту тему. Тем не менее, многие профессионалы отрасли считают, что «*» означает алгоритм А*. Принцип работы так называемого алгоритма А* заключается в том, чтобы сначала оценить приблизительное значение с помощью эвристического алгоритма (т.е. оценку), которое, вероятно, будет сильно отклоняться от положительного решения. Как только оценка завершена, цикл начинает проходить, и если нет способа решить ее, он переоценивается до тех пор, пока решение не начнет появляться. Это повторяется до тех пор, пока окончательно не будет найдено наилучшее решение. Этот алгоритм занимает много времени и может работать только в лабораторных условиях.

Благодаря приведенному выше объяснению, каждый должен иметь предварительное представление о "Q" и "*". Согласно консенсусу круга ИИ, наиболее вероятным появлением Q от OpenAI является использование обучения Q для быстрого нахождения оценки близкого к оптимальному решения, а затем использование алгоритма A* для его решения в небольшом диапазоне, чтобы сэкономить множество бессмысленных вычислительных процессов, чтобы быстро найти лучшее решение.

Неожиданный вопрос, не будет ли он слишком мощным и угрожающим человечеству?

Что касается неожиданного вопроса, то все в основном сосредоточены на одном и том же: где находятся его исследования и разработки, и будет ли он угрожать человечеству?

Причина такого беспокойства заключается в том, что запуск Q связан с предыдущими выступлениями Сэма Альтмана на саммите АТЭС. В то время Альтман сказал: «В истории OpenAI было четыре раза, и последний раз это было в последние несколько недель, когда мы прорвались через завесу невежества и достигли границы открытий, я был в комнате, что является высшей честью в моей карьере». Многие думают, что «самый последний» относится к Q*.

И Илья Суцкев, который также сказал в интервью несколько недель назад: «Не вдаваясь в подробности, я просто хочу сказать, что ограничения данных можно преодолеть и прогресс можно продолжить».

Исходя из вышеизложенной информации, было проанализировано, что Q* в настоящее время имеет, по крайней мере, две основные функции. Во-первых, преодолеть ограничения человеческих данных и самостоятельно производить огромные объемы данных, а во-вторых, иметь возможность учиться и совершенствоваться самостоятельно. Пункт 2, в частности, считается представляющим угрозу для человечества.

Но в связи с этим некоторые профессионалы отрасли высказывают разные мнения. Ян Лекун, главный научный сотрудник по искусственному интеллекту в Meta, считает, что Q* является попыткой планирования OpenAI, и не означает, что она совершила какие-то прорывы. Топовые лаборатории, такие как FAIR, DeepMind и OpenAI, изучают это уже давно. Это не новая новость, это больше похоже на жареный холодный рис.

Исходя из этого, нетрудно обнаружить, что по сравнению с прогрессом, достигнутым Q* до сих пор, влияние общественного мнения, вызванное этим инцидентом на OpenAI, кажется большим.

«Будет ли ИИ представлять экзистенциальный риск для человечества» — вопрос всегда вызывает беспокойство. **

Мы можем смеяться над шумихой и сплетнями, но суровая реальность такова, что случайная шумиха сделает людей менее бдительными в отношении ИИ и отвлечет людей от проблем, которые ИИ может вызвать, и проблем, которые ИИ уже вызвал.

Вопрос о том, представляет ли ИИ экзистенциальный риск для человечества, будет дамокловым мечом, который всегда будет висеть над головой человечества. Не только профессиональные компании, такие как OpenAI, должны опасаться «бунта ИИ», но и все человечество должно относиться к нему трезво. Например, совет директоров OpenAI разработал «внутренние аварийные выключатели и механизмы управления» для предотвращения внедрения вредоносных технологий. Другим примером является то, что Европейский Союз вот-вот завершит работу над всеобъемлющим Законом об искусственном интеллекте. Один из самых больших споров среди законодателей сейчас заключается в том, следует ли дать технологическим компаниям больше полномочий для саморегулирования передовых моделей ИИ.

Как только мы позволим системам ИИ ставить свои собственные цели и начнем каким-то образом взаимодействовать с реальным физическим или цифровым миром, скорее всего, возникнут проблемы с безопасностью. Ажиотаж никогда не исчезнет, и коммерческие компании всегда будут ставить своей главной целью «приоритизацию собственных интересов». В этом случае нужно уметь видеть суть через явление, понимать ИИ, обращать внимание на ИИ и быть бдительными в отношении ИИ.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить