Deixe que modelos como o ChatGPT aprendam a pensar por si mesmos! Estrutura inovadora de "cognição autônoma" tecnológica

Fonte original: AIGC Open Community

Fonte da imagem: Gerado por Unbounded AI

ChatGPT, Baidu Wenxin Yiyan, Bard e outros grandes modelos de linguagem demonstraram super capacidade criativa e aceleraram o processo de aplicação da IA generativa. No entanto, os modelos de IA só podem executar várias tarefas com base em dados de treinamento e não podem usar o conhecimento da vida e a experiência passada para raciocínio complexo e tomada de decisões como os seres humanos.

Por exemplo, ao jogar um jogo, os seres humanos podem usar uma variedade de pistas, bom senso, experiência e compreensão das regras do jogo para tomar as melhores decisões. A IA só consegue aprender o modo do jogo através de um grande número de treinos, e não tem uma função de compreensão humanizada. Uma vez que as regras do jogo ou do ambiente mudam, é difícil para a IA fazer a escolha certa.

Para resolver esses problemas, o Laboratório de IA da Universidade de Clemson propôs a Entidade Cognitiva Autônoma (ACE). Através dos seis desenhos hierárquicos de ética, estratégia global, modelo de agência, execução, controle cognitivo e execução de tarefas, os modelos de IA podem realizar a arquitetura cognitiva da "tomada de decisão autônoma" e do raciocínio moral**.

Durante muito tempo, a capacidade de fazer com que os modelos de IA tivessem "raciocínio de senso comum" tem sido uma prioridade na comunidade de investigação científica. **A estrutura ACE é vista como um estudo inovador para resolver este problema.

Na verdade, o conceito de ACE é semelhante ao quadro técnico de "comunicação pensante" proposto pelo Instituto de Automação da Academia Chinesa de Ciências e pela Universidade de Yale não muito tempo atrás, que permite que grandes modelos aprendam a usar a experiência passada para melhorar as capacidades de raciocínio complexo para lidar com novos problemas, mas a camada de raciocínio é mais específica, e as restrições de ética são adicionadas para garantir a segurança do conteúdo de saída.

Endereço em papel:

A estrutura de tecnologia ACE tem sido reconhecida por muitos líderes de tecnologia na indústria. John Etchemendy, professor do Departamento de Ciência da Computação da Universidade de Stanford, disse que a estrutura ACE marca um novo paradigma para a pesquisa em IA, e sua abstração hierárquica e design de feedback de informações são muito úteis para alcançar o raciocínio artificial de senso comum.

Daniela Rus, diretora do AI Lab do MIT, acredita que a estrutura ACE constrói uma estrutura completa que integra princípios éticos, cognitivos e computacionais, fornecendo uma nova direção de pesquisa para o raciocínio artificial de senso comum.

O objetivo geral da estrutura ACE é alcançar um sistema de IA que seja altamente energético e ético. Sua principal inovação reside na integração do raciocínio ético abstrato no nível superior e na realização de tarefas específicas na base para construir um sistema cognitivo completo e de circuito fechado.

O ACE é composto principalmente por 6 camadas: ética, estratégia global, modelo de agência, execução, controle cognitivo e execução de tarefas, cada camada se concentra em diferentes funções, a camada superior lida com raciocínio abstrato e a camada inferior é responsável pela execução de tarefas específicas.

Camada Moral

O mais alto nível ético determina a direção e os princípios de todo o sistema, e sua função é definir os valores fundamentais e princípios éticos de um agente autônomo, que consiste em 3 partes.

(1) Princípios éticos básicos: Este é um código moral intuitivo que fornece conformidade básica para o sistema.

(2) Princípios secundários: Fornecer orientações específicas, tais como obrigações em matéria de direitos humanos.

(3) Declaração de Missão: Definir os principais objetivos e intenções do agente.

Camada de Estratégia Global

Depois de receber missões abstratas da camada moral, a camada de estratégia global formulará um plano de longo prazo para alcançar essas missões em combinação com a situação específica, que consiste em duas partes.

(1) Fusão de contexto: absorver informações ambientais e compreender a situação específica enfrentada pelo agente.

(2) Documento de Estratégia: Documento de orientação em matéria de resultados destinado a fornecer orientações para ações a níveis inferiores.

Camada do modelo do agente

Ele está comprometido em entender os parâmetros de capacidade, estrutura do sistema, restrições, etc. de um agente em um determinado ambiente, e construir um "auto-modelo" para fornecer uma base para a tomada de decisão, incluindo 4 partes.

(1) Parâmetros de funcionamento: dados de telemetria obtidos através da monitorização.

(2) Informações de configuração: arquitetura de software e hardware, versão, etc.

(3) Âmbito de competência: coisas que podem ser concluídas e coisas que não podem ser concluídas.

(4) Limitações: Restrições que só podem funcionar em condições específicas.

Camada Funcional Executiva

A camada funcional executiva atua como um "gerente de projeto", traduzindo missões estratégicas do topo em um roteiro de plano claro. O roteiro fornece todas as etapas específicas de implementação, tendo em conta a afetação de recursos e a gestão de riscos, para tornar a estratégia uma realidade, consistindo em quatro partes.

(1) Definir etapas da tarefa: Decompor tarefas estratégicas em operações refinadas.

(2) Definir pontos de verificação: Definir resultados intermediários importantes para aceitar o progresso.

(3) Alocar recursos: Otimizar o uso de recursos para garantir a boa execução do plano.

(4) Avaliar riscos: Prever possíveis problemas e planear contramedidas com antecedência.

Camada de Controlo Cognitivo**

A camada de controle cognitivo desempenha o papel de "gerenciamento de tarefas", que seleciona e agenda dinamicamente as tarefas apropriadas de acordo com o ambiente atual e o feedback, que consiste em quatro partes.

(1) Seleção de tarefas: selecione a próxima tarefa com base na prioridade, no ambiente e assim por diante.

(2) Comutação de tarefas: alterne suavemente entre tarefas para otimizar ordens.

(3) Perceção de frustração: Se a tarefa for repetida e falhada, produzirá mudanças proativas.

(4) Ajustamento interno: pense nos prós e contras das diferentes opções.

Camada de Execução de Tarefas

A camada de execução de tarefas finais interage diretamente com o ambiente para executar tarefas específicas atribuídas pela camada de controle cognitivo. Dependendo do tipo de tarefa, você pode chamar a interface da API, controlar o mecanismo e conduzir um diálogo, que consiste em três partes.

(1) Comunicação digital: utilizar linguagens de programação e chamadas de interface para executar tarefas digitais

(2) Colaboração física: robôs de controlo e sensores para completar tarefas físicas

(3) Monitorização dos resultados: comparar os resultados com as expectativas e enviar feedback sobre o sucesso ou o fracasso

Este design multicamadas com uma clara divisão de trabalho tem muitos benefícios: primeiro, diferentes níveis podem trabalhar em paralelo ao mesmo tempo, o que melhora a eficiência; Em segundo lugar, o encapsulamento em camadas e a ocultação de informações aumentam a segurança e a interpretabilidade do sistema;

Em terceiro lugar, o layering permite que o sistema seja atualizado iterativamente modularmente sem a necessidade de refatoração completa; Em quarto lugar, o nível superior pode monitorar o funcionamento da camada inferior, e quando os desvios Einmal podem ser corrigidos, para garantir a controlabilidade do sistema.

Além disso, outra inovação da estrutura ACE é o uso inteligente dos atuais modelos populares de grandes linguagens, como ChatGPT, Bard, etc.

Ao aprender grandes quantidades de dados de texto, esses modelos demonstraram compreensão de linguagem e capacidades de geração de linguagem perto dos seres humanos. A estrutura ACE integra a camada de linguagem em cada camada, de modo que o modelo de linguagem não opera mais sozinho, mas se torna um componente chave que sustenta toda a arquitetura cognitiva**.

Da camada moral à camada de tarefas, os modelos de linguagem ajudam a entender conceitos abstratos, fazer raciocínio estratégico, construir automodelos e até mesmo controlar a forma como os robôs executam tarefas linguísticas.

Esta fusão fornece contexto claro e orientação para o modelo de linguagem, tornando a saída que produz mais precisa e evitando o problema de "falar consigo mesmo".

Isto mostra também que os grandes modelos linguísticos também podem desempenhar um papel importante a nível do sistema, em vez de se limitarem a completar tarefas linguísticas individuais. A estrutura ACE mostra como aproveitar melhor o potencial dos grandes modelos de linguagem como um motor central para o desenvolvimento cognitivo e o poder do raciocínio artificial de senso comum.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)