ChatGPT, Baidu Wenxin Yiyan, Bard e outros grandes modelos de linguagem demonstraram super capacidade criativa e aceleraram o processo de aplicação da IA generativa. No entanto, os modelos de IA só podem executar várias tarefas com base em dados de treinamento e não podem usar o conhecimento da vida e a experiência passada para raciocínio complexo e tomada de decisões como os seres humanos.
Por exemplo, ao jogar um jogo, os seres humanos podem usar uma variedade de pistas, bom senso, experiência e compreensão das regras do jogo para tomar as melhores decisões. A IA só consegue aprender o modo do jogo através de um grande número de treinos, e não tem uma função de compreensão humanizada. Uma vez que as regras do jogo ou do ambiente mudam, é difícil para a IA fazer a escolha certa.
Para resolver esses problemas, o Laboratório de IA da Universidade de Clemson propôs a Entidade Cognitiva Autônoma (ACE). Através dos seis desenhos hierárquicos de ética, estratégia global, modelo de agência, execução, controle cognitivo e execução de tarefas, os modelos de IA podem realizar a arquitetura cognitiva da "tomada de decisão autônoma" e do raciocínio moral**.
Durante muito tempo, a capacidade de fazer com que os modelos de IA tivessem "raciocínio de senso comum" tem sido uma prioridade na comunidade de investigação científica. **A estrutura ACE é vista como um estudo inovador para resolver este problema.
Na verdade, o conceito de ACE é semelhante ao quadro técnico de "comunicação pensante" proposto pelo Instituto de Automação da Academia Chinesa de Ciências e pela Universidade de Yale não muito tempo atrás, que permite que grandes modelos aprendam a usar a experiência passada para melhorar as capacidades de raciocínio complexo para lidar com novos problemas, mas a camada de raciocínio é mais específica, e as restrições de ética são adicionadas para garantir a segurança do conteúdo de saída.
Endereço em papel:
A estrutura de tecnologia ACE tem sido reconhecida por muitos líderes de tecnologia na indústria. John Etchemendy, professor do Departamento de Ciência da Computação da Universidade de Stanford, disse que a estrutura ACE marca um novo paradigma para a pesquisa em IA, e sua abstração hierárquica e design de feedback de informações são muito úteis para alcançar o raciocínio artificial de senso comum.
Daniela Rus, diretora do AI Lab do MIT, acredita que a estrutura ACE constrói uma estrutura completa que integra princípios éticos, cognitivos e computacionais, fornecendo uma nova direção de pesquisa para o raciocínio artificial de senso comum.
O objetivo geral da estrutura ACE é alcançar um sistema de IA que seja altamente energético e ético. Sua principal inovação reside na integração do raciocínio ético abstrato no nível superior e na realização de tarefas específicas na base para construir um sistema cognitivo completo e de circuito fechado.
O ACE é composto principalmente por 6 camadas: ética, estratégia global, modelo de agência, execução, controle cognitivo e execução de tarefas, cada camada se concentra em diferentes funções, a camada superior lida com raciocínio abstrato e a camada inferior é responsável pela execução de tarefas específicas.
Camada Moral
O mais alto nível ético determina a direção e os princípios de todo o sistema, e sua função é definir os valores fundamentais e princípios éticos de um agente autônomo, que consiste em 3 partes.
(1) Princípios éticos básicos: Este é um código moral intuitivo que fornece conformidade básica para o sistema.
(2) Princípios secundários: Fornecer orientações específicas, tais como obrigações em matéria de direitos humanos.
(3) Declaração de Missão: Definir os principais objetivos e intenções do agente.
Camada de Estratégia Global
Depois de receber missões abstratas da camada moral, a camada de estratégia global formulará um plano de longo prazo para alcançar essas missões em combinação com a situação específica, que consiste em duas partes.
(1) Fusão de contexto: absorver informações ambientais e compreender a situação específica enfrentada pelo agente.
(2) Documento de Estratégia: Documento de orientação em matéria de resultados destinado a fornecer orientações para ações a níveis inferiores.
Camada do modelo do agente
Ele está comprometido em entender os parâmetros de capacidade, estrutura do sistema, restrições, etc. de um agente em um determinado ambiente, e construir um "auto-modelo" para fornecer uma base para a tomada de decisão, incluindo 4 partes.
(1) Parâmetros de funcionamento: dados de telemetria obtidos através da monitorização.
(2) Informações de configuração: arquitetura de software e hardware, versão, etc.
(3) Âmbito de competência: coisas que podem ser concluídas e coisas que não podem ser concluídas.
(4) Limitações: Restrições que só podem funcionar em condições específicas.
Camada Funcional Executiva
A camada funcional executiva atua como um "gerente de projeto", traduzindo missões estratégicas do topo em um roteiro de plano claro. O roteiro fornece todas as etapas específicas de implementação, tendo em conta a afetação de recursos e a gestão de riscos, para tornar a estratégia uma realidade, consistindo em quatro partes.
(1) Definir etapas da tarefa: Decompor tarefas estratégicas em operações refinadas.
(2) Definir pontos de verificação: Definir resultados intermediários importantes para aceitar o progresso.
(3) Alocar recursos: Otimizar o uso de recursos para garantir a boa execução do plano.
(4) Avaliar riscos: Prever possíveis problemas e planear contramedidas com antecedência.
Camada de Controlo Cognitivo**
A camada de controle cognitivo desempenha o papel de "gerenciamento de tarefas", que seleciona e agenda dinamicamente as tarefas apropriadas de acordo com o ambiente atual e o feedback, que consiste em quatro partes.
(1) Seleção de tarefas: selecione a próxima tarefa com base na prioridade, no ambiente e assim por diante.
(2) Comutação de tarefas: alterne suavemente entre tarefas para otimizar ordens.
(3) Perceção de frustração: Se a tarefa for repetida e falhada, produzirá mudanças proativas.
(4) Ajustamento interno: pense nos prós e contras das diferentes opções.
Camada de Execução de Tarefas
A camada de execução de tarefas finais interage diretamente com o ambiente para executar tarefas específicas atribuídas pela camada de controle cognitivo. Dependendo do tipo de tarefa, você pode chamar a interface da API, controlar o mecanismo e conduzir um diálogo, que consiste em três partes.
(1) Comunicação digital: utilizar linguagens de programação e chamadas de interface para executar tarefas digitais
(2) Colaboração física: robôs de controlo e sensores para completar tarefas físicas
(3) Monitorização dos resultados: comparar os resultados com as expectativas e enviar feedback sobre o sucesso ou o fracasso
Este design multicamadas com uma clara divisão de trabalho tem muitos benefícios: primeiro, diferentes níveis podem trabalhar em paralelo ao mesmo tempo, o que melhora a eficiência; Em segundo lugar, o encapsulamento em camadas e a ocultação de informações aumentam a segurança e a interpretabilidade do sistema;
Em terceiro lugar, o layering permite que o sistema seja atualizado iterativamente modularmente sem a necessidade de refatoração completa; Em quarto lugar, o nível superior pode monitorar o funcionamento da camada inferior, e quando os desvios Einmal podem ser corrigidos, para garantir a controlabilidade do sistema.
Além disso, outra inovação da estrutura ACE é o uso inteligente dos atuais modelos populares de grandes linguagens, como ChatGPT, Bard, etc.
Ao aprender grandes quantidades de dados de texto, esses modelos demonstraram compreensão de linguagem e capacidades de geração de linguagem perto dos seres humanos. A estrutura ACE integra a camada de linguagem em cada camada, de modo que o modelo de linguagem não opera mais sozinho, mas se torna um componente chave que sustenta toda a arquitetura cognitiva**.
Da camada moral à camada de tarefas, os modelos de linguagem ajudam a entender conceitos abstratos, fazer raciocínio estratégico, construir automodelos e até mesmo controlar a forma como os robôs executam tarefas linguísticas.
Esta fusão fornece contexto claro e orientação para o modelo de linguagem, tornando a saída que produz mais precisa e evitando o problema de "falar consigo mesmo".
Isto mostra também que os grandes modelos linguísticos também podem desempenhar um papel importante a nível do sistema, em vez de se limitarem a completar tarefas linguísticas individuais. A estrutura ACE mostra como aproveitar melhor o potencial dos grandes modelos de linguagem como um motor central para o desenvolvimento cognitivo e o poder do raciocínio artificial de senso comum.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Deixe que modelos como o ChatGPT aprendam a pensar por si mesmos! Estrutura inovadora de "cognição autônoma" tecnológica
Fonte original: AIGC Open Community
ChatGPT, Baidu Wenxin Yiyan, Bard e outros grandes modelos de linguagem demonstraram super capacidade criativa e aceleraram o processo de aplicação da IA generativa. No entanto, os modelos de IA só podem executar várias tarefas com base em dados de treinamento e não podem usar o conhecimento da vida e a experiência passada para raciocínio complexo e tomada de decisões como os seres humanos.
Por exemplo, ao jogar um jogo, os seres humanos podem usar uma variedade de pistas, bom senso, experiência e compreensão das regras do jogo para tomar as melhores decisões. A IA só consegue aprender o modo do jogo através de um grande número de treinos, e não tem uma função de compreensão humanizada. Uma vez que as regras do jogo ou do ambiente mudam, é difícil para a IA fazer a escolha certa.
Para resolver esses problemas, o Laboratório de IA da Universidade de Clemson propôs a Entidade Cognitiva Autônoma (ACE). Através dos seis desenhos hierárquicos de ética, estratégia global, modelo de agência, execução, controle cognitivo e execução de tarefas, os modelos de IA podem realizar a arquitetura cognitiva da "tomada de decisão autônoma" e do raciocínio moral**.
Durante muito tempo, a capacidade de fazer com que os modelos de IA tivessem "raciocínio de senso comum" tem sido uma prioridade na comunidade de investigação científica. **A estrutura ACE é vista como um estudo inovador para resolver este problema.
Na verdade, o conceito de ACE é semelhante ao quadro técnico de "comunicação pensante" proposto pelo Instituto de Automação da Academia Chinesa de Ciências e pela Universidade de Yale não muito tempo atrás, que permite que grandes modelos aprendam a usar a experiência passada para melhorar as capacidades de raciocínio complexo para lidar com novos problemas, mas a camada de raciocínio é mais específica, e as restrições de ética são adicionadas para garantir a segurança do conteúdo de saída.
Endereço em papel:
Daniela Rus, diretora do AI Lab do MIT, acredita que a estrutura ACE constrói uma estrutura completa que integra princípios éticos, cognitivos e computacionais, fornecendo uma nova direção de pesquisa para o raciocínio artificial de senso comum.
O objetivo geral da estrutura ACE é alcançar um sistema de IA que seja altamente energético e ético. Sua principal inovação reside na integração do raciocínio ético abstrato no nível superior e na realização de tarefas específicas na base para construir um sistema cognitivo completo e de circuito fechado.
O ACE é composto principalmente por 6 camadas: ética, estratégia global, modelo de agência, execução, controle cognitivo e execução de tarefas, cada camada se concentra em diferentes funções, a camada superior lida com raciocínio abstrato e a camada inferior é responsável pela execução de tarefas específicas.
O mais alto nível ético determina a direção e os princípios de todo o sistema, e sua função é definir os valores fundamentais e princípios éticos de um agente autônomo, que consiste em 3 partes.
(1) Princípios éticos básicos: Este é um código moral intuitivo que fornece conformidade básica para o sistema.
(2) Princípios secundários: Fornecer orientações específicas, tais como obrigações em matéria de direitos humanos.
(3) Declaração de Missão: Definir os principais objetivos e intenções do agente.
Camada de Estratégia Global
Depois de receber missões abstratas da camada moral, a camada de estratégia global formulará um plano de longo prazo para alcançar essas missões em combinação com a situação específica, que consiste em duas partes.
(1) Fusão de contexto: absorver informações ambientais e compreender a situação específica enfrentada pelo agente.
(2) Documento de Estratégia: Documento de orientação em matéria de resultados destinado a fornecer orientações para ações a níveis inferiores.
Ele está comprometido em entender os parâmetros de capacidade, estrutura do sistema, restrições, etc. de um agente em um determinado ambiente, e construir um "auto-modelo" para fornecer uma base para a tomada de decisão, incluindo 4 partes.
(1) Parâmetros de funcionamento: dados de telemetria obtidos através da monitorização.
(2) Informações de configuração: arquitetura de software e hardware, versão, etc.
(3) Âmbito de competência: coisas que podem ser concluídas e coisas que não podem ser concluídas.
(4) Limitações: Restrições que só podem funcionar em condições específicas.
Camada Funcional Executiva
A camada funcional executiva atua como um "gerente de projeto", traduzindo missões estratégicas do topo em um roteiro de plano claro. O roteiro fornece todas as etapas específicas de implementação, tendo em conta a afetação de recursos e a gestão de riscos, para tornar a estratégia uma realidade, consistindo em quatro partes.
(1) Definir etapas da tarefa: Decompor tarefas estratégicas em operações refinadas.
(2) Definir pontos de verificação: Definir resultados intermediários importantes para aceitar o progresso.
(3) Alocar recursos: Otimizar o uso de recursos para garantir a boa execução do plano.
(4) Avaliar riscos: Prever possíveis problemas e planear contramedidas com antecedência.
A camada de controle cognitivo desempenha o papel de "gerenciamento de tarefas", que seleciona e agenda dinamicamente as tarefas apropriadas de acordo com o ambiente atual e o feedback, que consiste em quatro partes.
(2) Comutação de tarefas: alterne suavemente entre tarefas para otimizar ordens.
(3) Perceção de frustração: Se a tarefa for repetida e falhada, produzirá mudanças proativas.
(4) Ajustamento interno: pense nos prós e contras das diferentes opções.
Camada de Execução de Tarefas
A camada de execução de tarefas finais interage diretamente com o ambiente para executar tarefas específicas atribuídas pela camada de controle cognitivo. Dependendo do tipo de tarefa, você pode chamar a interface da API, controlar o mecanismo e conduzir um diálogo, que consiste em três partes.
(1) Comunicação digital: utilizar linguagens de programação e chamadas de interface para executar tarefas digitais
(2) Colaboração física: robôs de controlo e sensores para completar tarefas físicas
(3) Monitorização dos resultados: comparar os resultados com as expectativas e enviar feedback sobre o sucesso ou o fracasso
Este design multicamadas com uma clara divisão de trabalho tem muitos benefícios: primeiro, diferentes níveis podem trabalhar em paralelo ao mesmo tempo, o que melhora a eficiência; Em segundo lugar, o encapsulamento em camadas e a ocultação de informações aumentam a segurança e a interpretabilidade do sistema;
Em terceiro lugar, o layering permite que o sistema seja atualizado iterativamente modularmente sem a necessidade de refatoração completa; Em quarto lugar, o nível superior pode monitorar o funcionamento da camada inferior, e quando os desvios Einmal podem ser corrigidos, para garantir a controlabilidade do sistema.
Ao aprender grandes quantidades de dados de texto, esses modelos demonstraram compreensão de linguagem e capacidades de geração de linguagem perto dos seres humanos. A estrutura ACE integra a camada de linguagem em cada camada, de modo que o modelo de linguagem não opera mais sozinho, mas se torna um componente chave que sustenta toda a arquitetura cognitiva**.
Da camada moral à camada de tarefas, os modelos de linguagem ajudam a entender conceitos abstratos, fazer raciocínio estratégico, construir automodelos e até mesmo controlar a forma como os robôs executam tarefas linguísticas.
Esta fusão fornece contexto claro e orientação para o modelo de linguagem, tornando a saída que produz mais precisa e evitando o problema de "falar consigo mesmo".
Isto mostra também que os grandes modelos linguísticos também podem desempenhar um papel importante a nível do sistema, em vez de se limitarem a completar tarefas linguísticas individuais. A estrutura ACE mostra como aproveitar melhor o potencial dos grandes modelos de linguagem como um motor central para o desenvolvimento cognitivo e o poder do raciocínio artificial de senso comum.