ChatGPT, Baidu Wenxin Yiyan, Bard y otros grandes modelos de lenguaje han demostrado una gran capacidad creativa y han acelerado el proceso de aplicación de la IA generativa. Sin embargo, los modelos de IA solo pueden realizar diversas tareas basadas en datos de entrenamiento y no pueden utilizar el conocimiento de la vida y la experiencia pasada para el razonamiento complejo y la toma de decisiones como los humanos.
Por ejemplo, al jugar un juego, los humanos pueden usar una variedad de pistas, el sentido común, la experiencia y la comprensión de las reglas del juego para tomar las mejores decisiones. La IA solo puede aprender el modo de juego a través de una gran cantidad de entrenamiento y no tiene una función de comprensión humanizada. Una vez que cambian las reglas del juego o el entorno, es difícil que la IA tome la decisión correcta.
Para resolver estos problemas, el Laboratorio de Inteligencia Artificial de la Universidad de Clemson propuso la Entidad Cognitiva Autónoma (ACE). A través de los seis diseños jerárquicos de ética, estrategia global, modelo de agencia, ejecución, control cognitivo y ejecución de tareas, los modelos de IA pueden hacer realidad la arquitectura cognitiva de la "toma de decisiones autónoma" y el razonamiento moral**.
Durante mucho tiempo, la capacidad de hacer que los modelos de IA tengan un "razonamiento de sentido común" ha sido una prioridad en la comunidad de investigación científica. **El marco ACE se considera un estudio innovador para resolver este problema.
De hecho, el concepto de ACE es similar al marco técnico de "comunicación de pensamiento" propuesto por el Instituto de Automatización de la Academia China de Ciencias y la Universidad de Yale no hace mucho, que permite que los modelos grandes aprendan a usar la experiencia pasada para mejorar las capacidades de razonamiento complejo para hacer frente a nuevos problemas, pero la capa de razonamiento es más específica y se agregan las restricciones de la ética para garantizar la seguridad del contenido de salida.
Dirección del papel:
El marco tecnológico ACE ha sido reconocido por muchos líderes tecnológicos de la industria. John Etchemendy, profesor del Departamento de Ciencias de la Computación de la Universidad de Stanford, dijo que el marco ACE marca un nuevo paradigma para la investigación de IA, y su abstracción jerárquica y el diseño de retroalimentación de información son muy útiles para lograr un razonamiento artificial de sentido común.
Daniela Rus, directora del Laboratorio de Inteligencia Artificial del MIT, cree que el marco ACE construye una estructura completa que integra principios éticos, cognitivos y computacionales, proporcionando una nueva dirección de investigación para el razonamiento artificial de sentido común.
El objetivo general del marco ACE es lograr un sistema de IA que sea a la vez altamente energético y ético. Su principal innovación radica en la integración del razonamiento ético abstracto en el nivel superior y la realización de tareas específicas en el nivel inferior para construir un sistema cognitivo completo y de circuito cerrado.
ACE se compone principalmente de 6 capas: ética, estrategia global, modelo de agencia, ejecución, control cognitivo y ejecución de tareas, cada capa se enfoca en diferentes funciones, la capa superior se ocupa del razonamiento abstracto y la capa inferior es responsable de la ejecución de tareas específicas.
Capa moral
El nivel ético más alto determina la dirección y los principios de todo el sistema, y su función es definir los valores fundamentales y los principios éticos de un agente autónomo, que consta de 3 partes.
(1) Principios éticos básicos: Se trata de un código moral intuitivo que proporciona el cumplimiento básico del sistema.
(2) Principios secundarios: Proporcionar orientación específica, como las obligaciones en materia de derechos humanos.
(3) Declaración de la misión: Definir los objetivos e intenciones principales del agente.
Capa de estrategia global
Después de recibir misiones abstractas de la capa moral, la capa de estrategia global formulará un plan a largo plazo para lograr estas misiones en combinación con la situación específica, que consta de dos partes.
(1) Fusión de contextos: absorber información ambiental y comprender la situación específica a la que se enfrenta el agente.
(2) Documento de estrategia: Documento de orientación de resultados para proporcionar orientación de acción para los niveles inferiores.
Capa de modelo de agente
Se compromete a comprender los parámetros de capacidad, la estructura del sistema, las limitaciones, etc. de un agente en un entorno determinado, y a construir un "automodelo" que proporcione una base para la toma de decisiones, que incluye 4 partes.
(1) Parámetros operativos: datos de telemetría obtenidos a través del monitoreo.
(2) Información de configuración: arquitectura de software y hardware, versión, etc.
(3) Ámbito de competencia: cosas que se pueden completar y cosas que no se pueden completar.
(4) Limitaciones: Restricciones que solo pueden funcionar bajo condiciones específicas.
Capa Funcional Ejecutiva
La capa funcional ejecutiva actúa como un "gerente de proyecto", traduciendo las misiones estratégicas desde arriba en una hoja de ruta clara del plan. La hoja de ruta proporciona todos los pasos específicos de implementación, teniendo en cuenta la asignación de recursos y la gestión de riesgos, para hacer realidad la estrategia, que consta de cuatro partes.
(1) Definir los pasos de la tarea: Descomponer las tareas estratégicas en operaciones detalladas.
(2) Establecer puntos de control: Definir resultados intermedios importantes para aceptar el progreso.
(3) Asignar recursos: Optimizar el uso de los recursos para garantizar la buena ejecución del plan.
(4) Evaluar los riesgos: Predecir posibles problemas y planificar las contramedidas con antelación.
Capa de control cognitivo**
La capa de control cognitivo desempeña el papel de "gestión de tareas", que selecciona y programa dinámicamente las tareas apropiadas de acuerdo con el entorno actual y la retroalimentación, que consta de cuatro partes.
(1) Selección de tareas: seleccione la siguiente tarea en función de la prioridad, el entorno, etc.
(2) Cambio de tareas: cambie suavemente entre tareas para optimizar los pedidos.
(3) Percepción de frustración: Si la tarea se repite y falla, producirá cambios proactivos.
(4) Ajuste interno: piense en los pros y los contras de las diferentes opciones.
Capa de ejecución de tareas
La capa final de ejecución de tareas interactúa directamente con el entorno para realizar tareas específicas asignadas por la capa de control cognitivo. Dependiendo del tipo de tarea, puede llamar a la interfaz de la API, controlar el mecanismo y realizar un diálogo, que consta de tres partes.
(1) Comunicación digital: utilizar lenguajes de programación y llamadas a la interfaz para implementar tareas digitales
(2) Colaboración física: robots de control y sensores para completar tareas físicas
(3) Monitoreo de resultados: compare los resultados con las expectativas y envíe comentarios sobre el éxito o el fracaso
Este diseño multicapa con una clara división del trabajo tiene muchos beneficios: en primer lugar, diferentes niveles pueden trabajar en paralelo al mismo tiempo, lo que mejora la eficiencia; En segundo lugar, la encapsulación en capas y la ocultación de información mejoran la seguridad y la interpretabilidad del sistema;
En tercer lugar, la estratificación permite que el sistema se actualice de forma iterativa modular sin necesidad de una refactorización completa; En cuarto lugar, el nivel superior puede monitorear el funcionamiento de la capa inferior y cuándo se pueden corregir las desviaciones de Einmal, para garantizar la capacidad de control del sistema.
Además, otra innovación del marco ACE es el uso inteligente de los modelos de lenguaje grandes populares actuales, como ChatGPT, Bard, etc.
Al aprender cantidades masivas de datos de texto, estos modelos han demostrado una comprensión del lenguaje y capacidades de generación de lenguaje cercanas a las de los humanos. El marco ACE integra la capa de lenguaje en cada capa, de modo que el modelo de lenguaje ya no funciona solo, sino que se convierte en un componente clave que sustenta toda la arquitectura cognitiva**.
Desde la capa moral hasta la capa de tareas, los modelos lingüísticos ayudan a comprender conceptos abstractos, hacer razonamientos estratégicos, construir modelos propios e incluso, en última instancia, controlar la forma en que los robots realizan las tareas lingüísticas.
Esta fusión proporciona un contexto claro y orientación al modelo de lenguaje, lo que hace que el resultado que produce sea más preciso y evita el problema de "hablar con uno mismo".
Esto también muestra que los modelos lingüísticos grandes también pueden desempeñar un papel importante a nivel de sistema, en lugar de limitarse a completar tareas lingüísticas individuales. El marco ACE muestra cómo aprovechar mejor el potencial de los grandes modelos de lenguaje como motor central para el desarrollo cognitivo y potenciar el razonamiento artificial de sentido común.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
¡Deja que modelos como ChatGPT aprendan a pensar por sí mismos! Marco innovador de tecnología de "cognición autónoma"
Fuente original: AIGC Open Community
ChatGPT, Baidu Wenxin Yiyan, Bard y otros grandes modelos de lenguaje han demostrado una gran capacidad creativa y han acelerado el proceso de aplicación de la IA generativa. Sin embargo, los modelos de IA solo pueden realizar diversas tareas basadas en datos de entrenamiento y no pueden utilizar el conocimiento de la vida y la experiencia pasada para el razonamiento complejo y la toma de decisiones como los humanos.
Por ejemplo, al jugar un juego, los humanos pueden usar una variedad de pistas, el sentido común, la experiencia y la comprensión de las reglas del juego para tomar las mejores decisiones. La IA solo puede aprender el modo de juego a través de una gran cantidad de entrenamiento y no tiene una función de comprensión humanizada. Una vez que cambian las reglas del juego o el entorno, es difícil que la IA tome la decisión correcta.
Para resolver estos problemas, el Laboratorio de Inteligencia Artificial de la Universidad de Clemson propuso la Entidad Cognitiva Autónoma (ACE). A través de los seis diseños jerárquicos de ética, estrategia global, modelo de agencia, ejecución, control cognitivo y ejecución de tareas, los modelos de IA pueden hacer realidad la arquitectura cognitiva de la "toma de decisiones autónoma" y el razonamiento moral**.
Durante mucho tiempo, la capacidad de hacer que los modelos de IA tengan un "razonamiento de sentido común" ha sido una prioridad en la comunidad de investigación científica. **El marco ACE se considera un estudio innovador para resolver este problema.
De hecho, el concepto de ACE es similar al marco técnico de "comunicación de pensamiento" propuesto por el Instituto de Automatización de la Academia China de Ciencias y la Universidad de Yale no hace mucho, que permite que los modelos grandes aprendan a usar la experiencia pasada para mejorar las capacidades de razonamiento complejo para hacer frente a nuevos problemas, pero la capa de razonamiento es más específica y se agregan las restricciones de la ética para garantizar la seguridad del contenido de salida.
Dirección del papel:
Daniela Rus, directora del Laboratorio de Inteligencia Artificial del MIT, cree que el marco ACE construye una estructura completa que integra principios éticos, cognitivos y computacionales, proporcionando una nueva dirección de investigación para el razonamiento artificial de sentido común.
El objetivo general del marco ACE es lograr un sistema de IA que sea a la vez altamente energético y ético. Su principal innovación radica en la integración del razonamiento ético abstracto en el nivel superior y la realización de tareas específicas en el nivel inferior para construir un sistema cognitivo completo y de circuito cerrado.
ACE se compone principalmente de 6 capas: ética, estrategia global, modelo de agencia, ejecución, control cognitivo y ejecución de tareas, cada capa se enfoca en diferentes funciones, la capa superior se ocupa del razonamiento abstracto y la capa inferior es responsable de la ejecución de tareas específicas.
El nivel ético más alto determina la dirección y los principios de todo el sistema, y su función es definir los valores fundamentales y los principios éticos de un agente autónomo, que consta de 3 partes.
(1) Principios éticos básicos: Se trata de un código moral intuitivo que proporciona el cumplimiento básico del sistema.
(2) Principios secundarios: Proporcionar orientación específica, como las obligaciones en materia de derechos humanos.
(3) Declaración de la misión: Definir los objetivos e intenciones principales del agente.
Capa de estrategia global
Después de recibir misiones abstractas de la capa moral, la capa de estrategia global formulará un plan a largo plazo para lograr estas misiones en combinación con la situación específica, que consta de dos partes.
(1) Fusión de contextos: absorber información ambiental y comprender la situación específica a la que se enfrenta el agente.
(2) Documento de estrategia: Documento de orientación de resultados para proporcionar orientación de acción para los niveles inferiores.
Se compromete a comprender los parámetros de capacidad, la estructura del sistema, las limitaciones, etc. de un agente en un entorno determinado, y a construir un "automodelo" que proporcione una base para la toma de decisiones, que incluye 4 partes.
(1) Parámetros operativos: datos de telemetría obtenidos a través del monitoreo.
(2) Información de configuración: arquitectura de software y hardware, versión, etc.
(3) Ámbito de competencia: cosas que se pueden completar y cosas que no se pueden completar.
(4) Limitaciones: Restricciones que solo pueden funcionar bajo condiciones específicas.
Capa Funcional Ejecutiva
La capa funcional ejecutiva actúa como un "gerente de proyecto", traduciendo las misiones estratégicas desde arriba en una hoja de ruta clara del plan. La hoja de ruta proporciona todos los pasos específicos de implementación, teniendo en cuenta la asignación de recursos y la gestión de riesgos, para hacer realidad la estrategia, que consta de cuatro partes.
(1) Definir los pasos de la tarea: Descomponer las tareas estratégicas en operaciones detalladas.
(2) Establecer puntos de control: Definir resultados intermedios importantes para aceptar el progreso.
(3) Asignar recursos: Optimizar el uso de los recursos para garantizar la buena ejecución del plan.
(4) Evaluar los riesgos: Predecir posibles problemas y planificar las contramedidas con antelación.
La capa de control cognitivo desempeña el papel de "gestión de tareas", que selecciona y programa dinámicamente las tareas apropiadas de acuerdo con el entorno actual y la retroalimentación, que consta de cuatro partes.
(2) Cambio de tareas: cambie suavemente entre tareas para optimizar los pedidos.
(3) Percepción de frustración: Si la tarea se repite y falla, producirá cambios proactivos.
(4) Ajuste interno: piense en los pros y los contras de las diferentes opciones.
Capa de ejecución de tareas
La capa final de ejecución de tareas interactúa directamente con el entorno para realizar tareas específicas asignadas por la capa de control cognitivo. Dependiendo del tipo de tarea, puede llamar a la interfaz de la API, controlar el mecanismo y realizar un diálogo, que consta de tres partes.
(1) Comunicación digital: utilizar lenguajes de programación y llamadas a la interfaz para implementar tareas digitales
(2) Colaboración física: robots de control y sensores para completar tareas físicas
(3) Monitoreo de resultados: compare los resultados con las expectativas y envíe comentarios sobre el éxito o el fracaso
Este diseño multicapa con una clara división del trabajo tiene muchos beneficios: en primer lugar, diferentes niveles pueden trabajar en paralelo al mismo tiempo, lo que mejora la eficiencia; En segundo lugar, la encapsulación en capas y la ocultación de información mejoran la seguridad y la interpretabilidad del sistema;
En tercer lugar, la estratificación permite que el sistema se actualice de forma iterativa modular sin necesidad de una refactorización completa; En cuarto lugar, el nivel superior puede monitorear el funcionamiento de la capa inferior y cuándo se pueden corregir las desviaciones de Einmal, para garantizar la capacidad de control del sistema.
Al aprender cantidades masivas de datos de texto, estos modelos han demostrado una comprensión del lenguaje y capacidades de generación de lenguaje cercanas a las de los humanos. El marco ACE integra la capa de lenguaje en cada capa, de modo que el modelo de lenguaje ya no funciona solo, sino que se convierte en un componente clave que sustenta toda la arquitectura cognitiva**.
Desde la capa moral hasta la capa de tareas, los modelos lingüísticos ayudan a comprender conceptos abstractos, hacer razonamientos estratégicos, construir modelos propios e incluso, en última instancia, controlar la forma en que los robots realizan las tareas lingüísticas.
Esta fusión proporciona un contexto claro y orientación al modelo de lenguaje, lo que hace que el resultado que produce sea más preciso y evita el problema de "hablar con uno mismo".
Esto también muestra que los modelos lingüísticos grandes también pueden desempeñar un papel importante a nivel de sistema, en lugar de limitarse a completar tareas lingüísticas individuales. El marco ACE muestra cómo aprovechar mejor el potencial de los grandes modelos de lenguaje como motor central para el desarrollo cognitivo y potenciar el razonamiento artificial de sentido común.