De acordo com notícias da mídia estrangeira, no mundo do rápido desenvolvimento da inteligência artificial, as discussões sobre o futuro muitas vezes se concentram na chamada "inteligência geral artificial". Nesta fase, a IA terá a capacidade de fazer tudo o que um ser humano pode fazer, e apenas melhor.
Conversas recentes com o CEO da OpenAI, Sam Altman, e a CTO Mira Murati abordaram o tema dos "potenciais benefícios e riscos da AGI".
Aqui estão trechos de suas conversas:
AGI será a melhor ferramenta que a humanidade já criou
P: Porque é que a AGI é um alvo? **
Sam Altman: As duas coisas que serão mais importantes para melhorar a condição humana na próxima década ou décadas são a inteligência abundante e barata: quanto mais poderosa, mais versátil, mais inteligente, melhor. Eu acho que isso é AG. Depois, a segunda é a energia abundante e barata. Se conseguirmos realizar essas duas coisas no mundo, é quase difícil imaginar o quanto mais podemos fazer. Acreditamos firmemente que, se você der às pessoas melhores ferramentas, elas farão coisas que o surpreenderão. Acho que a AGI será a melhor ferramenta que a humanidade já criou.
Com ele, podemos resolver todos os tipos de problemas. Seremos capazes de nos expressar de maneiras novas e criativas. Vamos criar coisas incríveis uns para os outros, para nós mesmos, para o mundo, para esta história humana que se desenrola. Isso é novo, e qualquer coisa nova vem com a mudança, e a mudança nem sempre é suave.
P: Quando vai aparecer e como sabemos que vai aparecer? **
Mira Murati: Provavelmente na próxima década, mas isso é um pouco complicado. Costumamos falar sobre inteligência, sobre como ela é inteligente, sobre se é consciente, senciente e assim por diante, mas essas afirmações não são inteiramente verdadeiras. Porque definem a nossa própria inteligência, e o que estamos a construir é ligeiramente diferente.
Mira Murati, Diretor de Tecnologia da OpenAI
P: Algumas pessoas não estão satisfeitas com alguns dos dados que você usa para treinar determinados modelos. Por exemplo: Hollywood, editoras. O que você está fazendo em relação aos dados quando está trabalhando no modelo? **
Sam Altman: Em primeiro lugar, obviamente só usamos dados que outras pessoas permitem. Um dos desafios é que diferentes tipos de dados têm proprietários muito diferentes. Então, estamos tentando muitas coisas. Estamos construindo parcerias diversificadas e pensamos, como qualquer novo campo, que encontraremos algo que se torne o novo padrão.
Além disso, à medida que esses modelos se tornam mais inteligentes e capazes, precisaremos de cada vez menos dados de treinamento. Acho que, por causa dos avanços tecnológicos que estamos fazendo, a conversa sobre dados e a forma de tudo isso vai mudar.
P: Os editores querem pagar pelos dados. Será que o futuro desta corrida será quem pagará mais pelos melhores dados? **
Sam Altman: Não, era exatamente isso que eu estava tentando dizer. O que as pessoas realmente gostam no modelo GPT, fundamentalmente, não é que ele conheça conhecimentos específicos. Existem melhores formas de encontrar este conhecimento. É que tem essa capacidade de raciocínio juvenil, e vai ficar cada vez melhor. É disso que se trata realmente.
Altman: Eu não quero que a IA seja íntima com os seres humanos**
P: Vamos construir um relacionamento profundo com esses robôs no futuro? **
Mira Murati: Será uma relação importante. Porque os sistemas que estamos a construir estarão em todo o lado: na sua casa, no seu ambiente educativo, no seu ambiente de trabalho e até mesmo enquanto se diverte.
É por isso que é realmente muito importante acertar. Devemos projetar cuidadosamente essa interação para que, em última análise, melhore a experiência, a torne divertida, aumente a produtividade e aumente a criatividade.
Também queremos ter certeza de que, do lado do produto, temos um senso de controle sobre esses sistemas, que podemos direcioná-los a fazer o que queremos que eles façam, e que a saída seja confiável. À medida que ele aprende mais sobre suas preferências, o que você gosta, o que você faz e as habilidades do modelo melhoram, ele se tornará mais personalizado.
E não é apenas um sistema. Você pode ter muitos sistemas personalizados para áreas e tarefas específicas.
P: Grande responsabilidade. Você controlará os amigos das pessoas e talvez se torne amante das pessoas. O que você acha desse controle? **
Sam Altman: Não seremos os únicos jogadores aqui. Haverá muita gente envolvida. Portanto, podemos "empurrar a onda" na trajetória do desenvolvimento tecnológico. Mas:
a) Acreditamos realmente que a decisão pertence à humanidade, à sociedade como um todo;
b) Seremos aqui um dos muitos intervenientes na construção de sistemas complexos. Haverá produtos concorrentes que oferecem serviços diferentes, haverá diferentes tipos de defensores e opositores sociais e haverá questões regulatórias.
Pessoalmente, estou profundamente preocupado com esta visão do futuro, porque, no futuro, todos estarão mais próximos dos seus amigos da IA, ainda mais próximos do que os amigos humanos. Eu, pessoalmente, não quero isso. Acho que outras pessoas vão querer isso, e algumas pessoas vão construir algo assim. Se é isso que o mundo quer, e achamos que faz sentido, vamos fazê-lo.
IA segura não nasce no laboratório
P: Agora temos um chatbot simples. Dissipamos o medo da inteligência artificial que agora é generalizado? **
Sam Altman: Não é preciso muita imaginação para pensar em situações que justifiquem alta vigilância. Mais uma vez, estamos fazendo isso porque estamos muito entusiasmados com as ótimas perspetivas e o impacto incrivelmente positivo. Seria um fracasso moral não persegui-los para a humanidade. Mas temos de enfrentar – e isto acontece com muitas outras tecnologias – os inconvenientes que daí advêm.
Isto significa que tem de considerar os riscos. Tentará medir as suas capacidades e tentar estruturar a sua tecnologia de forma a reduzir os riscos. Então, quando você diz "Ei, esta é uma nova tecnologia de segurança", você a dá a outra pessoa.
P: Quais existem? **
Mira Murati: Não é uma solução única. De dados a modelos, passando por ferramentas no produto e, claro, política. E então pense em toda a infraestrutura regulatória e social para acompanhar essas tecnologias que estamos construindo.
Portanto, quando você pensa sobre quais medidas de segurança específicas estão ao longo do caminho, a primeira coisa é implantar a tecnologia primeiro e lentamente entrar em contato com a realidade; Entenda como isso afeta alguns casos de uso e indústrias do mundo real e realmente aborde o impacto. Quer se trate de regulamentação ou direitos de autor, seja qual for o impacto, você realmente tem que absorver esses impactos, lidar com eles e, em seguida, continuar a desenvolver mais e mais capacidades. Eu não acho que construir tecnologia no laboratório, construí-la no vácuo-—— não estar em contato com o mundo real, não estar em contato com o atrito do mundo real – seja uma boa maneira de realmente implantar a tecnologia com segurança.
Sam Altman: O ponto levantado por Mila é muito importante. É muito difícil tornar uma tecnologia "segura" no laboratório. A sociedade usa as coisas de forma diferente e adapta-se de forma diferente. Acho que quanto mais IA implantamos, mais IA o mundo usa, mais segura ela é, e mais podemos decidir coletivamente: "Ei, aqui está uma coisa que é uma tolerância ao risco inaceitável, e outra coisa com a qual as pessoas se preocupam, está totalmente bem." "
Adicionar uma "marca d'água" ao conteúdo de IA não é uma coisa em preto e branco
Neste momento, pelo menos da OpenAI, não há nenhuma ferramenta que me permita digitar uma imagem ou algum texto e perguntar: "Isso é gerado por IA?" Ai, sim? **
Mira Murati: Nossa tecnologia é quase 99% confiável em termos de imagens. Mas ainda estamos testando, ainda é cedo.
P: Isso é algo que você planeja lançar? **
Mira Murati: Sim.
P: As imagens e o texto estão OK? **
Mila Murati: Com palavras, precisamos descobrir o que faz sentido. Para fotos, a pergunta é um pouco mais direta. Muitas vezes fazemos experiências, lançamos algo e recebemos feedback. Às vezes, pegamos de volta, fazemos melhor e lançamos novamente.
Sam Altman: Nem todos têm a mesma opinião sobre o conceito de "marcas d'água" de conteúdo. Há muitas pessoas que realmente não querem que o conteúdo que geram tenha uma marca d'água. Além disso, não é super adaptável a tudo. Por exemplo, talvez você possa marcar imagens com marca d'água, talvez você possa marcar texto mais longo, talvez você não possa marcar texto mais curto.
É por isso que queremos fazer parte do diálogo. Neste momento, estamos dispostos a seguir a vontade coletiva da sociedade. Não acho que seja uma questão a preto e branco.
IA pode exacerbar a desigualdade
P: Estamos prestes a mudar a natureza do nosso trabalho. Há uma grande parte da sociedade que nem sequer participa nesta discussão. Como podemos desenvolver estruturas como esta e voluntariamente fazer algo que realmente leve a um mundo melhor sem deixar os outros para trás?
Mira Murati: Eu concordo completamente com você que esta é a tecnologia final que pode realmente exacerbar a desigualdade e piorar as coisas para nós como seres humanos e civilização. Também pode ser incrível, pode levar a muita criatividade e produtividade, e melhorar o nosso padrão de vida. Talvez muitas pessoas não queiram trabalhar 8 horas ou 100 horas por semana. Talvez queiram trabalhar quatro horas por dia e depois fazer muitas outras coisas.
Isso definitivamente causará muita perturbação na força de trabalho.
Sam Altman: Esta é uma pergunta super importante. Toda revolução tecnológica afeta o mercado de trabalho. Não tenho medo nenhum. Na verdade, acho que é uma coisa boa, acho que é o caminho para progredir. Encontraremos novos e melhores empregos.
Penso que o que temos de enfrentar como sociedade é a velocidade a que isto está a acontecer. Temos de fazer alguma coisa a este respeito. Não basta dar às pessoas um rendimento básico universal. As pessoas precisam de ter autonomia e a capacidade de influenciar tudo, e temos de ser os criadores do futuro juntos.
Como referiu, nem todos participam nestas discussões, mas todos os anos mais participam. Colocar essa ferramenta nas mãos das pessoas e levar o ChatGPT a bilhões de pessoas não só dá às pessoas a chance de pensar sobre o que está por vir e se envolver em conversas, mas também permite que as pessoas usem essa ferramenta para impulsionar o futuro. Isto é muito importante para nós.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Última entrevista do CEO da OpenAI, Altman: Quanto mais pessoas envolvidas em IA, melhor controle da IA
Fonte original: GenAI New World
De acordo com notícias da mídia estrangeira, no mundo do rápido desenvolvimento da inteligência artificial, as discussões sobre o futuro muitas vezes se concentram na chamada "inteligência geral artificial". Nesta fase, a IA terá a capacidade de fazer tudo o que um ser humano pode fazer, e apenas melhor.
Conversas recentes com o CEO da OpenAI, Sam Altman, e a CTO Mira Murati abordaram o tema dos "potenciais benefícios e riscos da AGI".
Aqui estão trechos de suas conversas:
AGI será a melhor ferramenta que a humanidade já criou
P: Porque é que a AGI é um alvo? **
Sam Altman: As duas coisas que serão mais importantes para melhorar a condição humana na próxima década ou décadas são a inteligência abundante e barata: quanto mais poderosa, mais versátil, mais inteligente, melhor. Eu acho que isso é AG. Depois, a segunda é a energia abundante e barata. Se conseguirmos realizar essas duas coisas no mundo, é quase difícil imaginar o quanto mais podemos fazer. Acreditamos firmemente que, se você der às pessoas melhores ferramentas, elas farão coisas que o surpreenderão. Acho que a AGI será a melhor ferramenta que a humanidade já criou.
Com ele, podemos resolver todos os tipos de problemas. Seremos capazes de nos expressar de maneiras novas e criativas. Vamos criar coisas incríveis uns para os outros, para nós mesmos, para o mundo, para esta história humana que se desenrola. Isso é novo, e qualquer coisa nova vem com a mudança, e a mudança nem sempre é suave.
P: Quando vai aparecer e como sabemos que vai aparecer? **
Mira Murati: Provavelmente na próxima década, mas isso é um pouco complicado. Costumamos falar sobre inteligência, sobre como ela é inteligente, sobre se é consciente, senciente e assim por diante, mas essas afirmações não são inteiramente verdadeiras. Porque definem a nossa própria inteligência, e o que estamos a construir é ligeiramente diferente.
P: Algumas pessoas não estão satisfeitas com alguns dos dados que você usa para treinar determinados modelos. Por exemplo: Hollywood, editoras. O que você está fazendo em relação aos dados quando está trabalhando no modelo? **
Sam Altman: Em primeiro lugar, obviamente só usamos dados que outras pessoas permitem. Um dos desafios é que diferentes tipos de dados têm proprietários muito diferentes. Então, estamos tentando muitas coisas. Estamos construindo parcerias diversificadas e pensamos, como qualquer novo campo, que encontraremos algo que se torne o novo padrão.
Além disso, à medida que esses modelos se tornam mais inteligentes e capazes, precisaremos de cada vez menos dados de treinamento. Acho que, por causa dos avanços tecnológicos que estamos fazendo, a conversa sobre dados e a forma de tudo isso vai mudar.
P: Os editores querem pagar pelos dados. Será que o futuro desta corrida será quem pagará mais pelos melhores dados? **
Sam Altman: Não, era exatamente isso que eu estava tentando dizer. O que as pessoas realmente gostam no modelo GPT, fundamentalmente, não é que ele conheça conhecimentos específicos. Existem melhores formas de encontrar este conhecimento. É que tem essa capacidade de raciocínio juvenil, e vai ficar cada vez melhor. É disso que se trata realmente.
Altman: Eu não quero que a IA seja íntima com os seres humanos**
P: Vamos construir um relacionamento profundo com esses robôs no futuro? **
Mira Murati: Será uma relação importante. Porque os sistemas que estamos a construir estarão em todo o lado: na sua casa, no seu ambiente educativo, no seu ambiente de trabalho e até mesmo enquanto se diverte.
É por isso que é realmente muito importante acertar. Devemos projetar cuidadosamente essa interação para que, em última análise, melhore a experiência, a torne divertida, aumente a produtividade e aumente a criatividade.
Também queremos ter certeza de que, do lado do produto, temos um senso de controle sobre esses sistemas, que podemos direcioná-los a fazer o que queremos que eles façam, e que a saída seja confiável. À medida que ele aprende mais sobre suas preferências, o que você gosta, o que você faz e as habilidades do modelo melhoram, ele se tornará mais personalizado.
E não é apenas um sistema. Você pode ter muitos sistemas personalizados para áreas e tarefas específicas.
P: Grande responsabilidade. Você controlará os amigos das pessoas e talvez se torne amante das pessoas. O que você acha desse controle? **
Sam Altman: Não seremos os únicos jogadores aqui. Haverá muita gente envolvida. Portanto, podemos "empurrar a onda" na trajetória do desenvolvimento tecnológico. Mas:
a) Acreditamos realmente que a decisão pertence à humanidade, à sociedade como um todo;
b) Seremos aqui um dos muitos intervenientes na construção de sistemas complexos. Haverá produtos concorrentes que oferecem serviços diferentes, haverá diferentes tipos de defensores e opositores sociais e haverá questões regulatórias.
Pessoalmente, estou profundamente preocupado com esta visão do futuro, porque, no futuro, todos estarão mais próximos dos seus amigos da IA, ainda mais próximos do que os amigos humanos. Eu, pessoalmente, não quero isso. Acho que outras pessoas vão querer isso, e algumas pessoas vão construir algo assim. Se é isso que o mundo quer, e achamos que faz sentido, vamos fazê-lo.
IA segura não nasce no laboratório
P: Agora temos um chatbot simples. Dissipamos o medo da inteligência artificial que agora é generalizado? **
Sam Altman: Não é preciso muita imaginação para pensar em situações que justifiquem alta vigilância. Mais uma vez, estamos fazendo isso porque estamos muito entusiasmados com as ótimas perspetivas e o impacto incrivelmente positivo. Seria um fracasso moral não persegui-los para a humanidade. Mas temos de enfrentar – e isto acontece com muitas outras tecnologias – os inconvenientes que daí advêm.
Isto significa que tem de considerar os riscos. Tentará medir as suas capacidades e tentar estruturar a sua tecnologia de forma a reduzir os riscos. Então, quando você diz "Ei, esta é uma nova tecnologia de segurança", você a dá a outra pessoa.
P: Quais existem? **
Mira Murati: Não é uma solução única. De dados a modelos, passando por ferramentas no produto e, claro, política. E então pense em toda a infraestrutura regulatória e social para acompanhar essas tecnologias que estamos construindo.
Portanto, quando você pensa sobre quais medidas de segurança específicas estão ao longo do caminho, a primeira coisa é implantar a tecnologia primeiro e lentamente entrar em contato com a realidade; Entenda como isso afeta alguns casos de uso e indústrias do mundo real e realmente aborde o impacto. Quer se trate de regulamentação ou direitos de autor, seja qual for o impacto, você realmente tem que absorver esses impactos, lidar com eles e, em seguida, continuar a desenvolver mais e mais capacidades. Eu não acho que construir tecnologia no laboratório, construí-la no vácuo-—— não estar em contato com o mundo real, não estar em contato com o atrito do mundo real – seja uma boa maneira de realmente implantar a tecnologia com segurança.
Sam Altman: O ponto levantado por Mila é muito importante. É muito difícil tornar uma tecnologia "segura" no laboratório. A sociedade usa as coisas de forma diferente e adapta-se de forma diferente. Acho que quanto mais IA implantamos, mais IA o mundo usa, mais segura ela é, e mais podemos decidir coletivamente: "Ei, aqui está uma coisa que é uma tolerância ao risco inaceitável, e outra coisa com a qual as pessoas se preocupam, está totalmente bem." "
Adicionar uma "marca d'água" ao conteúdo de IA não é uma coisa em preto e branco
Neste momento, pelo menos da OpenAI, não há nenhuma ferramenta que me permita digitar uma imagem ou algum texto e perguntar: "Isso é gerado por IA?" Ai, sim? **
Mira Murati: Nossa tecnologia é quase 99% confiável em termos de imagens. Mas ainda estamos testando, ainda é cedo.
P: Isso é algo que você planeja lançar? **
Mira Murati: Sim.
P: As imagens e o texto estão OK? **
Mila Murati: Com palavras, precisamos descobrir o que faz sentido. Para fotos, a pergunta é um pouco mais direta. Muitas vezes fazemos experiências, lançamos algo e recebemos feedback. Às vezes, pegamos de volta, fazemos melhor e lançamos novamente.
Sam Altman: Nem todos têm a mesma opinião sobre o conceito de "marcas d'água" de conteúdo. Há muitas pessoas que realmente não querem que o conteúdo que geram tenha uma marca d'água. Além disso, não é super adaptável a tudo. Por exemplo, talvez você possa marcar imagens com marca d'água, talvez você possa marcar texto mais longo, talvez você não possa marcar texto mais curto.
É por isso que queremos fazer parte do diálogo. Neste momento, estamos dispostos a seguir a vontade coletiva da sociedade. Não acho que seja uma questão a preto e branco.
IA pode exacerbar a desigualdade
P: Estamos prestes a mudar a natureza do nosso trabalho. Há uma grande parte da sociedade que nem sequer participa nesta discussão. Como podemos desenvolver estruturas como esta e voluntariamente fazer algo que realmente leve a um mundo melhor sem deixar os outros para trás?
Mira Murati: Eu concordo completamente com você que esta é a tecnologia final que pode realmente exacerbar a desigualdade e piorar as coisas para nós como seres humanos e civilização. Também pode ser incrível, pode levar a muita criatividade e produtividade, e melhorar o nosso padrão de vida. Talvez muitas pessoas não queiram trabalhar 8 horas ou 100 horas por semana. Talvez queiram trabalhar quatro horas por dia e depois fazer muitas outras coisas.
Isso definitivamente causará muita perturbação na força de trabalho.
Sam Altman: Esta é uma pergunta super importante. Toda revolução tecnológica afeta o mercado de trabalho. Não tenho medo nenhum. Na verdade, acho que é uma coisa boa, acho que é o caminho para progredir. Encontraremos novos e melhores empregos.
Penso que o que temos de enfrentar como sociedade é a velocidade a que isto está a acontecer. Temos de fazer alguma coisa a este respeito. Não basta dar às pessoas um rendimento básico universal. As pessoas precisam de ter autonomia e a capacidade de influenciar tudo, e temos de ser os criadores do futuro juntos.
Como referiu, nem todos participam nestas discussões, mas todos os anos mais participam. Colocar essa ferramenta nas mãos das pessoas e levar o ChatGPT a bilhões de pessoas não só dá às pessoas a chance de pensar sobre o que está por vir e se envolver em conversas, mas também permite que as pessoas usem essa ferramenta para impulsionar o futuro. Isto é muito importante para nós.