Fonte da imagem: Gerada pela ferramenta Unbounded AI
É mais um verão de clima extremo, com ondas de calor sem precedentes, incêndios florestais e inundações atingindo países ao redor do mundo. Para enfrentar o desafio de prever com precisão esse clima extremo, a gigante de semicondutores Nvidia está construindo "gêmeos digitais" de todo o planeta movidos a inteligência artificial.
O gêmeo digital, chamado Earth-2, usará as previsões da FourCastNet. FourCastNet é um modelo de inteligência artificial que usa dezenas de terabytes de dados do sistema terrestre para prever o clima nas próximas duas semanas com mais rapidez e precisão do que os métodos de previsão atuais.
Um sistema típico de previsão do tempo é capaz de gerar cerca de 50 previsões para a próxima semana. E o FourCastNet pode prever milhares de possibilidades, capturando com precisão riscos de desastres raros, mas mortais, dando às populações vulneráveis um tempo valioso para se preparar e evacuar.
A tão esperada revolução na modelagem climática é apenas o começo. Com o advento da inteligência artificial, a ciência está prestes a ficar mais empolgante e, de certa forma, mais difícil de reconhecer. Os efeitos dessa mudança irão muito além do laboratório; eles afetarão a todos nós.
Se adotarmos a estratégia certa para abordar os problemas mais prementes da ciência com regulamentação sólida e suporte adequado para usos inovadores da IA, a IA pode reescrever o processo científico. Podemos construir um futuro no qual as ferramentas com IA não apenas nos libertem do trabalho estúpido e demorado, mas também nos guiem para invenções e descobertas criativas, incentivando avanços que, de outra forma, levariam décadas para serem alcançados.
Nos últimos meses, a inteligência artificial tornou-se quase sinônimo de grandes modelos de linguagem, ou LLMs, mas na ciência existem muitas arquiteturas de modelos diferentes que podem ter um impacto ainda maior. Grande parte do progresso da ciência na última década foi feito por meio de pequenos modelos "clássicos" que se concentram em problemas específicos. Esses modelos levaram a melhorias profundas. Mais recentemente, modelos de aprendizado profundo em grande escala que começaram a incorporar conhecimento entre domínios e IA generativa expandiram o alcance do que é possível.
Por exemplo, cientistas da Universidade McMaster e do Instituto de Tecnologia de Massachusetts usaram modelos de IA para identificar antibióticos para combater um patógeno que a Organização Mundial da Saúde diz ser uma das bactérias resistentes a antibióticos mais perigosas do mundo para pacientes hospitalares. Além disso, o modelo DeepMind do Google pode controlar o plasma em reações de fusão nuclear, aproximando-nos de uma revolução de energia limpa. E na área da saúde, a Food and Drug Administration dos EUA aprovou 523 dispositivos que usam inteligência artificial, 75% dos quais são usados em radiologia.
Reimaginando a ciência
Essencialmente, o processo científico que aprendemos na escola primária permanecerá o mesmo: conduzir uma pesquisa de fundo, identificar uma hipótese, testá-la com um experimento, analisar os dados coletados e chegar a uma conclusão. Mas a inteligência artificial tem o potencial de revolucionar a aparência desses componentes no futuro.
A IA já está mudando a forma como alguns cientistas conduzem revisões de literatura. Ferramentas como PaperQA e Elicit alavancam LLMs para digitalizar bancos de dados de artigos e produzir resumos concisos e precisos da literatura existente - incluindo citações.
Uma vez concluída a revisão da literatura, os cientistas formulam hipóteses a serem testadas. O trabalho principal dos LLMs é prever a próxima palavra em uma frase, até frases e parágrafos completos. Essa técnica torna os LLMs particularmente adequados para lidar com a escala inerente às hierarquias científicas e permite prever a próxima grande descoberta em física ou biologia.
A IA também pode expandir as redes de pesquisa hipotéticas e reduzi-las mais rapidamente. Assim, as ferramentas de IA podem ajudar a formular hipóteses mais fortes, como modelos que sugerem novos candidatos a medicamentos mais promissores. As simulações agora são executadas em ordens de magnitude mais rápidas do que há alguns anos, permitindo que os cientistas experimentem mais opções de design em simulações antes de realizar experimentos no mundo real.
Por exemplo, cientistas do Instituto de Tecnologia da Califórnia usaram modelos de simulação de fluidos de inteligência artificial para projetar automaticamente um cateter melhor que pode impedir o refluxo bacteriano e causar infecção. Essa capacidade mudará fundamentalmente o processo incremental de descoberta científica, permitindo que os pesquisadores projetem soluções ideais desde o início, ao contrário do que vimos há anos com inovações de filamentos no design de lâmpadas. , progredindo por uma longa cadeia de designs refinados incrementalmente.
Entrando na etapa experimental, a inteligência artificial poderá realizar experimentos de forma mais rápida, barata e em maior escala. Por exemplo, podemos construir máquinas alimentadas por inteligência artificial, com centenas de microtúbulos funcionando dia e noite, criando amostras a uma velocidade que os humanos não conseguem igualar. Em vez de se limitar a seis experimentos, os cientistas podem usar ferramentas de IA para realizar mil experimentos.
Os cientistas preocupados com a próxima concessão, publicação ou processo de posse não estarão mais presos ao experimento seguro com maior chance de sucesso; eles estarão livres para buscar hipóteses mais ousadas e interdisciplinares. Por exemplo, ao avaliar novas moléculas, os pesquisadores tendem a se ater a candidatos estruturalmente semelhantes aos que já conhecemos, mas os modelos de IA não precisam ter os mesmos vieses e limitações.
Eventualmente, grande parte da ciência será conduzida em “laboratórios autônomos” – plataformas robóticas autônomas combinadas com inteligência artificial. Aqui, podemos trazer as capacidades da inteligência artificial do mundo digital para o mundo físico. Esses laboratórios automatizados já estão surgindo em empresas como Emerald Cloud Lab e Artificial, e até mesmo no Argonne National Laboratory.
Finalmente, na fase de análise e resumo, o laboratório automatizado irá além da automação e usará o LLM para interpretar e recomendar o próximo experimento a ser executado com base nos resultados experimentais produzidos. Então, como parceiro no processo de pesquisa, o assistente de laboratório de IA pode solicitar suprimentos para substituir os usados em experimentos anteriores e configurar e executar o próximo experimento recomendado durante a noite. Os resultados ficaram prontos enquanto os experimentadores ainda dormiam em casa.
Possibilidades e Limitações
Jovens pesquisadores podem estremecer de nervosismo em seus assentos com a perspectiva. Felizmente, os novos empregos emergentes dessa revolução podem ser mais criativos e menos irracionais do que a maioria dos trabalhos de laboratório atuais.
As ferramentas de IA podem diminuir as barreiras à entrada de novos cientistas e abrir oportunidades para aqueles tradicionalmente excluídos do campo. Com LLMs capazes de ajudar na construção de código, os alunos STEM não precisarão mais dominar linguagens de codificação misteriosas, abrindo a porta da torre de marfim para novos talentos não tradicionais e tornando mais fácil para os cientistas obter exposição a campos fora dos seus. Em breve, os LLMs especialmente treinados poderão ir além do fornecimento de primeiros rascunhos de trabalhos escritos, como propostas de financiamento, e poderão ser desenvolvidos para fornecer revisões "peer" de novos artigos ao lado de revisores humanos.
As ferramentas de IA têm um potencial incrível, mas devemos reconhecer onde o contato humano ainda é importante e não exagerar. Por exemplo, não é fácil mesclar com sucesso inteligência artificial e robótica por meio de laboratórios automatizados. Grande parte do conhecimento tácito que os cientistas aprendem no laboratório é difícil de transferir para a robótica movida a IA. Da mesma forma, devemos estar cientes das limitações dos LLMs atuais, especialmente alucinações, antes de dar a eles muita papelada, pesquisa e análise.
Empresas como OpenAI e DeepMind ainda estão liderando o ataque com novos avanços, modelos e trabalhos de pesquisa, mas o atual domínio da indústria não durará para sempre. Até agora, o DeepMind se destacou em focar em problemas bem definidos com metas e métricas claras. Seu sucesso mais famoso foi na competição bienal Avaliação Crítica da Previsão da Estrutura, na qual a equipe de pesquisa previu a forma exata de uma proteína com base em sua sequência de aminoácidos.
De 2006 a 2016, a pontuação média para a categoria mais difícil ficou em torno de 30 a 40 em uma escala CASP de 1 a 100. De repente, em 2018, o modelo AlphaFold da DeepMind marcou 58 pontos. Dois anos depois, uma versão atualizada chamada AlphaFold2 marcou 87 pontos, deixando seus rivais humanos ainda mais para trás.
Graças aos recursos de código aberto, estamos começando a ver um padrão em que a indústria atinge certos parâmetros de referência e, em seguida, a academia intervém para refinar o modelo. Depois que o DeepMind lançou o AlphaFold, Minkyung Baek e David Baker, da Universidade de Washington, lançaram o RoseTTAFold, que usa a estrutura do DeepMind para prever a estrutura de complexos de proteínas, em vez das estruturas de proteínas únicas que o AlphaFold poderia inicialmente manipular. Além disso, os acadêmicos estão mais protegidos das pressões competitivas do mercado, para que possam se aventurar além dos problemas bem definidos e dos sucessos mensuráveis que atraíram a DeepMind.
Além de alcançar novos patamares, a IA pode ajudar a validar o que já sabemos, abordando a crise de replicabilidade científica. Cerca de 70% dos cientistas relataram que não conseguiram replicar os experimentos de outro cientista - um número deprimente. Como a IA reduz o custo e o esforço de realizar experimentos, em alguns casos será mais fácil replicar resultados ou tirar conclusões que não podem ser replicadas, ajudando a aumentar a confiança na ciência.
A chave para replicabilidade e confiança é a transparência. Em um mundo ideal, tudo na ciência seria aberto, desde artigos sem paywalls até dados, códigos e modelos de código aberto. Infelizmente, devido aos perigos que tais modelos podem representar, nem sempre é prático abrir o código de todos os modelos. Em muitos casos, os riscos da transparência total superam os benefícios da confiança e da justiça. Ainda assim, desde que possamos ser transparentes sobre os modelos - especialmente modelos clássicos de IA com usos mais limitados - devemos abrir o código deles.
Importância da regulamentação
Em todas essas áreas, as limitações e riscos inerentes da IA devem ser lembrados. A IA é uma ferramenta tão poderosa porque permite que os humanos realizem mais com menos tempo, menos educação e menos equipamento. Mas essas capacidades também o tornam uma arma perigosa que pode cair em mãos erradas. Andrew White, professor da Universidade de Rochester, assinou contrato com a OpenAI para participar do teste do "time vermelho", que pode expor os riscos do GPT-4 antes de seu lançamento. Usando modelos de linguagem e alimentando-os com ferramentas, White descobriu que o GPT-4 poderia sugerir compostos perigosos e até mesmo encomendá-los de fornecedores de produtos químicos. Para testar o processo, ele enviou um composto de teste (seguro) para sua casa na semana seguinte. A OpenAI disse que usou as descobertas de White para ajustar o GPT-4 antes de ser lançado.
Mesmo humanos com boas intenções ainda podem levar a IA a produzir resultados ruins. Devemos nos preocupar menos em criar um Exterminador do Futuro e, como diz o cientista da computação Stuart Russell, devemos nos preocupar mais em nos tornarmos o Rei Midas. O rei queria que tudo em que tocasse virasse ouro e, por causa disso, um abraço acidental matou sua própria filha.
Não temos nenhum mecanismo para fazer com que uma IA mude seus objetivos, mesmo que ela responda a seus objetivos de maneiras que não podemos prever. Uma suposição frequentemente citada é que a IA é solicitada a produzir o maior número possível de clipes de papel. Determinado a atingir seu objetivo, o modelo sequestra a rede elétrica e mata qualquer humano que tente detê-lo enquanto os clipes de papel continuam se acumulando. O mundo virou uma bagunça. A IA dá um tapinha na bunda e vai embora; ela fez seu trabalho. (Em homenagem a esse famoso experimento mental, muitos funcionários da OpenAI carregam clipes de papel com a marca).
A OpenAI conseguiu implementar um conjunto impressionante de salvaguardas, mas elas permanecerão em vigor enquanto o GPT-4 estiver alojado nos servidores da OpenAI. Pode chegar o dia em que alguém conseguirá replicar o modelo e colocá-lo em seu próprio servidor. Modelos de ponta como esse precisam ser protegidos para evitar que ladrões destruam as cercas de segurança de IA cuidadosamente adicionadas por seus desenvolvedores originais.
Para lidar com os maus usos deliberados e não intencionais da IA, precisamos de regulamentação sensata e informada de gigantes da tecnologia e modelos de código aberto que não nos impeçam de usar a IA de maneiras que beneficiem a ciência. Enquanto as empresas de tecnologia estão avançando na segurança da IA, os reguladores do governo estão mal preparados para promulgar leis apropriadas e devem fazer mais para ficar a par dos desenvolvimentos mais recentes.
Fora da regulamentação, os governos – juntamente com a filantropia – podem apoiar projetos científicos com alto retorno social, mas pouco retorno financeiro ou incentivo acadêmico. Várias áreas são de particular urgência, incluindo mudança climática, biossegurança e preparação para pandemias. É nessas áreas que mais precisamos da velocidade e escala fornecidas por simulações de IA e laboratórios automatizados.
Na medida em que as considerações de segurança permitirem, os governos também podem ajudar a desenvolver conjuntos de dados grandes e de alta qualidade, como aquele do qual o AlphaFold depende. Conjuntos de dados abertos são bens públicos: eles beneficiam muitos pesquisadores, mas os pesquisadores têm pouco incentivo para criá-los. Governos e organizações filantrópicas podem colaborar com universidades e empresas para identificar grandes desafios na ciência que se beneficiariam com o uso de bancos de dados robustos.
A química, por exemplo, tem uma linguagem que unifica o campo, o que parece ajudar os modelos de IA a analisá-la facilmente. Mas ninguém foi capaz de agregar adequadamente os dados de propriedades moleculares armazenados em dezenas de bancos de dados, negando-nos insights sobre o campo que os modelos de IA poderiam alcançar se tivéssemos apenas uma fonte. Ao mesmo tempo, a biologia carece de dados conhecidos e computáveis nos quais basear a física ou a química, e subcampos como proteínas intrinsecamente desordenadas permanecem misteriosos para nós. Como tal, será necessário um esforço mais concentrado para entender – e até mesmo documentar – os dados para construir um banco de dados abrangente.
O caminho para a adoção generalizada da IA na ciência é longo e temos que fazer muito, desde a construção dos bancos de dados certos até a aplicação das regulamentações corretas, reduzindo o viés nos algoritmos de IA e garantindo o acesso igualitário aos recursos de computação além das fronteiras.
No entanto, este é um momento muito otimista. Mudanças de paradigmas científicos anteriores, como o processo científico ou o surgimento de big data, eram voltadas para dentro e poderiam tornar a ciência mais precisa e organizada. Ao mesmo tempo, a IA é expansiva, permitindo-nos combinar informações de novas maneiras e levando a criatividade científica e o avanço a novos patamares.
Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
Ex-CEO do Google, Eric Schmidt: Como a inteligência artificial mudará a maneira como a pesquisa científica é feita
Escrito por: Eric Schmidt
Fonte: Revisão de Tecnologia do MIT
É mais um verão de clima extremo, com ondas de calor sem precedentes, incêndios florestais e inundações atingindo países ao redor do mundo. Para enfrentar o desafio de prever com precisão esse clima extremo, a gigante de semicondutores Nvidia está construindo "gêmeos digitais" de todo o planeta movidos a inteligência artificial.
O gêmeo digital, chamado Earth-2, usará as previsões da FourCastNet. FourCastNet é um modelo de inteligência artificial que usa dezenas de terabytes de dados do sistema terrestre para prever o clima nas próximas duas semanas com mais rapidez e precisão do que os métodos de previsão atuais.
Um sistema típico de previsão do tempo é capaz de gerar cerca de 50 previsões para a próxima semana. E o FourCastNet pode prever milhares de possibilidades, capturando com precisão riscos de desastres raros, mas mortais, dando às populações vulneráveis um tempo valioso para se preparar e evacuar.
A tão esperada revolução na modelagem climática é apenas o começo. Com o advento da inteligência artificial, a ciência está prestes a ficar mais empolgante e, de certa forma, mais difícil de reconhecer. Os efeitos dessa mudança irão muito além do laboratório; eles afetarão a todos nós.
Se adotarmos a estratégia certa para abordar os problemas mais prementes da ciência com regulamentação sólida e suporte adequado para usos inovadores da IA, a IA pode reescrever o processo científico. Podemos construir um futuro no qual as ferramentas com IA não apenas nos libertem do trabalho estúpido e demorado, mas também nos guiem para invenções e descobertas criativas, incentivando avanços que, de outra forma, levariam décadas para serem alcançados.
Nos últimos meses, a inteligência artificial tornou-se quase sinônimo de grandes modelos de linguagem, ou LLMs, mas na ciência existem muitas arquiteturas de modelos diferentes que podem ter um impacto ainda maior. Grande parte do progresso da ciência na última década foi feito por meio de pequenos modelos "clássicos" que se concentram em problemas específicos. Esses modelos levaram a melhorias profundas. Mais recentemente, modelos de aprendizado profundo em grande escala que começaram a incorporar conhecimento entre domínios e IA generativa expandiram o alcance do que é possível.
Por exemplo, cientistas da Universidade McMaster e do Instituto de Tecnologia de Massachusetts usaram modelos de IA para identificar antibióticos para combater um patógeno que a Organização Mundial da Saúde diz ser uma das bactérias resistentes a antibióticos mais perigosas do mundo para pacientes hospitalares. Além disso, o modelo DeepMind do Google pode controlar o plasma em reações de fusão nuclear, aproximando-nos de uma revolução de energia limpa. E na área da saúde, a Food and Drug Administration dos EUA aprovou 523 dispositivos que usam inteligência artificial, 75% dos quais são usados em radiologia.
Reimaginando a ciência
Essencialmente, o processo científico que aprendemos na escola primária permanecerá o mesmo: conduzir uma pesquisa de fundo, identificar uma hipótese, testá-la com um experimento, analisar os dados coletados e chegar a uma conclusão. Mas a inteligência artificial tem o potencial de revolucionar a aparência desses componentes no futuro.
A IA já está mudando a forma como alguns cientistas conduzem revisões de literatura. Ferramentas como PaperQA e Elicit alavancam LLMs para digitalizar bancos de dados de artigos e produzir resumos concisos e precisos da literatura existente - incluindo citações.
Uma vez concluída a revisão da literatura, os cientistas formulam hipóteses a serem testadas. O trabalho principal dos LLMs é prever a próxima palavra em uma frase, até frases e parágrafos completos. Essa técnica torna os LLMs particularmente adequados para lidar com a escala inerente às hierarquias científicas e permite prever a próxima grande descoberta em física ou biologia.
A IA também pode expandir as redes de pesquisa hipotéticas e reduzi-las mais rapidamente. Assim, as ferramentas de IA podem ajudar a formular hipóteses mais fortes, como modelos que sugerem novos candidatos a medicamentos mais promissores. As simulações agora são executadas em ordens de magnitude mais rápidas do que há alguns anos, permitindo que os cientistas experimentem mais opções de design em simulações antes de realizar experimentos no mundo real.
Por exemplo, cientistas do Instituto de Tecnologia da Califórnia usaram modelos de simulação de fluidos de inteligência artificial para projetar automaticamente um cateter melhor que pode impedir o refluxo bacteriano e causar infecção. Essa capacidade mudará fundamentalmente o processo incremental de descoberta científica, permitindo que os pesquisadores projetem soluções ideais desde o início, ao contrário do que vimos há anos com inovações de filamentos no design de lâmpadas. , progredindo por uma longa cadeia de designs refinados incrementalmente.
Entrando na etapa experimental, a inteligência artificial poderá realizar experimentos de forma mais rápida, barata e em maior escala. Por exemplo, podemos construir máquinas alimentadas por inteligência artificial, com centenas de microtúbulos funcionando dia e noite, criando amostras a uma velocidade que os humanos não conseguem igualar. Em vez de se limitar a seis experimentos, os cientistas podem usar ferramentas de IA para realizar mil experimentos.
Os cientistas preocupados com a próxima concessão, publicação ou processo de posse não estarão mais presos ao experimento seguro com maior chance de sucesso; eles estarão livres para buscar hipóteses mais ousadas e interdisciplinares. Por exemplo, ao avaliar novas moléculas, os pesquisadores tendem a se ater a candidatos estruturalmente semelhantes aos que já conhecemos, mas os modelos de IA não precisam ter os mesmos vieses e limitações.
Eventualmente, grande parte da ciência será conduzida em “laboratórios autônomos” – plataformas robóticas autônomas combinadas com inteligência artificial. Aqui, podemos trazer as capacidades da inteligência artificial do mundo digital para o mundo físico. Esses laboratórios automatizados já estão surgindo em empresas como Emerald Cloud Lab e Artificial, e até mesmo no Argonne National Laboratory.
Finalmente, na fase de análise e resumo, o laboratório automatizado irá além da automação e usará o LLM para interpretar e recomendar o próximo experimento a ser executado com base nos resultados experimentais produzidos. Então, como parceiro no processo de pesquisa, o assistente de laboratório de IA pode solicitar suprimentos para substituir os usados em experimentos anteriores e configurar e executar o próximo experimento recomendado durante a noite. Os resultados ficaram prontos enquanto os experimentadores ainda dormiam em casa.
Possibilidades e Limitações
Jovens pesquisadores podem estremecer de nervosismo em seus assentos com a perspectiva. Felizmente, os novos empregos emergentes dessa revolução podem ser mais criativos e menos irracionais do que a maioria dos trabalhos de laboratório atuais.
As ferramentas de IA podem diminuir as barreiras à entrada de novos cientistas e abrir oportunidades para aqueles tradicionalmente excluídos do campo. Com LLMs capazes de ajudar na construção de código, os alunos STEM não precisarão mais dominar linguagens de codificação misteriosas, abrindo a porta da torre de marfim para novos talentos não tradicionais e tornando mais fácil para os cientistas obter exposição a campos fora dos seus. Em breve, os LLMs especialmente treinados poderão ir além do fornecimento de primeiros rascunhos de trabalhos escritos, como propostas de financiamento, e poderão ser desenvolvidos para fornecer revisões "peer" de novos artigos ao lado de revisores humanos.
As ferramentas de IA têm um potencial incrível, mas devemos reconhecer onde o contato humano ainda é importante e não exagerar. Por exemplo, não é fácil mesclar com sucesso inteligência artificial e robótica por meio de laboratórios automatizados. Grande parte do conhecimento tácito que os cientistas aprendem no laboratório é difícil de transferir para a robótica movida a IA. Da mesma forma, devemos estar cientes das limitações dos LLMs atuais, especialmente alucinações, antes de dar a eles muita papelada, pesquisa e análise.
Empresas como OpenAI e DeepMind ainda estão liderando o ataque com novos avanços, modelos e trabalhos de pesquisa, mas o atual domínio da indústria não durará para sempre. Até agora, o DeepMind se destacou em focar em problemas bem definidos com metas e métricas claras. Seu sucesso mais famoso foi na competição bienal Avaliação Crítica da Previsão da Estrutura, na qual a equipe de pesquisa previu a forma exata de uma proteína com base em sua sequência de aminoácidos.
De 2006 a 2016, a pontuação média para a categoria mais difícil ficou em torno de 30 a 40 em uma escala CASP de 1 a 100. De repente, em 2018, o modelo AlphaFold da DeepMind marcou 58 pontos. Dois anos depois, uma versão atualizada chamada AlphaFold2 marcou 87 pontos, deixando seus rivais humanos ainda mais para trás.
Graças aos recursos de código aberto, estamos começando a ver um padrão em que a indústria atinge certos parâmetros de referência e, em seguida, a academia intervém para refinar o modelo. Depois que o DeepMind lançou o AlphaFold, Minkyung Baek e David Baker, da Universidade de Washington, lançaram o RoseTTAFold, que usa a estrutura do DeepMind para prever a estrutura de complexos de proteínas, em vez das estruturas de proteínas únicas que o AlphaFold poderia inicialmente manipular. Além disso, os acadêmicos estão mais protegidos das pressões competitivas do mercado, para que possam se aventurar além dos problemas bem definidos e dos sucessos mensuráveis que atraíram a DeepMind.
Além de alcançar novos patamares, a IA pode ajudar a validar o que já sabemos, abordando a crise de replicabilidade científica. Cerca de 70% dos cientistas relataram que não conseguiram replicar os experimentos de outro cientista - um número deprimente. Como a IA reduz o custo e o esforço de realizar experimentos, em alguns casos será mais fácil replicar resultados ou tirar conclusões que não podem ser replicadas, ajudando a aumentar a confiança na ciência.
A chave para replicabilidade e confiança é a transparência. Em um mundo ideal, tudo na ciência seria aberto, desde artigos sem paywalls até dados, códigos e modelos de código aberto. Infelizmente, devido aos perigos que tais modelos podem representar, nem sempre é prático abrir o código de todos os modelos. Em muitos casos, os riscos da transparência total superam os benefícios da confiança e da justiça. Ainda assim, desde que possamos ser transparentes sobre os modelos - especialmente modelos clássicos de IA com usos mais limitados - devemos abrir o código deles.
Importância da regulamentação
Em todas essas áreas, as limitações e riscos inerentes da IA devem ser lembrados. A IA é uma ferramenta tão poderosa porque permite que os humanos realizem mais com menos tempo, menos educação e menos equipamento. Mas essas capacidades também o tornam uma arma perigosa que pode cair em mãos erradas. Andrew White, professor da Universidade de Rochester, assinou contrato com a OpenAI para participar do teste do "time vermelho", que pode expor os riscos do GPT-4 antes de seu lançamento. Usando modelos de linguagem e alimentando-os com ferramentas, White descobriu que o GPT-4 poderia sugerir compostos perigosos e até mesmo encomendá-los de fornecedores de produtos químicos. Para testar o processo, ele enviou um composto de teste (seguro) para sua casa na semana seguinte. A OpenAI disse que usou as descobertas de White para ajustar o GPT-4 antes de ser lançado.
Mesmo humanos com boas intenções ainda podem levar a IA a produzir resultados ruins. Devemos nos preocupar menos em criar um Exterminador do Futuro e, como diz o cientista da computação Stuart Russell, devemos nos preocupar mais em nos tornarmos o Rei Midas. O rei queria que tudo em que tocasse virasse ouro e, por causa disso, um abraço acidental matou sua própria filha.
Não temos nenhum mecanismo para fazer com que uma IA mude seus objetivos, mesmo que ela responda a seus objetivos de maneiras que não podemos prever. Uma suposição frequentemente citada é que a IA é solicitada a produzir o maior número possível de clipes de papel. Determinado a atingir seu objetivo, o modelo sequestra a rede elétrica e mata qualquer humano que tente detê-lo enquanto os clipes de papel continuam se acumulando. O mundo virou uma bagunça. A IA dá um tapinha na bunda e vai embora; ela fez seu trabalho. (Em homenagem a esse famoso experimento mental, muitos funcionários da OpenAI carregam clipes de papel com a marca).
A OpenAI conseguiu implementar um conjunto impressionante de salvaguardas, mas elas permanecerão em vigor enquanto o GPT-4 estiver alojado nos servidores da OpenAI. Pode chegar o dia em que alguém conseguirá replicar o modelo e colocá-lo em seu próprio servidor. Modelos de ponta como esse precisam ser protegidos para evitar que ladrões destruam as cercas de segurança de IA cuidadosamente adicionadas por seus desenvolvedores originais.
Para lidar com os maus usos deliberados e não intencionais da IA, precisamos de regulamentação sensata e informada de gigantes da tecnologia e modelos de código aberto que não nos impeçam de usar a IA de maneiras que beneficiem a ciência. Enquanto as empresas de tecnologia estão avançando na segurança da IA, os reguladores do governo estão mal preparados para promulgar leis apropriadas e devem fazer mais para ficar a par dos desenvolvimentos mais recentes.
Fora da regulamentação, os governos – juntamente com a filantropia – podem apoiar projetos científicos com alto retorno social, mas pouco retorno financeiro ou incentivo acadêmico. Várias áreas são de particular urgência, incluindo mudança climática, biossegurança e preparação para pandemias. É nessas áreas que mais precisamos da velocidade e escala fornecidas por simulações de IA e laboratórios automatizados.
Na medida em que as considerações de segurança permitirem, os governos também podem ajudar a desenvolver conjuntos de dados grandes e de alta qualidade, como aquele do qual o AlphaFold depende. Conjuntos de dados abertos são bens públicos: eles beneficiam muitos pesquisadores, mas os pesquisadores têm pouco incentivo para criá-los. Governos e organizações filantrópicas podem colaborar com universidades e empresas para identificar grandes desafios na ciência que se beneficiariam com o uso de bancos de dados robustos.
A química, por exemplo, tem uma linguagem que unifica o campo, o que parece ajudar os modelos de IA a analisá-la facilmente. Mas ninguém foi capaz de agregar adequadamente os dados de propriedades moleculares armazenados em dezenas de bancos de dados, negando-nos insights sobre o campo que os modelos de IA poderiam alcançar se tivéssemos apenas uma fonte. Ao mesmo tempo, a biologia carece de dados conhecidos e computáveis nos quais basear a física ou a química, e subcampos como proteínas intrinsecamente desordenadas permanecem misteriosos para nós. Como tal, será necessário um esforço mais concentrado para entender – e até mesmo documentar – os dados para construir um banco de dados abrangente.
O caminho para a adoção generalizada da IA na ciência é longo e temos que fazer muito, desde a construção dos bancos de dados certos até a aplicação das regulamentações corretas, reduzindo o viés nos algoritmos de IA e garantindo o acesso igualitário aos recursos de computação além das fronteiras.
No entanto, este é um momento muito otimista. Mudanças de paradigmas científicos anteriores, como o processo científico ou o surgimento de big data, eram voltadas para dentro e poderiam tornar a ciência mais precisa e organizada. Ao mesmo tempo, a IA é expansiva, permitindo-nos combinar informações de novas maneiras e levando a criatividade científica e o avanço a novos patamares.