Джерело зображення: створено інструментом Unbounded AI
Це ще одне літо екстремальної погоди, з безпрецедентною спекою, лісовими пожежами та повенями, які вражають країни по всьому світу. Щоб впоратися з проблемою точного прогнозування такої екстремальної погоди, напівпровідниковий гігант Nvidia створює «цифрових двійників» усієї планети на основі штучного інтелекту.
Цифровий двійник під назвою Земля-2 використовуватиме прогнози FourCastNet. FourCastNet — це модель штучного інтелекту, яка використовує десятки терабайт даних земної системи, щоб передбачити погоду на наступні два тижні швидше й точніше, ніж поточні методи прогнозування.
Типова система прогнозування погоди здатна генерувати близько 50 прогнозів на тиждень вперед. І FourCastNet може передбачити тисячі можливостей, точно фіксуючи рідкісні, але смертельні ризики лиха, даючи вразливому населенню цінний час для підготовки та евакуації.
Довгоочікувана революція в моделюванні клімату – це лише початок. З появою штучного інтелекту наука стане ще більш захоплюючою — і певним чином її важче розпізнати. Наслідки цієї зміни вийдуть далеко за межі лабораторії; вони вплинуть на всіх нас.
Якщо ми приймемо правильну стратегію вирішення найнагальніших проблем науки за допомогою раціонального регулювання та відповідної підтримки інноваційного використання ШІ, ШІ зможе переписати науковий процес. Ми можемо побудувати майбутнє, у якому інструменти на основі штучного інтелекту не лише звільнять нас від безглуздої та трудомісткої праці, але й направлять нас до творчих винаходів і відкриттів, заохочуючи прориви, на досягнення яких за інших умов знадобилися б десятиліття.
Останніми місяцями штучний інтелект став майже синонімом великих мовних моделей, або LLM, але в науці існує багато різних архітектур моделей, які можуть мати ще більший вплив. Значна частина прогресу в науці за останнє десятиліття була досягнута завдяки невеликим «класичним» моделям, які зосереджені на конкретних проблемах. Ці моделі призвели до значних покращень. Зовсім недавно широкомасштабні моделі глибокого навчання, які почали включати міждоменні знання та генеративний штучний інтелект, розширили діапазон того, що можливо.
Наприклад, вчені з Університету Макмастера та Массачусетського технологічного інституту використовували моделі штучного інтелекту, щоб ідентифікувати антибіотики для боротьби з патогеном, який, за словами Всесвітньої організації охорони здоров’я, є однією з найнебезпечніших у світі бактерій, стійких до антибіотиків для пацієнтів лікарень. Крім того, модель Google DeepMind може контролювати плазму в реакціях ядерного синтезу, наближаючи нас до революції чистої енергії. У сфері охорони здоров’я Управління з контролю за продуктами й ліками США схвалило 523 пристрої, які використовують штучний інтелект, 75 відсотків із яких використовуються в радіології.
Переосмислення науки
По суті, науковий процес, якому ми навчилися в початковій школі, залишиться незмінним: провести фонове дослідження, визначити гіпотезу, перевірити її за допомогою експерименту, проаналізувати зібрані дані та зробити висновок. Але штучний інтелект має потенціал кардинально змінити вигляд цих компонентів у майбутньому.
ШІ вже змінює те, як деякі вчені проводять огляди літератури. Такі інструменти, як PaperQA та Elicit, використовують LLM для сканування баз даних статей і створення стислого й точного резюме наявної літератури, включаючи цитати.
Після завершення огляду літератури вчені висувають гіпотези для перевірки. Основна робота LLM — передбачити наступне слово в реченні, аж до повних речень і абзаців. Ця техніка робить LLM особливо придатними для вирішення масштабу, властивого науковим ієрархіям, і дозволяє їм передбачити наступне велике відкриття у фізиці чи біології.
ШІ також може швидше розширювати гіпотетичні пошукові мережі та звужувати пошукові мережі. Таким чином, інструменти штучного інтелекту можуть допомогти сформулювати сильніші гіпотези, такі як моделі, які пропонують більш перспективні нові кандидати на ліки. Симуляції тепер виконуються на порядки швидше, ніж кілька років тому, що дозволяє вченим випробувати більше варіантів дизайну в моделях перед проведенням експериментів у реальному світі.
Наприклад, вчені з Каліфорнійського технологічного інституту використовували симуляційні моделі рідини штучного інтелекту для автоматичного проектування кращого катетера, який може запобігти зворотному потоку бактерій і спричинити інфекцію. Ця можливість докорінно змінить поступовий процес наукових відкриттів, дозволяючи дослідникам розробляти оптимальні рішення з самого початку, на відміну від того, що ми бачили роками з інноваційними розжареннями в дизайні лампочок. , що просуваються через довгий ланцюг поступового вдосконалення дизайну.
Перейшовши на експериментальний етап, штучний інтелект зможе проводити експерименти швидше, дешевше та в більших масштабах. Наприклад, ми можемо створювати машини на основі штучного інтелекту, із сотнями мікротрубочок, що працюють день і ніч, створюючи зразки зі швидкістю, з якою люди не можуть зрівнятися. Замість того щоб обмежуватися шістьма експериментами, вчені можуть використовувати інструменти ШІ для проведення тисячі експериментів.
Науковці, які хвилюються щодо наступного гранту, публікації чи процесу перебування на посаді, більше не будуть прив’язані до безпечного експерименту з найвищими шансами на успіх; вони зможуть вільно висувати сміливіші, більш міждисциплінарні гіпотези. Наприклад, при оцінці нових молекул дослідники, як правило, дотримуються кандидатів, структурно схожих на ті, які ми вже знаємо, але моделі штучного інтелекту не обов’язково мають однакові упередження та обмеження.
Згодом значна частина наукових досліджень буде проводитися в «автономних лабораторіях» — автономних роботизованих платформах у поєднанні зі штучним інтелектом. Тут ми можемо перенести можливості штучного інтелекту з цифрової сфери у фізичний світ. Такі автоматизовані лабораторії вже з’являються в таких компаніях, як Emerald Cloud Lab і Artificial, і навіть у Аргоннській національній лабораторії.
Нарешті, на етапі аналізу та підведення підсумків автоматизована лабораторія вийде за рамки автоматизації та використовуватиме LLM для інтерпретації та рекомендації щодо проведення наступного експерименту на основі отриманих експериментальних результатів. Потім, як партнер у дослідницькому процесі, лаборант зі штучним інтелектом може замовити матеріали для заміни тих, що використовувалися в попередніх експериментах, а також налаштувати та запустити наступний рекомендований експеримент протягом ночі. Результати були готові, коли експериментатори ще спали вдома.
Можливості та обмеження
Молоді дослідники можуть нервово тремтіти на своїх місцях від такої перспективи. На щастя, нові робочі місця, які з’являються в результаті цієї революції, можуть бути більш творчими та менш безглуздими, ніж більшість сучасних лабораторних робіт.
Інструменти штучного інтелекту можуть зменшити бар’єри для нових вчених і відкрити можливості для тих, хто традиційно виключений із цієї галузі. Завдяки LLM, здатним допомагати у створенні коду, студентам STEM більше не потрібно буде опановувати таємні мови кодування, що відкриває двері у вежі зі слонової кістки для нових, нетрадиційних талантів і полегшує вченим доступ до галузей, які не належать їм. Невдовзі спеціально підготовлені магістри права можуть вийти за рамки надання перших чернеток письмових робіт, таких як пропозиції грантів, і можуть бути розроблені для надання «колегійного» рецензування нових документів разом із рецензентами.
Інструменти штучного інтелекту мають неймовірний потенціал, але ми повинні розуміти, де людський контакт все ще має значення, і не перевищувати його. Наприклад, непросто успішно об’єднати штучний інтелект і робототехніку за допомогою автоматизованих лабораторій. Значну частину неявних знань, які вчені вивчають у лабораторії, важко перенести в робототехніку на основі ШІ. Так само ми повинні усвідомлювати обмеження поточних LLM, особливо галюцинацій, перш ніж надавати їм багато паперової роботи, досліджень та аналізу.
Компанії, такі як OpenAI і DeepMind, усе ще лідирують з новими проривами, моделями та науковими роботами, але поточне домінування в галузі не триватиме вічно. Наразі DeepMind досяг успіху в зосередженні на чітко визначених проблемах із чіткими цілями та показниками. Його найвідоміший успіх був на конкурсі «Критична оцінка прогнозування структури», що проводиться раз на два роки, під час якого дослідницька група передбачила точну форму білка на основі його послідовності амінокислот.
З 2006 по 2016 рік середній бал за найскладнішу категорію був приблизно від 30 до 40 за шкалою CASP від 1 до 100. Раптом у 2018 році модель AlphaFold від DeepMind набрала цілих 58 балів. Через два роки оновлена версія під назвою AlphaFold2 набрала 87 балів, залишивши позаду своїх суперників-людей.
Завдяки ресурсам з відкритим кодом ми починаємо спостерігати закономірність, коли галузь досягає певних показників, а потім наукові кола втручаються, щоб удосконалити модель. Після того як DeepMind випустив AlphaFold, Мінкюн Бек і Девід Бейкер з Університету Вашингтона випустили RoseTTAFold, який використовує структуру DeepMind для прогнозування структури білкових комплексів, а не окремих білкових структур, з якими AlphaFold спочатку міг працювати. Більше того, наукові кола більш захищені від конкурентного тиску ринку, тож вони можуть вийти за межі чітко визначених проблем і вимірюваних успіхів, які привабили DeepMind.
Окрім досягнення нових висот, штучний інтелект може допомогти підтвердити те, що ми вже знаємо, вирішуючи кризу наукової відтворюваності. Приблизно 70% вчених повідомили, що вони не змогли повторити експерименти іншого вченого — пригнічуюча кількість. Оскільки штучний інтелект зменшує вартість і зусилля, пов’язані з проведенням експериментів, у деяких випадках буде легше відтворити результати або зробити висновки, які неможливо відтворити, що допоможе підвищити довіру до науки.
Ключ до відтворюваності та довіри – це прозорість. В ідеальному світі все в науці було б відкритим, від статей без платного доступу до відкритих даних, коду та моделей. На жаль, через небезпеку, яку можуть становити такі моделі, не завжди практично відкрити всі моделі з відкритим кодом. У багатьох випадках ризики повної прозорості переважують переваги довіри та справедливості. І все-таки, поки ми можемо бути прозорими щодо моделей — особливо класичних моделей штучного інтелекту з більш обмеженим використанням — ми повинні відкрити для них код.
Важливість регулювання
У всіх цих сферах слід пам’ятати про обмеження та ризики штучного інтелекту. ШІ є таким потужним інструментом, тому що він дозволяє людям досягати більшого за менший час, меншу освіту та менше обладнання. Але ці можливості також роблять його небезпечною зброєю, яка може потрапити в чужі руки. Ендрю Вайт, професор Університету Рочестера, підписав контракт з OpenAI на участь у тесті «червоної команди», який може виявити ризики GPT-4 до його випуску. Використовуючи мовні моделі та надаючи їм інструменти, Вайт виявив, що GPT-4 може пропонувати небезпечні сполуки та навіть замовляти їх у постачальників хімікатів. Щоб перевірити процес, наступного тижня йому доставили (безпечну) тестову суміш додому. OpenAI заявив, що використовував висновки Вайта для налаштування GPT-4 до його випуску.
Навіть люди з цілком благими намірами все ще можуть змусити ШІ давати погані результати. Нам слід менше турбуватися про створення Термінатора і, як каже комп’ютерний вчений Стюарт Рассел, ми повинні більше турбуватися про те, щоб стати королем Мідасом. Король хотів, щоб усе, до чого він торкається, перетворювалося на золото, і через це випадкові обійми вбили його власну дочку.
У нас немає механізму, який би змусив ШІ змінити свої цілі, навіть якщо він реагує на свої цілі у спосіб, який ми не можемо передбачити. Часто цитоване припущення полягає в тому, що ШІ просять виготовити якомога більше скріпок. Сповнена рішучості досягти своєї мети, модель захоплює електромережу та вбиває всіх людей, які намагаються цьому завадити, оскільки канцелярські скріпки продовжують накопичуватися. Світ перетворився на безлад. ШІ гладить по дупі і йде геть; він виконав свою роботу. (На знак поваги до цього знаменитого мисленнєвого експерименту багато співробітників OpenAI носять із собою фірмові скріпки).
OpenAI вдалося запровадити вражаючий набір заходів безпеки, але вони залишатимуться на місці, поки GPT-4 розміщено на серверах OpenAI. Незабаром може настати день, коли комусь вдасться відтворити модель і розмістити її на власному сервері. Передові моделі, такі як ця, потрібно захистити, щоб запобігти злодіям зруйнувати захисні огорожі штучного інтелекту, ретельно додані їхніми оригінальними розробниками.
Щоб боротися з навмисним і ненавмисним неналежним використанням ШІ, нам потрібне розумне, обґрунтоване регулювання діяльності технічних гігантів і моделей з відкритим вихідним кодом, яке не заважатиме нам використовувати ШІ на користь науки. У той час як технологічні компанії роблять кроки в безпеці штучного інтелекту, державні регулюючі органи наразі погано підготовлені до прийняття відповідних законів і повинні робити більше, щоб бути в курсі останніх подій.
Поза межами регулювання, уряди – разом із філантропією – можуть підтримувати наукові проекти з високою соціальною віддачею, але незначною фінансовою віддачею чи академічним стимулом. Кілька сфер є особливо актуальними, включаючи зміну клімату, біозахист і готовність до пандемії. Саме в цих сферах нам найбільше потрібні швидкість і масштаб, які забезпечують моделювання ШІ та автоматизовані лабораторії.
Наскільки це дозволяють міркування безпеки, уряди також можуть допомогти розробити великі, високоякісні набори даних, такі як ті, на які покладається AlphaFold. Відкриті набори даних є суспільним товаром: вони приносять користь багатьом дослідникам, але у дослідників мало стимулів створювати їх самостійно. Уряди та благодійні організації можуть співпрацювати з університетами та компаніями для виявлення грандіозних проблем у науці, які виграють від використання надійних баз даних.
Хімія, наприклад, має мову, яка об’єднує галузь, що, здається, допомагає моделям ШІ легко її аналізувати. Але ніхто не зміг належним чином агрегувати дані про молекулярні властивості, що зберігаються в десятках баз даних, позбавляючи нас розуміння того, чого могли б досягти моделі ШІ, якби у нас було лише одне джерело. У той же час біології бракує відомих і обчислюваних даних, на яких можна було б базувати фізику чи хімію, а підполя, такі як внутрішньо невпорядковані білки, залишаються для нас загадковими. Таким чином, це вимагатиме більш узгоджених зусиль, щоб зрозуміти — і навіть задокументувати — дані для створення повної бази даних.
Шлях до широкого впровадження штучного інтелекту в науці довгий, і ми маємо багато чого зробити, починаючи від створення правильних баз даних і запровадження правильних правил, зменшення упередженості в алгоритмах штучного інтелекту та забезпечення рівного доступу до обчислювальних ресурсів за кордоном.
Тим не менш, це дуже оптимістичний момент. Попередні зміни наукової парадигми, такі як науковий процес або поява великих даних, були спрямовані всередину і могли зробити науку більш точною та організованою. У той же час штучний інтелект є експансивним, дозволяючи нам поєднувати інформацію новими способами та підштовхуючи наукову творчість і просування до нових висот.
Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
Колишній генеральний директор Google Ерік Шмідт: як штучний інтелект змінить спосіб проведення наукових досліджень
Автор: Ерік Шмідт
Джерело: MIT Technology Review
Це ще одне літо екстремальної погоди, з безпрецедентною спекою, лісовими пожежами та повенями, які вражають країни по всьому світу. Щоб впоратися з проблемою точного прогнозування такої екстремальної погоди, напівпровідниковий гігант Nvidia створює «цифрових двійників» усієї планети на основі штучного інтелекту.
Цифровий двійник під назвою Земля-2 використовуватиме прогнози FourCastNet. FourCastNet — це модель штучного інтелекту, яка використовує десятки терабайт даних земної системи, щоб передбачити погоду на наступні два тижні швидше й точніше, ніж поточні методи прогнозування.
Типова система прогнозування погоди здатна генерувати близько 50 прогнозів на тиждень вперед. І FourCastNet може передбачити тисячі можливостей, точно фіксуючи рідкісні, але смертельні ризики лиха, даючи вразливому населенню цінний час для підготовки та евакуації.
Довгоочікувана революція в моделюванні клімату – це лише початок. З появою штучного інтелекту наука стане ще більш захоплюючою — і певним чином її важче розпізнати. Наслідки цієї зміни вийдуть далеко за межі лабораторії; вони вплинуть на всіх нас.
Якщо ми приймемо правильну стратегію вирішення найнагальніших проблем науки за допомогою раціонального регулювання та відповідної підтримки інноваційного використання ШІ, ШІ зможе переписати науковий процес. Ми можемо побудувати майбутнє, у якому інструменти на основі штучного інтелекту не лише звільнять нас від безглуздої та трудомісткої праці, але й направлять нас до творчих винаходів і відкриттів, заохочуючи прориви, на досягнення яких за інших умов знадобилися б десятиліття.
Останніми місяцями штучний інтелект став майже синонімом великих мовних моделей, або LLM, але в науці існує багато різних архітектур моделей, які можуть мати ще більший вплив. Значна частина прогресу в науці за останнє десятиліття була досягнута завдяки невеликим «класичним» моделям, які зосереджені на конкретних проблемах. Ці моделі призвели до значних покращень. Зовсім недавно широкомасштабні моделі глибокого навчання, які почали включати міждоменні знання та генеративний штучний інтелект, розширили діапазон того, що можливо.
Наприклад, вчені з Університету Макмастера та Массачусетського технологічного інституту використовували моделі штучного інтелекту, щоб ідентифікувати антибіотики для боротьби з патогеном, який, за словами Всесвітньої організації охорони здоров’я, є однією з найнебезпечніших у світі бактерій, стійких до антибіотиків для пацієнтів лікарень. Крім того, модель Google DeepMind може контролювати плазму в реакціях ядерного синтезу, наближаючи нас до революції чистої енергії. У сфері охорони здоров’я Управління з контролю за продуктами й ліками США схвалило 523 пристрої, які використовують штучний інтелект, 75 відсотків із яких використовуються в радіології.
Переосмислення науки
По суті, науковий процес, якому ми навчилися в початковій школі, залишиться незмінним: провести фонове дослідження, визначити гіпотезу, перевірити її за допомогою експерименту, проаналізувати зібрані дані та зробити висновок. Але штучний інтелект має потенціал кардинально змінити вигляд цих компонентів у майбутньому.
ШІ вже змінює те, як деякі вчені проводять огляди літератури. Такі інструменти, як PaperQA та Elicit, використовують LLM для сканування баз даних статей і створення стислого й точного резюме наявної літератури, включаючи цитати.
Після завершення огляду літератури вчені висувають гіпотези для перевірки. Основна робота LLM — передбачити наступне слово в реченні, аж до повних речень і абзаців. Ця техніка робить LLM особливо придатними для вирішення масштабу, властивого науковим ієрархіям, і дозволяє їм передбачити наступне велике відкриття у фізиці чи біології.
ШІ також може швидше розширювати гіпотетичні пошукові мережі та звужувати пошукові мережі. Таким чином, інструменти штучного інтелекту можуть допомогти сформулювати сильніші гіпотези, такі як моделі, які пропонують більш перспективні нові кандидати на ліки. Симуляції тепер виконуються на порядки швидше, ніж кілька років тому, що дозволяє вченим випробувати більше варіантів дизайну в моделях перед проведенням експериментів у реальному світі.
Наприклад, вчені з Каліфорнійського технологічного інституту використовували симуляційні моделі рідини штучного інтелекту для автоматичного проектування кращого катетера, який може запобігти зворотному потоку бактерій і спричинити інфекцію. Ця можливість докорінно змінить поступовий процес наукових відкриттів, дозволяючи дослідникам розробляти оптимальні рішення з самого початку, на відміну від того, що ми бачили роками з інноваційними розжареннями в дизайні лампочок. , що просуваються через довгий ланцюг поступового вдосконалення дизайну.
Перейшовши на експериментальний етап, штучний інтелект зможе проводити експерименти швидше, дешевше та в більших масштабах. Наприклад, ми можемо створювати машини на основі штучного інтелекту, із сотнями мікротрубочок, що працюють день і ніч, створюючи зразки зі швидкістю, з якою люди не можуть зрівнятися. Замість того щоб обмежуватися шістьма експериментами, вчені можуть використовувати інструменти ШІ для проведення тисячі експериментів.
Науковці, які хвилюються щодо наступного гранту, публікації чи процесу перебування на посаді, більше не будуть прив’язані до безпечного експерименту з найвищими шансами на успіх; вони зможуть вільно висувати сміливіші, більш міждисциплінарні гіпотези. Наприклад, при оцінці нових молекул дослідники, як правило, дотримуються кандидатів, структурно схожих на ті, які ми вже знаємо, але моделі штучного інтелекту не обов’язково мають однакові упередження та обмеження.
Згодом значна частина наукових досліджень буде проводитися в «автономних лабораторіях» — автономних роботизованих платформах у поєднанні зі штучним інтелектом. Тут ми можемо перенести можливості штучного інтелекту з цифрової сфери у фізичний світ. Такі автоматизовані лабораторії вже з’являються в таких компаніях, як Emerald Cloud Lab і Artificial, і навіть у Аргоннській національній лабораторії.
Нарешті, на етапі аналізу та підведення підсумків автоматизована лабораторія вийде за рамки автоматизації та використовуватиме LLM для інтерпретації та рекомендації щодо проведення наступного експерименту на основі отриманих експериментальних результатів. Потім, як партнер у дослідницькому процесі, лаборант зі штучним інтелектом може замовити матеріали для заміни тих, що використовувалися в попередніх експериментах, а також налаштувати та запустити наступний рекомендований експеримент протягом ночі. Результати були готові, коли експериментатори ще спали вдома.
Можливості та обмеження
Молоді дослідники можуть нервово тремтіти на своїх місцях від такої перспективи. На щастя, нові робочі місця, які з’являються в результаті цієї революції, можуть бути більш творчими та менш безглуздими, ніж більшість сучасних лабораторних робіт.
Інструменти штучного інтелекту можуть зменшити бар’єри для нових вчених і відкрити можливості для тих, хто традиційно виключений із цієї галузі. Завдяки LLM, здатним допомагати у створенні коду, студентам STEM більше не потрібно буде опановувати таємні мови кодування, що відкриває двері у вежі зі слонової кістки для нових, нетрадиційних талантів і полегшує вченим доступ до галузей, які не належать їм. Невдовзі спеціально підготовлені магістри права можуть вийти за рамки надання перших чернеток письмових робіт, таких як пропозиції грантів, і можуть бути розроблені для надання «колегійного» рецензування нових документів разом із рецензентами.
Інструменти штучного інтелекту мають неймовірний потенціал, але ми повинні розуміти, де людський контакт все ще має значення, і не перевищувати його. Наприклад, непросто успішно об’єднати штучний інтелект і робототехніку за допомогою автоматизованих лабораторій. Значну частину неявних знань, які вчені вивчають у лабораторії, важко перенести в робототехніку на основі ШІ. Так само ми повинні усвідомлювати обмеження поточних LLM, особливо галюцинацій, перш ніж надавати їм багато паперової роботи, досліджень та аналізу.
Компанії, такі як OpenAI і DeepMind, усе ще лідирують з новими проривами, моделями та науковими роботами, але поточне домінування в галузі не триватиме вічно. Наразі DeepMind досяг успіху в зосередженні на чітко визначених проблемах із чіткими цілями та показниками. Його найвідоміший успіх був на конкурсі «Критична оцінка прогнозування структури», що проводиться раз на два роки, під час якого дослідницька група передбачила точну форму білка на основі його послідовності амінокислот.
З 2006 по 2016 рік середній бал за найскладнішу категорію був приблизно від 30 до 40 за шкалою CASP від 1 до 100. Раптом у 2018 році модель AlphaFold від DeepMind набрала цілих 58 балів. Через два роки оновлена версія під назвою AlphaFold2 набрала 87 балів, залишивши позаду своїх суперників-людей.
Завдяки ресурсам з відкритим кодом ми починаємо спостерігати закономірність, коли галузь досягає певних показників, а потім наукові кола втручаються, щоб удосконалити модель. Після того як DeepMind випустив AlphaFold, Мінкюн Бек і Девід Бейкер з Університету Вашингтона випустили RoseTTAFold, який використовує структуру DeepMind для прогнозування структури білкових комплексів, а не окремих білкових структур, з якими AlphaFold спочатку міг працювати. Більше того, наукові кола більш захищені від конкурентного тиску ринку, тож вони можуть вийти за межі чітко визначених проблем і вимірюваних успіхів, які привабили DeepMind.
Окрім досягнення нових висот, штучний інтелект може допомогти підтвердити те, що ми вже знаємо, вирішуючи кризу наукової відтворюваності. Приблизно 70% вчених повідомили, що вони не змогли повторити експерименти іншого вченого — пригнічуюча кількість. Оскільки штучний інтелект зменшує вартість і зусилля, пов’язані з проведенням експериментів, у деяких випадках буде легше відтворити результати або зробити висновки, які неможливо відтворити, що допоможе підвищити довіру до науки.
Ключ до відтворюваності та довіри – це прозорість. В ідеальному світі все в науці було б відкритим, від статей без платного доступу до відкритих даних, коду та моделей. На жаль, через небезпеку, яку можуть становити такі моделі, не завжди практично відкрити всі моделі з відкритим кодом. У багатьох випадках ризики повної прозорості переважують переваги довіри та справедливості. І все-таки, поки ми можемо бути прозорими щодо моделей — особливо класичних моделей штучного інтелекту з більш обмеженим використанням — ми повинні відкрити для них код.
Важливість регулювання
У всіх цих сферах слід пам’ятати про обмеження та ризики штучного інтелекту. ШІ є таким потужним інструментом, тому що він дозволяє людям досягати більшого за менший час, меншу освіту та менше обладнання. Але ці можливості також роблять його небезпечною зброєю, яка може потрапити в чужі руки. Ендрю Вайт, професор Університету Рочестера, підписав контракт з OpenAI на участь у тесті «червоної команди», який може виявити ризики GPT-4 до його випуску. Використовуючи мовні моделі та надаючи їм інструменти, Вайт виявив, що GPT-4 може пропонувати небезпечні сполуки та навіть замовляти їх у постачальників хімікатів. Щоб перевірити процес, наступного тижня йому доставили (безпечну) тестову суміш додому. OpenAI заявив, що використовував висновки Вайта для налаштування GPT-4 до його випуску.
Навіть люди з цілком благими намірами все ще можуть змусити ШІ давати погані результати. Нам слід менше турбуватися про створення Термінатора і, як каже комп’ютерний вчений Стюарт Рассел, ми повинні більше турбуватися про те, щоб стати королем Мідасом. Король хотів, щоб усе, до чого він торкається, перетворювалося на золото, і через це випадкові обійми вбили його власну дочку.
У нас немає механізму, який би змусив ШІ змінити свої цілі, навіть якщо він реагує на свої цілі у спосіб, який ми не можемо передбачити. Часто цитоване припущення полягає в тому, що ШІ просять виготовити якомога більше скріпок. Сповнена рішучості досягти своєї мети, модель захоплює електромережу та вбиває всіх людей, які намагаються цьому завадити, оскільки канцелярські скріпки продовжують накопичуватися. Світ перетворився на безлад. ШІ гладить по дупі і йде геть; він виконав свою роботу. (На знак поваги до цього знаменитого мисленнєвого експерименту багато співробітників OpenAI носять із собою фірмові скріпки).
OpenAI вдалося запровадити вражаючий набір заходів безпеки, але вони залишатимуться на місці, поки GPT-4 розміщено на серверах OpenAI. Незабаром може настати день, коли комусь вдасться відтворити модель і розмістити її на власному сервері. Передові моделі, такі як ця, потрібно захистити, щоб запобігти злодіям зруйнувати захисні огорожі штучного інтелекту, ретельно додані їхніми оригінальними розробниками.
Щоб боротися з навмисним і ненавмисним неналежним використанням ШІ, нам потрібне розумне, обґрунтоване регулювання діяльності технічних гігантів і моделей з відкритим вихідним кодом, яке не заважатиме нам використовувати ШІ на користь науки. У той час як технологічні компанії роблять кроки в безпеці штучного інтелекту, державні регулюючі органи наразі погано підготовлені до прийняття відповідних законів і повинні робити більше, щоб бути в курсі останніх подій.
Поза межами регулювання, уряди – разом із філантропією – можуть підтримувати наукові проекти з високою соціальною віддачею, але незначною фінансовою віддачею чи академічним стимулом. Кілька сфер є особливо актуальними, включаючи зміну клімату, біозахист і готовність до пандемії. Саме в цих сферах нам найбільше потрібні швидкість і масштаб, які забезпечують моделювання ШІ та автоматизовані лабораторії.
Наскільки це дозволяють міркування безпеки, уряди також можуть допомогти розробити великі, високоякісні набори даних, такі як ті, на які покладається AlphaFold. Відкриті набори даних є суспільним товаром: вони приносять користь багатьом дослідникам, але у дослідників мало стимулів створювати їх самостійно. Уряди та благодійні організації можуть співпрацювати з університетами та компаніями для виявлення грандіозних проблем у науці, які виграють від використання надійних баз даних.
Хімія, наприклад, має мову, яка об’єднує галузь, що, здається, допомагає моделям ШІ легко її аналізувати. Але ніхто не зміг належним чином агрегувати дані про молекулярні властивості, що зберігаються в десятках баз даних, позбавляючи нас розуміння того, чого могли б досягти моделі ШІ, якби у нас було лише одне джерело. У той же час біології бракує відомих і обчислюваних даних, на яких можна було б базувати фізику чи хімію, а підполя, такі як внутрішньо невпорядковані білки, залишаються для нас загадковими. Таким чином, це вимагатиме більш узгоджених зусиль, щоб зрозуміти — і навіть задокументувати — дані для створення повної бази даних.
Шлях до широкого впровадження штучного інтелекту в науці довгий, і ми маємо багато чого зробити, починаючи від створення правильних баз даних і запровадження правильних правил, зменшення упередженості в алгоритмах штучного інтелекту та забезпечення рівного доступу до обчислювальних ресурсів за кордоном.
Тим не менш, це дуже оптимістичний момент. Попередні зміни наукової парадигми, такі як науковий процес або поява великих даних, були спрямовані всередину і могли зробити науку більш точною та організованою. У той же час штучний інтелект є експансивним, дозволяючи нам поєднувати інформацію новими способами та підштовхуючи наукову творчість і просування до нових висот.