Крім ажіотажу, ШІ обіцяє перевагу для наукових досліджень

Крім ажіотажу, ШІ обіцяє перевагу для наукових досліджень

Окрім ажіотажу, ШІ обіцяє перевагу для наукових досліджень PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

За останнє десятиліття відбувся великий прогрес у застосуванні штучного інтелекту для наукових відкриттів, але практики повинні знати, коли і як покращити використання штучного інтелекту, і повинні боротися з низькою якістю даних.

Від виявлення наркотиків, Матеріалознавство, астрофізики та ядерного синтезу, вчені, які використовують ШІ, бачать результати у покращенні точності та скороченні експериментального часу.

Опубліковано в дослідницькому журналі Nature сьогодні, папір від команди з 30 дослідників з усього світу оцінює прогрес, досягнутий у так розкрученій галузі, і розуміє, що потрібно зробити.

У статті, підготовленій Ханченом Вангом, аспірантом Stanford Computer Science і Genentech Group, зазначено, що штучний інтелект може допомогти «оптимізувати параметри та функції, автоматизувати процедури збору, візуалізації та обробки даних, досліджувати величезний простір потенційних гіпотез для формування теорій, а також створення гіпотез та оцінка їхньої невизначеності, щоб запропонувати відповідні експерименти».

Наприклад, в астрофізиці, техніці неконтрольованого навчання для нейронних мереж для відсіювання шуму, варіаційні автокодери використовувалися для оцінки параметрів детектора гравітаційних хвиль на основі попередньо навчених моделей хвиль чорної діри. «Цей метод на шість порядків швидший за традиційні методи, що робить його практичним для захоплення перехідних подій гравітаційних хвиль», — йдеться в статті.

Іншим прикладом є спроби досягти ядерного синтезу. Вчений-дослідник Google DeepMind Джонас Дегрейв розробив контролер штучного інтелекту для регулювання ядерного синтезу через магнітні поля в реакторі токамак. Дослідники показали, як агент штучного інтелекту може проводити вимірювання в реальному часі рівнів електричної напруги та конфігурацій плазми, щоб допомогти контролювати магнітне поле та досягати експериментальних цілей.

«[Ці] підходи навчання з підкріпленням виявилися ефективними для магнітного керування плазмою токамака, де алгоритм взаємодіє з симулятором токамака для оптимізації політики керування процесом», — йдеться в документі.

Незважаючи на те, що застосування штучного інтелекту в науці є багатообіцяючим, воно має відповідати ряду проблем, щоб отримати більш широке поширення, стверджується в документі.

«Практична реалізація системи штучного інтелекту передбачає складну розробку програмного та апаратного забезпечення, яка потребує низки взаємозалежних етапів, які переходять від контролю та обробки даних до реалізації алгоритму та розробки інтерфейсів користувача та додатків. Незначні зміни в реалізації можуть призвести до значних змін у продуктивності та вплинути на успіх інтеграції моделей ШІ в наукову практику. Тому необхідно розглянути стандартизацію як даних, так і моделей», — йдеться в повідомленні.

Тим часом існує проблема у відтворенні результатів за допомогою ШІ через випадковий або стохастичний підхід до навчання моделей глибокого навчання. «Стандартизовані тести та експериментальний дизайн можуть полегшити такі проблеми. Іншим напрямком покращення відтворюваності є ініціативи з відкритим вихідним кодом, які випускають відкриті моделі, набори даних і навчальні програми», — додають дослідницькі статті.

У ньому також вказується, що Big Tech має перевагу в розробці штучного інтелекту для науки, оскільки «вимоги до обчислень і даних для розрахунку цих оновлень є колосальними, що призводить до великого споживання енергії та високих витрат на обчислення».

Величезні ресурси та інвестиції Big Tech в обчислювальну інфраструктуру та хмарні сервіси «розсувають межі масштабу та ефективності».

Проте вищі навчальні заклади могли б допомогти собі з кращою інтеграцією між кількома дисциплінами, одночасно використовуючи унікальні історичні бази даних і технології вимірювання, які не існують за межами сектора.

Документ закликає до розробки етичної основи для захисту від неправильного застосування штучного інтелекту в науці та кращої освіти в усіх наукових галузях.

«Оскільки системи штучного інтелекту наближаються до продуктивності, яка конкурує з людською та перевершує її, використання його як заміни рутинної лабораторної роботи стає можливим. Цей підхід дозволяє дослідникам розробляти прогностичні моделі на основі експериментальних даних ітеративно та вибирати експерименти для їх покращення, не виконуючи вручну трудомістких і повторюваних завдань. Щоб підтримати цю зміну парадигми, з’являються освітні програми, які навчають науковців розробці, впровадженню та застосуванню лабораторної автоматизації та штучного інтелекту в наукових дослідженнях. Ці програми допомагають вченим зрозуміти, коли використання штучного інтелекту є доцільним, і запобігти неправильному тлумаченню висновків з аналізу штучного інтелекту», – йдеться в повідомленні.

У статті зазначається, що зростання глибокого навчання на початку 2010-х років «суттєво розширив масштаб і амбіції цих процесів наукових відкриттів».

Менш ніж через десять років Google DeepMind заявив, що його програмне забезпечення для машинного навчання AlphaFold швидко передбачало структуру білків із пристойною точністю, що потенційно стало кроком вперед у відкритті ліків. Щоб академічна наука могла застосовувати подібні методи в широкому діапазоні дисциплін, їй потрібно зібратися, щоб конкурувати з глибокими кишенями великих технологій. ®

Часова мітка:

Більше від Реєстр