Створення людиноподібного штучного інтелекту – це не просто моделювання поведінки людини: для того щоб на нього можна було покластися, він повинен вміти обробляти інформацію, або “думати” як людина.

У новому дослідженні, опублікованому в журналі patterns під керівництвом школи психології та нейронауки університету глазго, використовується 3d-моделювання для аналізу того, яким чином нейронні мережі – частина широкого сімейства машинного навчання – обробляють інформацію, щоб наочно показати, наскільки процес обробки інформації відповідає людському рівню.

Очікується, що результати цієї нової роботи прокладуть шлях до створення більш надійної технології ші, яка буде обробляти інформацію подібно людині і робити помилки, які ми зможемо зрозуміти і передбачити.

Одна з проблем, яка все ще стоїть перед розробкою ai, полягає в тому, як більш точно зрозуміти процес машинного мислення, і чи відповідає він тому, як людина обробляє інформацію, щоб забезпечити точність. Глибокі нейронні мережі часто представляються як найкраща на сьогоднішній день модель людської поведінки при прийнятті рішень, що досягає або навіть перевершує людську продуктивність в деяких завданнях. Однак навіть прості на перший погляд завдання з візуального аналізу можуть виявити явні невідповідності і помилки в моделях штучного інтелекту в порівнянні з людиною.

В даний час технологія глибоких нейронних мереж використовується в таких додатках, як розпізнавання осіб, і хоча вона дуже успішна в цих областях, вчені все ще не до кінця розуміють, як ці мережі обробляють інформацію, і отже, і то коли можуть виникати помилки.

У новому науковому експерименті група фахівців вирішила цю проблему, змоделювавши візуальний імпульс, який був наданий глибокій нейронній мережі, перетворивши його різними способами, щоб продемонструвати схожість розпізнавання, завдяки обробці аналогічної інформації між людиною і моделлю штучного інтелекту.

Професор філіп шинс, старший автор дослідження та керівник інституту нейронауки та технологій університету глазго, сказав: “при створенні моделей штучного інтелекту, які поводяться як люди, наприклад, дізнаються обличчя людини, коли бачать його, ми повинні бути впевнені, що модель штучного інтелекту використовує ту ж інформацію, яку використовував би людина для його розпізнавання. Якщо штучний інтелект цього не зробить, у нас може виникнути ілюзія, що система працює так само, як і людина, але потім виявиться, що вона помиляється в якихось нових або неперевірених обставинах”.

Дослідники використовували серію мінливих тривимірних зображень обличчя і попросили людей оцінити подібність цих випадково створених зображень з чотирма знайомими обличчями. Потім вони використовували цю інформацію для перевірки того, чи глибокі нейронні мережі роблять такі ж оцінки за тими ж принципами. При цьому перевірялося не тільки те, чи приймають люди і штучний інтелект однакові рішення, але і те, грунтуються вони на одній і тій же інформації. Важливо, що завдяки своєму підходу дослідники можуть отримати візуалізацію цих результатів у вигляді тривимірних осіб, які керують поведінкою людей і мереж. Наприклад, мережа, яка правильно класифікувала 2 000 особистостей, управлялася за допомогою карикатури на обличчя людини, показуючи, що вона ідентифікувала особи, обробляючи зовсім іншу інформацію про особу, на відміну від людей.

Наукові співробітники сподіваються, що ця робота прокладе шлях до створення більш надійної технології штучного інтелекту, яка буде вести себе більш наближено до людської поведінки і здійснювати менше непередбачуваних помилок.

Дослідження “grounding deep neural network predictions of human categorization behavior in understandable functional features: the case of face identity”, опубліковано в журналі patterns.