У наше життя вже впритул впроваджуються алгоритми машинного навчання, які називають Штучним Інтелектом. Google і FaceBook у своїй видачі пропонує нам читати те, що вирішив Штучний Інтелект, а не те, що для вас цікавіше та важливіше. Але це не всі галузі, що підкорюють алгоритми машинного навчання.
У алгоритми вже визначають ризик рецидиву і долю злочинця в судовій системі. Судді за допомогою ІІ приймають рішення про дострокове звільнення, міру та місце відбуття покарання, можливість виходу під заставу та багато іншого. При впровадженні цих систем планувалося, що неупереджений Штучний Інтелект буде лише інструментом у руках судді, пише колумністка "MIT Technology Review" Карен Хао.
Тут є кілька проблем.
Перша – етична. Вона полягає в тому, що Судді з кожним днем все більше покладатимуться на рішення алгоритмів ІІ. А фактично, рішення людини-судді замінюється рішенням алгоритму машини.
«Кожен 38-й дорослий американець перебуває в будь-якій виправній установі, і в певний момент доля підсудного залежить від рішень, ухвалених Штучним Інтелектом», - стверджує Хао.
Друга – технічна. Алгоритм ІІ, ґрунтуючись на даних підсудного, порівнює його дохід, сімейний стан, вік та інші параметри з параметрами засуджених, які повторно йшли на злочини. Тобто, якщо Ви – афроамериканець, то шанс на умовно дострокове звільнення у Вас нижчий, оскільки національні меншини статистично частіше повертаються до злочинної справи, як і люди з низьким рівнем доходу, або ті, хто не має вищої освіти тощо.
А проблема полягає в тому, що алгоритм оцінює підсудного лише на основі статистичних принципів, часто упускаючи реальний стан справ, незалежно від того, про яку людину йдеться і які були її мотиви.
«ІІ плутає статистичну кореляцію із причинно-наслідковим зв'язком. В результаті групи людей, які історично частіше зазнавали тиску з боку поліції, знову опиняються у вразливому становищі. Насамперед це стосується меншин та найбідніших верств населення», — пише Хао.
При цьому немає можливості виявити помилки в розрахунках Штучного Інтелекту, оскільки вихідний код нейромережі запатентований і до нього не можна отримати доступ громадськості, що несе в собі велику небезпеку.
"Використання алгоритмів ІІ в судовому процесі збільшує ризик зменшення ролі судді. В Україні застосування таких технологій найближчим часом здається дуже туманним. Причина цього - чіткі процесуальні норми, в яких цей інструмент прийняття рішень не передбачено. Саме собою явище Штучного Інтелекту в судовій системі корисно, але при його жорсткому регулюванні та прозорості методик прийняття рішень, за допомогою яких "навчається" алгоритм ІІ. Нейросеть має бути інструментом у руках суду, і суд зобов'язаний чітко аргументувати прийняте рішення, яке відрізняється від рішення ІІ. Все це можливо тільки при повній працездатності системи, без помилок у методиці прийняття рішення, збоїв у роботі. Масиви даних, з якими працює ІІ, повинні постійно оновлюватися, враховувати зміни в законах та не застосовувати застарілі дані." – коментує адвокат Віталій Кулаков.
Advice Audit Consulting Group.
За матеріалами сайту https://ua-advice.com
Звяжіться з нами
044 209 23 52