Меню & пошук

Штучний інтелект та «нова дискримінація»: як технології впливають на права та життя людини?

Штучний інтелект та «нова дискримінація»: як технології впливають на права та життя людини?

Перший закон робототехніки від Айзека Азімова – під питанням


[ads-pc-2]

Технології штучного інтелекту дедалі більше використовуються для вирішення повсякденних задач: алгоритми допомагають у відборі (та звільненні) персоналу, аналізують психологічний стан людей, допомагають у прийнятті рішень та боротьбі зі злочинністю. Проте, крім очевидно позитивного впливу на наше життя, чи може розвиток цих технологій загрожувати правам людини?


Чи може робот приймати рішення щодо людини та нести відповідальність за це рішення? Чи перший закон Айзека Азімова досі актуальний? Як технології ШІ змінюють саме уявлення про те, що таке злочин? Що таке «проблема білого чоловіка» (White Guy Problem) та нова дискримінація?

Технології штучного інтелекту  використовуються для «прогностичної поліційної діяльності», контролю перетину кордонів ЄС, найму персоналу та продуктивності працівників.

Нові технології вже зараз суттєво впливають на базові права та свободи людини. І цей вплив буде дедалі посилюватися. Технології штучного інтелекту  використовуються для «прогностичної поліційної діяльності», контролю перетину кордонів ЄС, найму персоналу та продуктивності працівників. Застосування штучного інтелекту в багатьох сферах призводить до виникнення «нової дискримінації».

Якщо досі порушення прав людини стосувалися так чи інакше взаємодії між людьми і регулювалися національним чи міжнародним законодавством, то із розвитком штучного інтелекту з’являється ще одна площина взаємодії – людина-машина. Комунікація відбувається між людиною і алгоритмом без участі інших людей, і саме алгоритм зараз може приймати ті чи інші рішення: від чатбота, що пропонуватиме найкращі варіанти для подорожі, до робота, що вирішуватиме, чи пропустити вас через кордон, чи застосувати проти вас зброю або чи прийняти вас на роботу.

via GIPHY


Упереджений штучний інтелект

Широкому загалу штучний інтелект може здаватися неупередженим і позбавленим стереотипів. Машиною, що миттєво аналізує масив даних і, виходячи з цього, приймає раціональне та зважене рішення.

«Головна проблема – у тому, що, коли ми дивимось на технологію штучного інтелекту або на інші просунуті технології, ми схильні думати, що вони вирішать усі наші проблеми. Що їм не властива упередженість, притаманна людським судженням. Але насправді все не так просто», – зазначає Джошуа Франко, заступник директора AmnestyTech в Amnesty International.

Технології штучного інтелекту навчаються на наявних даних, що містять присутні в суспільстві расові та гендерні стереотипи, створюючи так звану проблему білого чоловіка: штучний інтелект значно краще розрізняє обличчя білих людей, гірше ідентифікуючи обличчя афроамериканців і азіатів (помилково визначаючи їх як зображення тварин чи людей, що примружились). Усе тому, що ШІ тренують переважно білі науковці на базі тисяч фото насамперед білих людей. Це призводить до дискримінації в таких сферах, як поліцейські практики, судові рішення або працевлаштування.  

Програми розпізнавання облич дають точний результат, тільки якщо ви – білий чоловік. В інших випадках (якщо ви жінка чи маєте інший колір шкіри) рівень помилок системи суттєво зростає.

Так, дослідження показують, що програми розпізнавання облич дають точний результат, тільки якщо ви – білий чоловік. В інших випадках (якщо ви жінка чи маєте інший колір шкіри) рівень помилок системи суттєво зростає. Це показує, як упередження, що існують у реальному житті, відображаються на технологіях. Так порушується питання, якими справедливими можуть бути технології та чи може існувати для них якась відповідальність.

Підтвердження наших упереджень, яке ми будемо отримувати від буцімто «неупереджених» машин, лише посилюватимуть наявні дискримінацію та нерівність.

via GIPHY


Прогнозувальна поліцейська діяльність

У США та Великобританії вже експериментують із «прогнозувальною поліцейською діяльністю». Цей підхід використовує наявну інформацію про злочини минулого і штучний інтелект для того, щоб передбачити злочин: визначити ймовірність і місце його виникнення. Відповідно, поліція може використовувати висновки ШІ, щоб приймати рішення, в які райони відправляти патрулі, до кого йти з обшуком і кого затримувати.

Технологія обіцяє дати можливість попереджувати злочини ще до того, як вони відбудуться.

Ця методика зустрічає багато критики, зокрема через те, що може посилити упередження щодо расових або релігійних груп, які вже існують у суспільстві. Головна проблема – в надійності даних щодо злочинів, їхній повноті та расовій упередженості.

Microsoft відмовилась надати в розпорядження органів правопорядку в Каліфорнії камери з функцією розпізнавання облич, мотивуючи це саме ризиком додаткової дискримінації певних категорій населення.

Дослідження показують, що системи розпізнавання облич є упередженими за своєю суттю, адже навчаються на даних, що віддзеркалюють наші упередження.

Програмне забезпечення, яке дає такі можливості, розробляється і продається приватними кампаніями: ця індустрія зараз коштує мільйони доларів і продовжує розвиватися.

Проблема подібної дискримінації знайома і компаніям-розробникам. Наприклад, Microsoft відмовилась надати в розпорядження органів правопорядку в Каліфорнії камери з функцією розпізнавання облич, мотивуючи це саме ризиком додаткової дискримінації певних категорій населення.

Ця проблема обговорюється і в ширшій політичній площині: Сан Франциско стало чи не першим місцем, що ввело заборону на використання подібних технологій поліцією та загалом державними структурами.  

via GIPHY


Перетин кордонів ЄС

Довгий час Європейський союз працює над укріпленням та «убезпеченням» своїх кордонів. Збільшення кількості біженців та посилення впливу консервативних політичних сил в багатьох європейських країнах зробило контроль кордонів одним з пріоритетів.

У жовтні 2018 року ЄС оголосив про розробку нової системи для контролю перетину кордону, яка буде протестована в Угорщині, Греції та Латвії. Система IBorderCTRL використовуватиме штучний інтелект, щоб завдяки аналізу міміки людини розпізнавати, чи бреше вона щодо мети свого перетину кордону. Вважається, що це полегшить роботу прикордонників. Остаточне рішення про допуск будуть приймати працівники прикордонної служби на основі висновку ШІ.

Через те, що немає прозорості в розробках автоматизованих систем і розуміння їхнього функціонування, виникає проблема «чорної скриньки»: люди не розуміють складний механізм, за допомогою якого система видає той чи інший результат, тому не довіряють цьому результату.

Технологія заснована на теорії розпізнавання емоцій. Ця гіпотеза досить контраверсійна, основне її положення полягає в тому, що можливо виявляти справжні емоції та почуття людини, аналізуючи вираз обличчя. Теорія стверджує, що емоції є фіксованими, універсальними та однаковими у всіх людей незалежно від культурного контексту. Тож вивчення виразів обличчя дозволить зрозуміти внутрішні переживання людини. Попри обіцянки урядів, що фінальне рішення буде прийматись прикордонниками, фактично буде неможливо перевірити, яку роль відіграв ШІ у прийнятті того чи іншого рішення. Навіть більше: зараз не існує механізмів відповідальності для систем ШІ за помилкове рішення.

IBorderCtrl є одним з прикладів використання системи розпізнавання облич, що, як доводять дослідники, не витримують перевірки та використовуються неналежним чином.

Через те, що немає прозорості в розробках автоматизованих систем і розуміння їхнього функціонування, виникає проблема «чорної скриньки»: люди не розуміють складний механізм, за допомогою якого система видає той чи інший результат, тому не довіряють цьому результату.

via GIPHY


Роботи-вбивці

Із розвитком технологій змінюється характер конфліктів. Сьогодні вже існують напівавтономні машини, дрони, які активно використовуються у збройних конфліктах. Проте в цьому випадку рішення залишається за людиною. Використання небезпечних роботів вже певний час обговорюється в ЄС.

Так, Болгарська державна компанія «Проно» зверталась до Frontex з проханням розробити систему контролю кордонів роботами, що зможуть використовувати зброю у випадку правопорушення та не вимагатимуть постійного контролю з боку персоналу.

Фактично надання роботам можливості самостійно використовувати зброю порушить один з найважливіших принципів розвитку ШІ – роботи не повинні розроблятись, щоб убивати людей або шкодити їм

Фактично надання роботам можливості самостійно використовувати зброю порушить один з найважливіших принципів розвитку ШІ – роботи не повинні розроблятись, щоб убивати людей або шкодити їм. Це один із трьох законів робототехніки Айзека Азімова. Для подібних систем наразі не існує жодних механізмів відповідальності.

Реальність використання таких технологій спонукала появу глобальної кампанії «Зупинити роботів-убивць». Опитування громадської думки, проведене IpsosMORI у 2017 році у 23 країнах, показало, що більшість людей висловились проти автономних збройних систем.

via GIPHY


Роботи і робота

Із розвитком технологій та дедалі більшим використанням технологій ШІ в повсякденному житті змінюватиметься і структура ринку праці.

За прогнозами, до 2020 року близько 85% клієнтських операцій здійснюватиметься без працівників, за підтримки чатботів та технологій самообслуговування. За даними OECD (Organisation for Economic Cooperationand and Development), штучний інтелект вже відповідає або навіть перевищує показники ефективності людини в значній кількості сфер.

Згідно з аналізом Оксфордського університету та Світового банку, 35% робочих місць у Великій Британії можуть бути замінені автоматизацією. У високорозвинених країнах 57% робочих місць перебувають у небезпеці, у Китаї – 77%, а в Ефіопії – 85%. Це відбудеться швидко: у недавньому звіті компанії з дослідження ринку Forrester зроблено висновок, що до 2021 року 6% робочих місць у США будуть автоматизовані.

Використання штучного інтелекту поширюється у сфері найму на роботу та контролю ефективності. Так, алгоритм може визначати, хто із працівників планує звільнитись, і повідомляти про це навіть раніше, ніж сама людина ухвалить відповідне рішення.

Ці механізми подібні до «прогнозувальної поліцейської діяльності».

Автоматизація виробництва, з одного боку, може принести появу нових професій, але з другого боку, неминуче призводить до тиску на робочі місця і змін у структурі виробництва.

Розвиток ШІ вплине на суспільства, збільшивши рівень безробіття, розрив в оплаті праці та породить ще більшу нерівність. Однак ці зміни не є наперед визначеними, тож при продуманому підході можливо перетворити загрози на можливості.

via GIPHY

ООН відзначає, що розвиток ШІ вплине на суспільства, збільшивши рівень безробіття, розрив в оплаті праці та породить ще більшу нерівність. Однак ці зміни не є наперед визначеними, тож при продуманому підході можливо перетворити загрози на можливості.

 «Тиск на робочі місця в майбутньому, найімовірніше, зашкодить гендерній рівності. Прогрес в отриманні рівної заробітної плати та рівного доступу до економічних можливостей для жінок був болісно повільним. У світі з меншою кількістю робочих місць існує реальна небезпека того, що ми зведемо нанівець всі попередні невеликі досягнення» – каже Шеріф Елсаєд Алі, екс-керівник відділу технологій і прав людини в Amnesty International.

 Експерт наголошує, що можливості, які дає штучний інтелект, є великою спокусою як для урядів, так і для корпорацій. Те, що зараз виглядає як спрощення процесів прийняття рішень, забезпечення безпеки громадян, раціоналізація робочого процесу, переростає у серйозні виклики для прав і свобод людей.

Ці виклики не означають, що нові технології, зокрема штучний інтелект, є поганими або що нам потрібно відмовитись від них. Рішення, прийняті штучним інтелектом або людиною на основі висновків ШІ, мають бути прозорими та зрозумілими.

Крім того, уряди та компанії, що послуговуються технологіями ШІ, мають усвідомлювати недосконалість даних, на основі яких технологія навчається, та дбати про недопущення дискримінації і порушень прав людини. Ба більше, з розвитком нових галузей правові та політичні системи мають дуже швидко адаптуватись, інакше вони стануть нерелевантними в сучасному світі.

 

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: