Колонка
Директор з B2B-розвитку Vodafonе-Україна
Директор з B2B-розвитку Vodafonе-Україна

Ще років із 20 тому людину, яка розмовляє з механізмом, вважали б божевільною. Сьогодні ми розмовляємо з «Алексою» або «Сірі». У 2017 році вперше у світі роботу Софії надали громадянство Саудівської Аравії. Звичайно, це спроба хайпу, і в повітрі повисають питання: як на такого робота-громадянина будуть поширюватися законодавчі норми і чи зможе такий громадянин, наприклад, голосувати чи вступати у шлюб?..

Або ще складніша дилема: чи можна вважати навмисне відключення такого громадянина від живлення вбивством, і яку відповідальність за свої дії несе він сам. Хоч там як, але це прецедент сучасної синкретики технологій та сфери конституційного права. І він може стати поштовхом до зміни законів та соціальних практик загалом.

Також сучасний прогрес технологій ставить людство перед дилемою блага та загроз. Приміром, автоматизація — це, з одного боку, зменшення обсягів важкої фізичної праці та делегування рутинних функцій машинам. З іншого, вона створює технологічне безробіття.

Відеоспостереження — це безпека пересічних громадян, але її можна розглядати і як інструмент тотального контролю. Людство ще остаточно не відповіло на питання, до якої межі воно готове жертвувати доступом до приватних даних заради безпеки у повсякденному житті.

Людство ще остаточно не відповіло на питання, до якої межі воно готове жертвувати доступом до приватних даних заради безпеки у повсякденному житті

Наприклад, в Україні використання відеоспостереження поки не обмежується жодними нормативами. А от у Європі діє General Data Protection Regulation — закон, який жорстко регулює використання персональних даних. Так, в поле зору камер не повинен потрапляти цілий спектр об’єктів, зокрема приватні території.

Інший приклад: в Україні дуже поширені відеореєстратори. А в Німеччині вони заборонені, тому що на відео можуть потрапити інші люди. У Німеччині тебе оштрафують попри те, що відео з твого реєстратора допомогло слідству.

Із 800 млн відеокамер, встановлених у світі, понад половина несе чергування в Китаї. Спостереження за поведінкою людей на вулиці, у транспорті та офісах — важлива складова соціального рейтингу, який є у кожного китайця і навіть в іноземців, які живуть в Піднебесній.

Перейшов дорогу не по пішохідному переходу, влаштував скандал в аеропорту чи пабі — все це зафіксують камери, передадуть на сервер та врахують у соціальному рейтингу людини. До збору даних залучені рітейл-гіганти, як-от Alibaba та Tencent, а також найбільша національна пошукова система Baidu.

З іншого боку, соціальний рейтинг є ефективним інструментом забезпечення правопорядку в країні з населенням понад 1,4 млрд осіб. Хоча і ця теза не є бездоганною, тому що штучний інтелект застосовують, щоб оцінити схильність людини до скоєння злочину поза прецедентом. Отже, це вішає ярлик злочинця на громадянина, в якого на момент оцінки немає жодних конфліктів із законом.

Три сфери, які вимагають регулювання етичних аспектів: Big Data і обробка персональних даних, штучний інтелект та інтернет речей

Біометричні документи і Face ID — це зручність та оперативність. У Китаї, приміром, можна оплатити покупку, просто посміхнувшись у камеру. Але якщо ви використовуєте Face ID, забудьте про приватність. І що робити у разі крадіжки біометричних даних? За великим рахунком, ми й гадки не маємо, хто і як отримує доступ до біометричних даних, якими ми ділимося у різних застосунках.

Можна наводити безліч прикладів амбівалентності нових технологій. Але я б виділив три основні сфери, які найгостріше вимагають регулювання етичних аспектів. Перша — Big Data і обробка персональних даних. Друга — застосування штучного інтелекту та автоматизація. Третя — інтернет речей.

Мораль машин

У 2016 році вчені Массачусетського технологічного університету США провели дослідження, яке отримало назву «машина моралі». Ідея була в тому, щоби змоделювати ситуацію, в якій автопілоту в разі необхідності потрібно визначитися, ким можна пожертвувати в аварійній ситуації.

Лише концерн Mercedes визначився зі своєю політикою: за будь-яких обставин автомобілі цього виробника рятуватимуть життя своїх пасажирів

Розглядалися різні варіанти: життя людини або домашньої тварини, життя пасажира або життя пішохода, більша кількість жертв чи менша, пожертвувати жінкою чи чоловіком, дитиною або літньою людиною. Результати показали, що в залежності від країни та національності люди схильні підтримувати в корені протилежні рішення. Якщо автопілот був би написаний в Україні, то жертвою стала б старша людина, а якби в східній країні, то дитина.

Більшість людей при вирішенні цього завдання схиляються в бік меншої кількості жертв і обирають когось одного замість групи осіб. Цей принцип можна було б закласти в автопілот, але проблема полягає в тому, що далеко не всі готові купувати автопілот з таким алгоритмом. Лише концерн Mercedes визначився зі своєю політикою: за будь-яких обставин автомобілі цього виробника рятуватимуть життя своїх пасажирів.

Не поспішайте!

Інша етична дилема пов‘язана з аналізом генома. Це один із найбільш інноваційних методів визначення першопричин захворювань та їхнього лікування з урахуванням індивідуальних особливостей пацієнтів. Аналіз генома дозволяє виявити схильність до захворювань ще до появи симптомів і запобігти розвитку хвороби.

ДНК-тести стали настільки буденною справою, особливо перед зачаттям дитини, що в багатьох розвинутих країнах їх продають в аптеках. Страхові компанії навіть покривають їх базовою медичною страховкою, а генетичний аналіз у клініці коштує дешевше за смартфон — від $60 до $200.

Проте етична дилема виникає там, де йдеться про зміну геному, адже сучасні технології дозволяють буквально вирізати гени хвороби з ДНК. Ця ж технологія створює можливості, приміром, для поліпшення зовнішності або здібностей майбутніх дітей. У Китаї уже живе більше 100 осіб зі штучно відредагованими генами. Скільки їх стане завтра, ніхто не знає. Так само ніхто не знає, носіями яких хвороб може стати особа з «поліпшеним» геномом.

Знову виникає цілий спектр етичних питань: хто і за яких умов матиме право на зміну унікального генетичного коду людини, і чи ризикуємо ми отримати не лише соціальний, а й генетичний рейтинг? Чи призведе це до нових форм дискримінації?

Хто і за яких умов матиме право на зміну унікального генетичного коду людини? І чи ризикуємо ми отримати не лише соціальний, а й генетичний рейтинг?

Застосування IoT-технологій (так званий «інтернет речей») насамперед пов'язане з кібербезпекою. Ці технології лежать в основі концепції «розумних» міст, «розумних» будинків та інших систем життєзабезпечення людей в сучасному високотехноогічному світі.

Крім ризиків витоку інформації, масштабних блекаутів, хакерських та терористичних атак, які можуть паралізувати життя «розумного» міста, IoT несе в собі нерозв’язані питання етики. Згадати хоча б «розумні» дзвінки Ring: лише в США встановлено понад 500 тис. «розумних» камер Ring, які відповідають за недоторканність рухомої та нерухомої приватної власності. Але у той же час це може призвести для прихованого збору даних.

Старший брат слідкує за тобою

У світі є три центри розвитку цифрових технологій: США, Китай та Європа. США та Китай конкурують за технологічне лідерство — отже, вони не зацікавлені жорстко регулювати технологічні сфери, стримувати їх розвиток і, таким чином, обмежувати себе.

Підхід Європи є діаметрально протилежним. Заради захисту приватного життя інтеграцію цифрових технологій у системи життєзабезпечення жорстко обмежують законом, який визначає правила збору та використання персональних даних, а також запроваджує обов’язкову згоду власника персональних даних. Порушення цього закону загрожує компаніям штрафами до 20 млн євро.

У квітні 2021 року в Європі з'явився проєкт закону, який передбачає заборону штучного інтелекту там, де він може заподіяти фізичну або психологічну шкоду людині. Наприклад, під заборону підпадає розпізнавання осіб в громадських місцях

Розвиток штучного інтелекту — ще одна сфера з далеко не бездоганною регуляцією. У квітні 2021 року в Європі з'явився проєкт закону, який передбачає заборону штучного інтелекту там, де він може заподіяти фізичну або психологічну шкоду людині. Наприклад, під заборону підпадає розпізнавання осіб в громадських місцях.

Крім того, незважаючи на технічну можливість, уряд ЄС прагне цілковито заборонити соціальні скоринги — оцінку людей за їхньою поведінкою в минулому. Зокрема, при видачі банківських кредитів, рекрутингу або розгляді справ у судах. Це прогресивний підхід, хоча водночас він надає перевагу інститутам бюрократії, а не інструментам штучного інтелекту.

Отже, не дивно, що в перебігу розвитку технологій виникає проблема доктринальної трансформації конституційного права та засад соціальної етики. Ці проблеми слід усвідомлювати і розробникам, і користувачам. Етичні правила застосування нових технологій — чи не найголовніша дискусія найближчого майбутнього.

Самі в темряві. Як зародилася віра в інопланетян і хто шукає їх сьогодні
Під загрозою вимирання. Товари та технології, що зіб’ють з пантелику ваших дітей
Велика чистка. Як українські стартапи допомагають оздоровити планету