Представете си, че се разхождате по оживена железопътна гара. Бързате, провирате се през тълпата, без да знаете, че камерите не само ви наблюдават, но и разпознават.

В днешно време нашите биометрични данни са ценни за предприятията от съображения за сигурност, за подобряване на обслужването на клиентите или за подобряване на собствената им ефективност.

Биометричните данни са уникални физически или поведенчески черти и са част от нашето ежедневие. Сред тях най-разпространено е лицевото разпознаване.

Технологията за разпознаване на лица произлиза от клон на изкуствения интелект, наречен компютърно зрение, и е подобна на даването на зрение на компютрите. Технологията сканира изображения или видеоклипове от устройства, включително камери за видеонаблюдение, и разпознава лица.

Системата обикновено идентифицира и картографира 68 специфични точки, известни като лицеви ориентири. Те създават цифров  отпечатък на лицето ви, който позволява на системата да ви разпознава в реално време.

Лицевите забележителности включват ъглите на очите, върха на носа и краищата на устните. Те помагат да се създаде математическо представяне на лицето, без да се съхранява цялото изображение, като по този начин се повишава поверителността и ефективността.

Камерите за видеонаблюдение са навсякъде – от супермаркети до паркинги и железопътни гари – и безшумно вършат своята работа. Но каква точно е тяхната работа сега?

Предприятията могат да оправдаят събирането на биометрични данни, но с властта идва и отговорността, а използването на лицево разпознаване поражда значителни опасения относно прозрачността, етиката и неприкосновеността на личния живот.

Когато дори полицейското използване на лицево разпознаване може да се счита за неетично, тогава бизнес обосновката става по-малко убедителна, особено като се има предвид, че се знае малко за това как предприятията съхраняват, управляват и използват данните.

Заснемането и съхраняването на биометрични данни без съгласие може да наруши нашите права, включително защитата срещу наблюдение и запазването на лични изображения.

Балансът между безопасността, ефикасността и правото на неприкосновеност на личния живот е сложен етичен избор за предприятията.

Като потребители ние често може да не сме склонни да споделяме личната си информация. И все пак разпознаването на лица крие по-сериозни рискове, като например дълбоки фалшификати и други заплахи за обезличаване.

Вземете например неотдавнашното разкритие, че Network Rail тайно е наблюдавала хиляди пътници с помощта на софтуер за изкуствен интелект на Amazon. Това наблюдение подчертава критичен въпрос: необходимостта от прозрачност и строги правила, дори когато дадена компания ни наблюдава, за да подобри услугите си. Говорител на Network Rail заяви: „Когато внедряваме технологии, ние работим с полицията и службите за сигурност, за да гарантираме, че предприемаме пропорционални действия, и винаги спазваме съответното законодателство относно използването на технологии за наблюдение.“

Едно от основните предизвикателства е въпросът за съгласието. Как изобщо гражданите могат да дадат информирано съгласие, ако са постоянно наблюдавани от камери и не са наясно кой съхранява и използва биометричните им данни?

Този фундаментален проблем подчертава трудностите при решаването на проблемите, свързани с неприкосновеността на личния живот. Предприятията са изправени пред нелеката задача да получат ясно и информирано съгласие от хора, които може дори да не знаят, че са наблюдавани.

Без прозрачни практики и изрични механизми за даване на съгласие е почти невъзможно да се гарантира, че обществеността наистина е наясно и е съгласна с използването на нейните биометрични данни.

Помислете за своята цифрова сигурност. Ако паролата ви бъде открадната, можете да я смените. Ако кредитната ви карта е компрометирана, можете да я анулирате. Но лицето ви? То е постоянно. Биометричните данни са изключително чувствителни, защото не могат да бъдат променени, след като бъдат компрометирани. Това ги превръща в игра с високи залози, когато става въпрос за сигурност.

Ако базата данни бъде нарушена, хакерите могат да злоупотребят с тези данни за кражба на самоличност, измама или дори тормоз.

Друг проблем са алгоритмичните пристрастия и дискриминацията. Ако данните се използват за вземане на решения, как компаниите могат да гарантират, че за обучението на алгоритъма са включени разнообразни и достатъчни данни?

Компаниите могат да използват биометрични данни за удостоверяване, персонализиран маркетинг, наблюдение на служителите и контрол на достъпа. Съществува значителен риск от предразсъдъци по полов и расов признак, ако алгоритъмът е обучен предимно върху данни от хомогенна група, например бели мъже.

Дружествата следва също така да гарантират, че цифровите пристрастия не се затвърждават. Ако не го направят, това може да доведе до неравнопоставеност в обществото.

Законодателство и осведоменост

Тъй като разпознаването на лица става все по-разпространено, необходимостта от стабилно законодателство става неотложна. Законите трябва да изискват ясно съгласие, преди да се заснемат биометрични данни на когото и да било. Те трябва също така да определят строги стандарти за начина на съхранение и защита на тези данни, за да се предотвратят нарушения.

Също толкова важно е обществеността да бъде по-добре осведомена по този въпрос. Въпреки че хората стават все по-съзнателни по отношение на защитата на данните, разпознаването на лица често остава под радара. То е невидимо в ежедневието ни и мнозина не осъзнават рисковете и етичните проблеми. Образованието на обществеността е жизненоважно.

Включването на принципите на отговорния изкуствен интелект във внедряването на технологията за разпознаване на лица би било добро начало. Отговорният ИИ набляга на справедливостта, отчетността, прозрачността и етиката. Това означава, че системите за ИИ, включително системите за разпознаване на лица, следва да бъдат проектирани и използвани по начин, който зачита правата на човека, неприкосновеността на личния живот и достойнството.

Предприятията обаче може да не отдават непременно приоритет на тези принципи, ако не са държани отговорни от регулаторните органи или обществеността.

Прозрачността е крайъгълен камък на отговорния ИИ. Ако организациите, използващи лицево разпознаване, останат потайни относно своите практики, не можем да им се доверим за нашите биометрични данни.

Компаниите, въоръжени само с вашата лична информация, могат да бъдат много силни по отношение на манипулативния маркетинг. Нужен е само „един лайк“, за да могат кампаниите по поръчка да ви насочат много точно.

Сега политически партии като PTI в Пакистан са използвали технологията Vision-AI, за да позволят на лидера Имран Хан да води кампания, въпреки че излежава присъда в затвора.

Улавянето и анализът на визуални данни са особено важни в сравнение с невизуалните данни, тъй като те осигуряват по-богат, по-интимен и по-непосредствен поглед върху човешкото поведение и идентичност.

Ето защо все по-широкото им използване от предприятията поражда толкова много опасения относно неприкосновеността на личния живот и съгласието. Докато обществеността не е наясно до каква степен се улавят и използват нейните визуални данни, нейната информация ще бъде уязвима за злоупотреба или експлоатация.

Автори:

  • Камран Махруф, доцент по анализ на веригата на доставки, Брадфордски университет;
  • Амизан Омар, доцент по стратегически мениджмънт, Брадфордски университет
  • Ирфан Мехмуд, доцент по бизнес анализ, Брадфордски университет

Източник: The Conversation

Източник: По материали от Интернет

Подобни публикации

25 март 2025

Нарушаването на данните на Numotion засяга почт...

Базираната в Тенеси компания Numotion, която се рекламира като най-...
25 март 2025

ДНК на милиони потребители на 23andMe може да с...

Компанията за ДНК тестове 23andMe подаде молба за защита от фалит, ...
25 март 2025

300 арестувани при потушаването на киберпрестъп...

Повече от 300 заподозрени бяха арестувани в седем африкански държав...
25 март 2025

IngressNightmare излага много клъстери на Kuber...

Изследователи от гиганта в областта на сигурността в облака Wiz са ...
25 март 2025

ФБР предупреждава за опасни инструменти за конв...

Според местния офис на ФБР в Денвър инструментите конвертират докум...
24 март 2025

Oracle отрича, че системите ѝ са били пробити

Oracle отрече, че системите ѝ са били пробити, след като хакер пред...
Бъдете социални
Още по темата
24/03/2025

Нова техника за Jailbreak и...

Фирмата за киберсигурност Cato Networks е...
22/03/2025

Бившият шеф на сигурността ...

На 13 март 2025 г. състав...
21/03/2025

Тревожен ръст на фишинга с ...

Сигурността на браузъра не може да...
Последно добавени
25/03/2025

Нарушаването на данните на ...

Базираната в Тенеси компания Numotion, която...
25/03/2025

ДНК на милиони потребители ...

Компанията за ДНК тестове 23andMe подаде...
25/03/2025

300 арестувани при потушава...

Повече от 300 заподозрени бяха арестувани...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!