Както слънцето изгрява и залязва, така и някои неща са неизбежни. Помислете за технологиите. Щом се появи нещо ново, хората неизменно намират начин да злоупотребят с него. През последните години тази мантия се падна на изкуствения интелект (ИИ) и на един от най-тревожните му странични ефекти – възхода на неконсенсуалната дълбока фалшива порнография.
Идеята е колкото проста, толкова и ужасяваща: използване на цифрови технологии за създаване на фалшиви и явни снимки или видеоклипове на някого. Макар че това се случва в интернет от няколко години, последните подобрения в инструментите за изкуствен интелект означават, че този вид съдържание става все по-лесно за създаване – и значително по-лошо за жертвите.
За щастие властите обръщат внимание на това. Обединеното кралство обяви първия по рода си закон за директна борба с неконсенсусната дълбоко фалшива порнография чрез изменение на Закона за наказателното правосъдие. Междувременно ЕС разполага с редица закони и директиви, които може да използва за борба със злонамерената практика. Или поне такава е надеждата.
Въпросът е дали регулирането е ефективен инструмент за борба с дълбоката фалшива порнография без съгласие и дали има начин тя да бъде напълно изкоренена.
В този момент може би се чудите защо използваме израза „неконсенсуална дълбоко фалшива порнография“, а не по-често срещаното „дълбоко фалшиво порно“?
Професор Виктория Бейнс – член на BCS и водещ специалист в областта на киберсигурността – обяснява, че съкращаването на термина до „deepfake porn“ се разглежда от участниците в кампаниите за онлайн безопасност като „минимизиране на вредно поведение чрез съкращаване“.
Както посочва Бейнс, „най-важното е, че това е онлайн злоупотреба, а не порно“. Колкото по-ясно говорим за проблема, толкова по-голям шанс имаме да се преборим с него. И в тази връзка нека да разгледаме как в момента правителствата се справят с неконсенсусната дълбока порнография.
Бейнс казва, че въпреки предстоящото изменение на законопроекта за наказателното правосъдие, в Обединеното кралство „споделянето на интимни изображения без съгласие е вече престъпление съгласно член 188 от Закона за онлайн безопасност“.
Директната формулировка в законодателството гласи, че е незаконно да се споделят медии, които „показват или изглеждат, че показват“ друго лице в интимно състояние. Макар че това в широк смисъл покрива неконсенсуалната дълбока порнография, проблемът е, че това не е основната му цел.
Според Бейнс именно това е целта на новопредложеното изменение на Закона за наказателното правосъдие. То „има за цел да криминализира създаването с помощта на цифрови технологии на интимни изображения без съгласие, независимо дали създателят им възнамерява да ги сподели“.
С други думи, предстоящото изменение е пряко насочено към проблема с дълбокофалшивата порнография без съгласие. Макар че съществуващите закони могат да се прилагат за преследване на престъпниците, които я създават, това ново изменение се изправя срещу нея директно.
„ЕС не разполага с конкретни разпоредби относно [неконсенсуалната] дълбоко фалшива порнография“, казва професор Кристина Ванберген.
Ванберген е старши експерт в Европейската комисия, където се занимава с политиката в областта на изкуствения интелект, DMA, DSA и киберсигурността. Тя казва, че дълбокофалшивата порнография без съгласие е направена незаконна чрез съществуващите разпоредби, а именно „потвърдително тълкуване на правилата за GDPR, DSA, националните закони и предложените мерки като тези, съществуващи в областта на ИИ“.
На практика „използването на нечии изображения и видеоклипове в deepfake без съгласието им може да се счита за нарушение на GDPR“, а DSA „налага по-строги задължения на онлайн платформите за бързо премахване на незаконно съдържание и дезинформация, което може да обхване и deepfake порнографията“.
Според Аша Алън, директор и генерален секретар на CDT Europe, ЕС е отворил още един път за борба с незаконното съдържание. По-конкретно, приемането от него на директива относно насилието, основано на пола.
Алън казва, че това „прави създаването и последващото разпространение на дълбоко фалшиви изображения, които създават впечатлението, че дадено лице участва в сексуално явни действия, без съгласието на това лице, престъпление“.
На хартия това е чудесен ход, но има важна разлика между подобна директива и регламент. По думите на ЕС регламентът – като тези, които Ванберген обсъди – е задължителен законодателен акт, който трябва да се прилага в своята цялост в целия ЕС.
Директивата, от друга страна, поставя цел. След това „отделните държави трябва да разработят свои собствени закони за това как да я постигнат“. Що се отнася до директивата за насилието, основано на пола, държавите членки имат срок до 14 юни 2027 г., за да я приемат в националното си законодателство или политика. Това, разбираемо, води до редица проблеми.
„Общите правила за deepfake порнографията са от решаващо значение“, казва Ванберген. Те трябва да определят „недвусмислени граници и последствия, които да възпрат злонамереното поведение“ и да гарантират, че жертвите имат правни възможности за защита и обжалване.
Проблемът около приемането на директивата относно насилието, основано на пола, е, че тя може да доведе до непоследователни разпоредби в различните юрисдикции. Това, от своя страна, може да създаде слабости, от които извършителите на несъзнателна дълбока порнография да се възползват, оставяйки жертвите уязвими.
Един такъв пример е изменението на Закона за наказателното правосъдие на Обединеното кралство. Коалицията за прекратяване на насилието срещу жени (EVAW) посочва, че „прагът за този нов закон се основава на намеренията на извършителя“, вместо на това дали жертвата на дълбоко фалшива порнография без съгласие е съгласна с нейното създаване.
Андреа Саймън, директор на EVAW, казва, че това ще доведе до „огромна дупка в закона“, която ще даде на „извършителите карта за „излизане от затвора“, тъй като е много трудно да се докаже намерението в съда. В тази държава прокуратурата ще трябва да докаже, че целта на създателя е била конкретно да предизвика тревога, унижение или стрес. Това, смята Саймън, „в крайна сметка ще попречи на жертвите да получат достъп до правосъдие“.
И това е най-важното – дори на места, където има регулация срещу неконсенсуалната deepfake порнография, все още е необходима по-голяма яснота, за да се защитят правилно жертвите.
.
Две неща изглеждат ясни. Необходимостта от конкретна и обмислена регулация срещу неконсенсуалната deepfake порнография в ЕС – и фактът, че това в крайна сметка ще се случи. Проблемът, обяснява Алън, е, че „процесът на създаване на закони в ЕС по своята същност е дълъг“, тъй като трябва да премине през 27 държави, седем политически групи и Европейския съвет. Нещата в ЕС не се случват бързо по някаква причина.
Но дори когато (или ако) се появи директна регулация срещу неконсенсусната дълбоко фалшива порнография, това не означава, че тя веднага ще реши всичко.
В разговор с Бил Айхнер от Центъра за анализ на европейската политика, CEPA, той казва, че Европа „има склонност да регулира и след това да се бори за прилагането ѝ поради фрагментирания характер на Европейския съюз“. Като пример той посочва GDPR и как той даде „общата дума за Google и Meta на Ирландия, а за Amazon – на Люксембург“, като нито една от двете страни не е имала намерение да се разчупи.
При по-новите регулации, като например DSA, Айхнер казва, че „те са увеличили прилагането на Брюксел“ и са направили администрацията по-централизирана. Той обаче смята, че проблемът е свързан с ресурсите, тъй като частта от Европейската комисия, която се грижи за регламенти като DSA, често се състои от „само няколко служители“.
Това, в комбинация със структурата на ЕС, може да превърне прилагането в кошмар – и няма причина да се смята, че борбата с неконсенсусната дълбокофалшива порнография ще бъде по-различна.
„Смятам, че спирането на дълбоко фалшивата порнография представлява значително предизвикателство, подобно на киберсигурността“, казва Ванберген. И все пак това не означава, че не можем да се борим с нея.
Едно от нещата, които Ванберген посочва, е разработването на инструменти, управлявани от изкуствен интелект, които са в състояние да откриват дълбоко фалшиво съдържание, така че операторите да могат да го премахват бързо и ефективно.
Алън е на подобно мнение, но посочва, че създаването на тези инструменти трябва да бъде сериозно проучено, така че използваните техники да са „ефективни, пропорционални и да водят до справедливи резултати“.
За съжаление обаче е малко вероятно неконсенсусната дълбокофалшива порнография да изчезне напълно от обществото. Както казва Ванберген, „макар че пълното изкореняване може да е непостижимо, значителното намаляване е постижимо чрез проактивни мерки и съвместни усилия в различни сектори“.
Бейнс от BCS подкрепя тази мисъл. Тя изтъква, че освен „техническите мерки и правните възпиращи мерки, ще трябва да се опитаме да намалим стигмата на дълбокия фалшификат чрез повишаване на осведомеността, че това не са истински изображения“.
Идеята е, че наред с техническите мерки трябва да се окаже обществен и образователен натиск срещу незаконното съдържание. Това, ако се съчетае с по-голямо финансиране за тези, които искат да преследват извършителите, може да намали сериозно вредите, които то причинява.
В крайна сметка неконсенсусната дълбокофалшива порнография няма да изчезне от само себе си. Тя изисква съгласувани усилия във всички аспекти на правителството и обществото, за да се подчертае какво представлява: злоупотреба.
Необходими са общоевропейски разпоредби срещу създаването на дълбоко фалшива порнография без съгласие, но това само по себе си няма да е достатъчно. Вместо това трябва да има рамка за прилагане на тези закони. Технологиите могат да изиграят важна роля в това отношение, но е необходим и културен императив – подобно на шофирането в нетрезво състояние.
Да, с развитието на технологиите те неминуемо ще бъдат използвани за лоши цели. Но нещата не са толкова прости. Самите инструменти, които дават възможност за злонамерени действия, могат и да ги предотвратят. Може да не сме в състояние да спрем изгрева и залеза на слънцето, но можем да повлияем е начина, по който хората използват технологиите. Да се надяваме, че това ще се случи скоро.
АБОНИРАЙТЕ СЕ ЗА НАШИЯ Е-БЮЛЕТИН И ПОЛУЧАВАЙТЕ НОВИНИ И СЪВЕТИ НА ТЕМА КИБЕРСИГУРНОСТ.
© 2022 Фондация “Киберсигурност за Всеки” с ЕИК 206932045. Всички права запазени. Политики за поверителност.
ж.к. Гео Милев бл. 117, вх.А
София 1113, България
support[@]e-security.bg
Фондация “Киберсигурност за Всеки” с ЕИК 206932045 е ЮЛНЦ в обществена полза, регистрирано в ЕС, работещо в съответствие с мисията и целите си.
Моля, имайте предвид, че всички споменати продукти и/или имена на компании са търговски марки ™ или ® на съответните им притежатели. Уебсайтът/фондацията няма никаква свързаност и/или одобрение за/от тях – тези търговски марки се използват само за образователни цели като примери. Настоящият уебсайт е онлайн информационна платформа, управлявана от доброволна фондация в обществена полза. Благодарим ви, че сте тук и за всякакви допълнителни въпроси, не се колебайте да се свържете с нас.
Мисията на Фондация “Киберсигурност за Всеки” е да допринесе за подобряване на киберсигурността, информационна сигурност и защита на системите и да повиши културата на обществото и организациите по тези и свързани с тях теми. Ние насърчаване безопасността и поверителността на потребителите, като повишаваме осведомеността, информираме за най-добрите и нови практики и помагаме на хора и организации да преодолеят съвременните предизвикателства за сигурността на мрежата и опазването на техните дигиталните активи.
На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.
Моля, проверете електронната си поща за да потвърдите.