Събуждате се в деня на изборите и отключвате телефона си, за да видите разтреперано видео от вашата столица. На забързаните кадри от сградата на парламента се стеле дим. В други клипове, публикувани заедно с него, в далечината се чуват изстрели. Мислите си: Може би е по-добре да пропуснете избирателната секция днес. Едва по-късно научавате, че видеоклиповете са фалшифицирани от изкуствен интелект.
Приятел ви се обажда разстроен. Анонимен непознат го е вкарал в серия от порнографски дълбоки фалшификати и сега видеоклиповете се разпространяват от сайт на сайт. Полицията е казала да се обърне към адвокат, но писмата за прекратяване на дейността не дават резултат.
Вие сте известен актьор. Голяма технологична компания иска да бъдете гласът на най-новия ѝ асистент с изкуствен интелект. Вие отказвате. Месеци по-късно чатботът е пуснат и хората казват, че звучи точно като вас. Никога не сте давали съгласието си за подобно подражание и сега някой друг печели от гласа ви.
Тъй като фалшификатите, създадени от генеративен изкуствен интелект, заливат интернет, съвсем скоро всеки, не само Скарлет Йохансон, може да има подобна история за разказване. Законодателите в Съединените щати наскоро приеха близо дузина закони и внесоха още десетки, за да регулират имитациите на изкуствен интелект във всичките им форми. Но тази правна кампания сега се сблъсква с критики от невероятен източник. Групи за защита на правата на човека, водени от националния Американски съюз за граждански свободи (ACLU) и неговите филиали на щатско ниво, изграждат правна позиция, която цели да ограничи или дори да отхвърли много от тези нови правила. Същността на аргументацията е следната: Американците имат конституционното право да фалшифицират своите съграждани.
„Винаги, когато виждате големи вълни от законопроекти, които се опитват да регулират нова технология в 50 различни щатски законодателни органа и Бог знае колко общински наредби, ще има доста голям брой от тях, които очертават границите неправилно“, каза ми Брайън Хаус, старши адвокат в проекта на ACLU „Реч, неприкосновеност на личния живот и технологии“. „Така че не се съмнявам,“ продължи той, „че ще има много съдебни спорове по тези законопроекти, когато те бъдат приложени.“
Такива съдебни спорове могат да се окажат неудобна равносметка за набъбващото движение за регулиране на изкуствения интелект – и да доведат до едно объркано бъдеще, в което всички ще трябва просто да се примирим с известно количество машинно имитиране.
ОСТАВЯМЕ настрана идеята, че самият ИИ има права. Той няма такива права. ИИ „е инструмент, като тостер или друг неодушевен предмет“, каза ми Хаус. „Но когато използвам ИИ, за да съобщя нещо на света“, каза той, „имам права по Първата поправка.“
По аналогия, един цветен плакат, който обявява „Благодаря на Бога за мъртвите войници“, няма никакви законови привилегии. Но когато членовете на баптистката църква „Уестборо“ изработят такъв надпис и го размахват в близост до погребение на ветеран, те имат право на същата конституционна защита, която обхваща всички останали. Колкото и неприемлив да е самият знак, тези права са неотменими. (През 2010 г. църквата беше осъдена да плати 5 милиона долара на бащата на морски пехотинец, на чието погребение тя организира пикет. По-късно това решение беше отменено, а в последвалото дело във Върховния съд ACLU подаде правна обосновка в подкрепа на позицията на църквата. Съдът се произнесе в полза на църквата.)
И след като веднъж съществува законно изказване – независимо дали става дума за протестен плакат или за злобен фейк, който сте направили за съседа си – съдебната практика по Първата поправка поставя строги ограничения за това кога и защо правителството може да действа, за да го скрие от погледа на другите. „Представете си свят, в който правителството не ограничава кой може да говори, а ограничава кой може да слуша“, казва Коди Венцке от Националния отдел за политическо застъпничество на ACLU. „Тези две права трябва да съществуват заедно.“ Тази идея понякога се нарича „право на слушане“.
По тези критерии много от законите и наредбите на АЛС, които получиха двупартийна подкрепа в цялата страна, просто не преминават конституционен контрол. А те са много на брой.
Миналото лято Федералната избирателна комисия започна да обмисля дали съществуващото правило за измамно представяне на неверни данни се прилага към „умишлено заблуждаващи реклами на кампании с изкуствен интелект“. В писмо до Федералната избирателна комисия Американският съюз за защита на правата на човека (ACLU) предупреди, че правилото ще трябва да бъде строго ограничено до дълбоките фалшификати, чиито създатели са имали доказано намерение да заблудят обществеността, а не до всякакви дълбоки фалшификати, които могат да заблудят някои зрители. (FEC не е взела решение.)
Междувременно през октомври 2023 г. президентът Байдън подписа широкообхватна изпълнителна заповед за изкуствения интелект, която включваше директива към Министерството на търговията да разработи стандарти за воден знак на резултатите от изкуствения интелект. „Всеки има право да знае кога аудиото, което чува, или видеото, което гледа, е генерирано или променено от ИИ“, заяви Байдън. Американският съюз за защита на правата на човека (ACLU) и други групи за граждански свободи са особено предпазливи към идеята за етикетиране, както защото може да не е ефективно – лошите могат да намерят технически заобиколни начини, така и защото принуждава хората да упражняват реч, която иначе биха оставили неизказана. По аналогия изискването за етикетиране на всички дълбоки фалшификати би било малко подобно на изискването всички комици да крещят „Това е пародия!“, преди да започнат да имитират политик.
На щатско ниво се наблюдава още по-голяма законодателна дейност. Само през януари тази година щатските законодатели са внесли 101 законопроекта, свързани с дълбоките фалшификати, според BSA, група за търговия със софтуер. Един от тези законопроекти, внесен в щата Джорджия, предвижда да се счита за престъпление създаването или споделянето на deepfake с цел да се повлияе на изборите. Това изправя юристите и адвокатите в щатския филиал на ACLU пред мъчителен избор.
„В миналото ACLU на Джорджия е бил наистина голям поддръжник на правата на избирателите“, каза ми Сара Хънт-Блакуел, застъпник за политиката на първата поправка в организацията. Само няколко дни преди законопроектът да стигне до гласуване, гласоподавателите на първичните избори в Ню Хемпшир са получили обаждания, в които дълбоко загатнатият глас на Джо Байдън ги е призовавал да си останат вкъщи от урните. Това е „изключително обезпокоително“, каза Хънт-Блакуел.
И все пак екипът в крайна сметка решава, след като се консултира с националния офис на ACLU, че цензурирането и свръхкриминализирането на невярната политическа реч би било по-голяма заплаха. Макар че организацията подкрепя по-тясно съобразени правила срещу дезинформацията за датата, мястото и часа на изборите, която смята за форма на потискане на избирателите, тя твърди, че гражданите имат конституционно право да използват изкуствен интелект за разпространяване на неистини, точно както лъжат на хартия или в коментари от трибуната на политически митинг. „Политиката винаги е била предимно лъжа“, каза ми един високопоставен служител на ACLU.
На 29 януари в показанията си пред съдебната комисия на Сената на щата Джорджия Хънт-Блакуел призова законодателите да се откажат от наказателните санкции в законопроекта и да добавят специални разпоредби за новинарските медии, които желаят да публикуват дълбоки фалшификати като част от своите репортажи. Законодателната сесия на Джорджия приключи преди законопроектът да бъде приет.
ФЕДЕРАЛНОТО ЗАКОНОДАТЕЛСТВО за дълбоките фалшификати също ще срещне съпротива. През януари законодателите в Конгреса внесоха Закона за забрана на фалшифицирането на изкуствен интелект, който ще предостави права на собственост върху образа и гласа на хората. Това би позволило на лицата, изобразени във всеки вид deepfake, както и на техните наследници, да съдят тези, които са участвали в създаването или разпространението на фалшификацията. Подобни правила имат за цел да защитят хората както от порнографски deepfakes, така и от художествени имитации. Седмици по-късно ACLU, Фондацията за електронна граница и Центърът за демокрация и технологии представиха писмено възражение.
Заедно с няколко други групи те твърдят, че законите могат да бъдат използвани за потискане на много повече от незаконна реч. В писмото се твърди, че самата перспектива да бъдат изправени пред съдебен процес може да откаже хората да използват технологията за защитени от конституцията действия като сатира, пародия или мнение.
В изявление за WIRED вносителката на законопроекта, представителката Мария Елвира Салазар, отбелязва, че „Законът No AI FRAUD съдържа изрично признаване на защитата на Първата поправка за словото и изразяването в обществен интерес“. Представителката Ивет Кларк, която е спонсор на паралелен законопроект, изискващ deepfakes, изобразяващи реални хора, да бъдат етикетирани, заяви пред WIRED, че той е бил изменен, за да включи изключения за сатирата и пародията.
В интервюта за WIRED политическите защитници и юристите в ACLU отбелязаха, че не се противопоставят на тясно съобразени регулации, насочени към неконсенсусна deepfake порнография. Но те посочиха съществуващите закони за борба с тормоза като стабилна рамка за справяне с проблема. „Разбира се, може да има проблеми, които не могат да бъдат регулирани със съществуващите закони“, каза ми Джена Левентоф, старши съветник по политиките на ACLU. „Но мисля, че общото правило е, че съществуващият закон е достатъчен, за да се справи с много от тези проблеми.“
Това обаче далеч не е консенсусно мнение сред правните учени. Както каза Мери Ан Франкс, професор по право в Университета „Джордж Вашингтон“ и водещ защитник на строги правила за борба с фалшификациите, в имейл до WIRED: „Очевидният недостатък на аргумента „Вече имаме закони за справяне с това“ е, че ако това беше вярно, нямаше да сме свидетели на експлозия на тези злоупотреби без съответно увеличение на броя на подадените наказателни обвинения.“ По принцип, каза Франкс, прокурорите по дело за тормоз трябва да докажат по несъмнен начин, че предполагаемият извършител е имал намерение да навреди на конкретна жертва – висока летва, която трябва да се покрие, когато извършителят може дори да не познава жертвата.
Франкс добави: „Една от постоянните теми на жертвите, които преживяват това насилие, е, че за тях няма очевидни правни средства за защита – а те са тези, които биха могли да знаят.“
ACLU все още не е подала иск срещу нито едно правителство във връзка с нормативната уредба за генеративния изкуствен интелект. Представители на организацията не казаха дали тя подготвя дело, но както националният офис, така и няколко филиала заявиха, че внимателно следят законодателната процедура. Левентоф ме увери: „Склонни сме да действаме бързо, когато се появи нещо“.
ACLU и други групи не отричат ужасите на неправилно използвания генеративен изкуствен интелект – от политическа дезинформация през порнографски дълбоки фалшификати до присвояване на творби на художници. Смисълът на намесата в такива случаи не е да се одобри обидното съдържание. Както казва Хаус, „ние представляваме значителна част от речта, с която не сме съгласни“. По-скоро целта е да се предотврати това, което тези групи смятат за опасно изплъзване от конституцията. „Ако имате правен режим, който казва, че правителството може да потиска фейкове“, каза Хаус, „един от първите въпроси, които би трябвало да хрумнат на всеки, е как авторитарен държавен служител би използвал тези правомощия, за да потисне истинската реч за този човек?“
Миналата година Американският съюз за защита на правата на човека (ACLU) и множество други групи за граждански свободи подписаха писмо, с което се противопоставиха на двупартиен законопроект на Сената, който предвиждаше платформите за социални медии да носят отговорност за хостване на генеративно съдържание с изкуствен интелект, включително дълбоки фалшификати. В писмото се предупреждава, че като разхлаби разпоредбите, които предпазват компаниите от отговорност за съдържанието, което хостват, законът ще създаде регулаторна възможност за държавите да съдят компаниите и за съдържание, което не е свързано с изкуствен интелект. Авторите на писмото се позовават на законопроект, внесен миналата година в законодателния орган на Тексас, който би обявил за престъпление хостването на „информация за това как да се получи лекарство, предизвикващо аборт“ онлайн. Ако и двата законопроекта, федералният и щатският, станат закон, тогава платформите на социалните медии ще могат да бъдат преследвани за хостване на съдържание, свързано с абортите. Достатъчно е някой потребител да публикува нещо с помощта на изкуствен интелект – туит, съставен с помощта на ChatGPT, изображение, генерирано от DALL-E. В писмото се твърди, че дори „основни и обичайни“ инструменти като автодопълване и автокорекция могат да отговарят на определението за генеративен ИИ, дадено в законопроекта на Сената.
По подобни причини ACLU и EFF отдавна са скептични към разширяването на така наречените „права на публичност“, които са предложени за защита на артистите от имитация, генерирана от изкуствен интелект. Групите твърдят, че тези права могат да бъдат използвани от богатите и влиятелните за потискане на изказвания, които просто не им харесват. Ако предаването Saturday Night Live е правно защитено, когато някой от актьорите му се представя за Том Круз, то всеки, който прави дълбоки фалшификати на Том Круз, може да бъде правно уязвим при такива правила. Това би създало опасен прецедент, твърдят групите за граждански свободи. През март Тенеси прие нов закон – ELVIS Act, който забранява използването на изкуствен интелект за имитиране на гласовете на музиканти. ACLU не е коментирала публично закона, но служителите, които разговаряха с WIRED, изразиха скептицизъм, че използването на творческо съдържание за обучение на системи като ChatGPT или Dall-E е нарушение на авторските права.
ACLU има дълга история на спечелени дела за свобода на словото. Оспорването от тяхна страна на регулациите за генеративния ИИ може да залее с ледена вода надеждите за свят, в който необузданият ИИ се ограничава само от закона. Множество адвокати по дела за граждански свободи, с които разговарях, предположиха, че по-силното образование и медийната грамотност биха били по-добра защита срещу фалшификатите на ИИ, отколкото законодателите и съдиите. Но дали това е достатъчно?
Като общество винаги е трябвало да се примирим с известно количество неприятни, не особено полезни, понякога вредни изказвания, за да гарантираме защитата на словото, което подпомага каузата на откритостта и демокрацията. Но новите технологии за фалшифициране на речта са толкова широко разпространени, а алгоритмите, които пренасят съдържанието на екраните ни, са толкова строго оптимизирани в полза на крайното и разяждащото, че някои започват да се чудят дали предоставянето на речта на изкуствения интелект на абсолютно същата защита като тази на човешката реч може да донесе повече вреда, отколкото полза. „Страдаме от проблем, различен от този, от който сме страдали някога преди“, каза ми Мери Ан Франкс, професор по право в университета „Джордж Вашингтон“.
Въпреки това, все още е рано. Възможно е застъпническите групи и регулаторните органи да намерят начин да се върнат към същия нелек, но в крайна сметка работещ компромис, който винаги е характеризирал съдебната практика в областта на свободата на словото. В най-лошия случай обаче предстоящата борба може да наложи избор между две неприятни реалности. При абсолютистки прочит на Първата поправка може да бъдем осъдени да стоим безучастно пред алгоритмичния еквивалент на протеста на баптистката църква „Уестборо“ на погребението на войник всеки път, когато влизаме в интернет. От друга страна, преначертаването на принципите на свободата на словото – дори и минимално – може да предостави на бъдещите правителства немислима досега власт: да решават кое слово е вярно или ценно и кое не.
Автор: Артър Мичъл, WIRED
АБОНИРАЙТЕ СЕ ЗА НАШИЯ Е-БЮЛЕТИН И ПОЛУЧАВАЙТЕ НОВИНИ И СЪВЕТИ НА ТЕМА КИБЕРСИГУРНОСТ.
© 2022 Фондация “Киберсигурност за Всеки” с ЕИК 206932045. Всички права запазени. Политики за поверителност.
ж.к. Гео Милев бл. 117, вх.А
София 1113, България
support[@]e-security.bg
Фондация “Киберсигурност за Всеки” с ЕИК 206932045 е ЮЛНЦ в обществена полза, регистрирано в ЕС, работещо в съответствие с мисията и целите си.
Моля, имайте предвид, че всички споменати продукти и/или имена на компании са търговски марки ™ или ® на съответните им притежатели. Уебсайтът/фондацията няма никаква свързаност и/или одобрение за/от тях – тези търговски марки се използват само за образователни цели като примери. Настоящият уебсайт е онлайн информационна платформа, управлявана от доброволна фондация в обществена полза. Благодарим ви, че сте тук и за всякакви допълнителни въпроси, не се колебайте да се свържете с нас.
Мисията на Фондация “Киберсигурност за Всеки” е да допринесе за подобряване на киберсигурността, информационна сигурност и защита на системите и да повиши културата на обществото и организациите по тези и свързани с тях теми. Ние насърчаване безопасността и поверителността на потребителите, като повишаваме осведомеността, информираме за най-добрите и нови практики и помагаме на хора и организации да преодолеят съвременните предизвикателства за сигурността на мрежата и опазването на техните дигиталните активи.
На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.
Моля, проверете електронната си поща за да потвърдите.