Търсене
Close this search box.

Deepfake демокрация: Технологията на изкуствения интелект усложнява сигурността на изборите

Неотдавнашните събития, включително генерираното от изкуствен интелект (ИИ) дълбоко фалшиво обаждане, представящо се за президента Байдън и призоваващо гласоподавателите в Ню Хемпшир да се въздържат от участие в първичните избори, са ярко напомняне, че злонамерените хакери все по-често разглеждат съвременните платформи за генериращ ИИ (GenAI) като мощно оръжие за атакуване на избори в САЩ.

Платформи като ChatGPT, Gemini на Google (бивш Bard) или всякакви специално създадени за целта големи езикови модели (LLM) в тъмната мрежа биха могли да играят роля в нарушаването на демократичния процес, като атаките обхващат кампании за масово влияние, автоматизиран тролинг и разпространение на дълбоко фалшиво съдържание.

Всъщност директорът на ФБР Кристофър Рей неотдавна изрази опасения за продължаваща информационна война с помощта на дълбоки фалшификати, която може да сее дезинформация по време на предстоящата президентска кампания, тъй като подкрепяни от държавата участници се опитват да променят геополитическите баланси.

GenAI може също така да автоматизира възхода на мрежите за „координирано неавтентично поведение“, които се опитват да развият аудитория за своите кампании за дезинформация чрез фалшиви новини, убедителни профили в социалните медии и други начини – с цел да посеят раздор и да подкопаят общественото доверие в изборния процес.

Влияние върху изборите: Съществени рискове и кошмарни сценарии

От гледна точка на Падраик О’Райли, главен директор по иновациите в CyberSaint, рискът е „значителен“, защото технологията се развива толкова бързо.

„Обещава да бъде интересно, а може би и малко тревожно, тъй като виждаме нови варианти на дезинформация, използващи технологията на дълбоките фалшификати“, казва той.

По-конкретно, казва О’Райли, „кошмарният сценарий“ е, че микротаргетирането с генерирано от изкуствен интелект съдържание ще се разпространи в платформите на социалните медии. Това е тактика, позната от скандала с Cambridge Analytica, при който компанията събра данни за психологическия профил на 230 млн. американски избиратели, за да поднесе силно персонализирани съобщения чрез Facebook на хората в опит да повлияе на техните убеждения – и гласове. Но GenAI може да автоматизира този процес в голям мащаб и да създаде изключително убедително съдържание, което ще има малко, ако изобщо има, характеристики на „бот“, които биха могли да отблъснат хората.

„Откраднатите данни за таргетиране [личностни снимки на потребителя и неговите интереси], обединени със съдържание, генерирано от ИИ, представляват реален риск“, обяснява той. „Руските кампании за дезинформация от 2013-2017 г. подсказват какво още би могло да се случи и ще се случи, а ние знаем за дълбоки фалшификати, генерирани от граждани на САЩ [като този] с участието на Байдън и Елизабет Уорън.“

Смесицата от социални медии и леснодостъпни технологии за дълбоки фалшификации може да се окаже оръжие на Страшния съд за поляризиране на гражданите на САЩ в една вече дълбоко разделена страна, добавя той.

„Демокрацията се основава на определени споделени традиции и информация, а опасността тук е засилена балканизация сред гражданите, водеща до това, което изследователката от Станфорд Рене ДиРеста нарича „поръчкови реалности“,“ казва О’Райли, известен още като хора, вярващи в „алтернативни факти“.

Платформите, които  заплахите използват, за да сеят разделение, вероятно няма да са от голяма полза: Той допълва, че например платформата за социални медии X, известна преди като Twitter, е намалила контрола на качеството на съдържанието.

„Другите платформи предоставиха шаблонни уверения, че ще се справят с дезинформацията, но защитата на свободата на словото и липсата на регулация все още оставят полето широко отворено за лошите“, предупреждава той.

AI засилва съществуващите техники за фишинг

Според Скот Смол, директор на отдела за разузнаване на киберзаплахи в Tidal Cyber, GenAI вече се използва за създаване на по-достоверни и целенасочени фишинг кампании в голям мащаб, но в контекста на сигурността на изборите това явление е още по-обезпокоително.

„Очакваме кибернетичните противници да възприемат генеративен ИИ, за да направят по-убедителни фишинг атаките и атаките със социален инженеринг – водещите форми на атаки, свързани с изборите, по отношение на постоянния им обем в продължение на много години – което увеличава вероятността целите да взаимодействат със злонамерено съдържание“, обяснява той.

Смол казва, че внедряването на ИИ също така намалява бариерата за навлизане в процеса на стартиране на такива атаки – фактор, който вероятно ще увеличи обема на кампаниите през тази година, които се опитват да проникнат в кампании или да превземат акаунти на кандидати с цел да се представят за тях, наред с други потенциални възможности.

„Криминалните и националните противници редовно адаптират примамките за фишинг и социален инженеринг към актуални събития и популярни теми и тези участници почти сигурно ще се опитат да се възползват от бума на цифрово съдържание, свързано с изборите, което се разпространява като цяло тази година, за да се опитат да доставят злонамерено съдържание на нищо неподозиращи потребители“, казва той.

Защита срещу атаките на избори с изкуствен интелект

За да се защитят от тези заплахи, изборните служители и кампаниите трябва да са наясно с рисковете, задвижвани от GenAI, и как да се защитават от тях.

„Изборните служители и кандидатите постоянно дават интервюта и пресконференции, от които  заплахите могат да извличат звукови хапки за дълбоки фалшификации, базирани на ИИ“, казва Джеймс Търгал, вицепрезидент по киберрисковете в Optiv. „Ето защо те са длъжни да се уверят, че разполагат с лице или екип, които отговарят за осигуряването на контрол върху съдържанието.“

Те също така трябва да се уверят, че доброволците и работниците са обучени за заплахите, задвижвани от изкуствен интелект, като например засилен социален инженеринг,  заплахите и хакерите, които стоят зад тях, и как да реагират на подозрителна дейност.

За тази цел служителите трябва да участват в обучение по социално инженерство и deepfake видео, което включва информация за всички форми и вектори на атака, включително електронни (имейл, текст и платформи на социалните медии), лични и телефонни опити.

„Това е толкова важно – особено при доброволците – защото не всички имат добра киберхигиена“, казва Търгал.

Освен това доброволците, участващи в кампании и избори, трябва да бъдат обучени как безопасно да предоставят информация онлайн и на външни субекти, включително публикации в социалните медии, и да внимават, когато го правят.

„Субектите на киберзаплахи могат да съберат тази информация, за да пригодят примамките със социално инженерство към конкретни цели“, предупреждава той.

О’Райли казва, че в дългосрочен план регулацията, която включва водни знаци за аудио- и видеодълбоки фалшификати, ще бъде от съществено значение, като отбелязва, че федералното правителство работи със собствениците на ДУУ за въвеждане на защити.

Всъщност Федералната комисия по комуникациите (FCC) току-що обяви гласовите повиквания, генерирани от изкуствен интелект, за „изкуствени“ съгласно Закона за защита на потребителите на телефонни услуги (TCPA), като направи използването на технологията за клониране на глас незаконно и предостави на главните прокурори на щатите в цялата страна нови инструменти за борба с подобни измамни дейности.

„ИИ се движи толкова бързо, че съществува вътрешна опасност всички предложени правила да станат неефективни с напредването на технологиите, като потенциално могат да пропуснат целта“, казва О’Райли. „В някои отношения това е Дивият Запад и ИИ излиза на пазара с много малко предпазни мерки.“

 

Източник: DARKReading

Подобни публикации

22 юни 2024

Пробивът в JAXA не е довел до изтичане на важна...

Японската космическа агенция твърди, че няма изтичане на класифицир...

Cyber Europe тества енергийния сектор

Седмото издание на Cyber Europe, едно от най-големите учения за киб...
22 юни 2024

ЕВРО 2024: Хакери удариха излъчването на Полша ...

Хакери нарушиха онлайн излъчването на мача на Полша с Австрия от Ев...
22 юни 2024

Panera Bread призна за изтичане на данни

Американската верига за бързо хранене Panera Bread е започнала да у...
21 юни 2024

Change Healthcare най-после с подробности за ат...

UnitedHealth за първи път потвърди какви видове медицински данни и ...
21 юни 2024

САЩ наложиха санкции на 12 ръководители на Kasp...

Службата за контрол на чуждестранните активи (OFAC) към Министерств...
21 юни 2024

Хакери на Хамас шпионират Палестина и Египет

Хакери, свързани с Хамас, са замесени в пет кампании за кибершпиона...
20 юни 2024

Сериозна уязвимост на Phoenix UEFI

Стотици модели компютри и сървъри, които използват процесори на Int...
Бъдете социални
Още по темата
22/06/2024

ЕВРО 2024: Хакери удариха и...

Хакери нарушиха онлайн излъчването на мача...
21/06/2024

САЩ наложиха санкции на 12 ...

Службата за контрол на чуждестранните активи...
21/06/2024

Хакери на Хамас шпионират П...

Хакери, свързани с Хамас, са замесени...
Последно добавени
22/06/2024

Пробивът в JAXA не е довел ...

Японската космическа агенция твърди, че няма...
22/06/2024

Cyber Europe тества енергий...

Седмото издание на Cyber Europe, едно...
22/06/2024

ЕВРО 2024: Хакери удариха и...

Хакери нарушиха онлайн излъчването на мача...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!