Търсене
Close this search box.

Deepfake демокрация: Технологията на изкуствения интелект усложнява сигурността на изборите

Неотдавнашните събития, включително генерираното от изкуствен интелект (ИИ) дълбоко фалшиво обаждане, представящо се за президента Байдън и призоваващо гласоподавателите в Ню Хемпшир да се въздържат от участие в първичните избори, са ярко напомняне, че злонамерените хакери все по-често разглеждат съвременните платформи за генериращ ИИ (GenAI) като мощно оръжие за атакуване на избори в САЩ.

Платформи като ChatGPT, Gemini на Google (бивш Bard) или всякакви специално създадени за целта големи езикови модели (LLM) в тъмната мрежа биха могли да играят роля в нарушаването на демократичния процес, като атаките обхващат кампании за масово влияние, автоматизиран тролинг и разпространение на дълбоко фалшиво съдържание.

Всъщност директорът на ФБР Кристофър Рей неотдавна изрази опасения за продължаваща информационна война с помощта на дълбоки фалшификати, която може да сее дезинформация по време на предстоящата президентска кампания, тъй като подкрепяни от държавата участници се опитват да променят геополитическите баланси.

GenAI може също така да автоматизира възхода на мрежите за „координирано неавтентично поведение“, които се опитват да развият аудитория за своите кампании за дезинформация чрез фалшиви новини, убедителни профили в социалните медии и други начини – с цел да посеят раздор и да подкопаят общественото доверие в изборния процес.

Влияние върху изборите: Съществени рискове и кошмарни сценарии

От гледна точка на Падраик О’Райли, главен директор по иновациите в CyberSaint, рискът е „значителен“, защото технологията се развива толкова бързо.

„Обещава да бъде интересно, а може би и малко тревожно, тъй като виждаме нови варианти на дезинформация, използващи технологията на дълбоките фалшификати“, казва той.

По-конкретно, казва О’Райли, „кошмарният сценарий“ е, че микротаргетирането с генерирано от изкуствен интелект съдържание ще се разпространи в платформите на социалните медии. Това е тактика, позната от скандала с Cambridge Analytica, при който компанията събра данни за психологическия профил на 230 млн. американски избиратели, за да поднесе силно персонализирани съобщения чрез Facebook на хората в опит да повлияе на техните убеждения – и гласове. Но GenAI може да автоматизира този процес в голям мащаб и да създаде изключително убедително съдържание, което ще има малко, ако изобщо има, характеристики на „бот“, които биха могли да отблъснат хората.

„Откраднатите данни за таргетиране [личностни снимки на потребителя и неговите интереси], обединени със съдържание, генерирано от ИИ, представляват реален риск“, обяснява той. „Руските кампании за дезинформация от 2013-2017 г. подсказват какво още би могло да се случи и ще се случи, а ние знаем за дълбоки фалшификати, генерирани от граждани на САЩ [като този] с участието на Байдън и Елизабет Уорън.“

Смесицата от социални медии и леснодостъпни технологии за дълбоки фалшификации може да се окаже оръжие на Страшния съд за поляризиране на гражданите на САЩ в една вече дълбоко разделена страна, добавя той.

„Демокрацията се основава на определени споделени традиции и информация, а опасността тук е засилена балканизация сред гражданите, водеща до това, което изследователката от Станфорд Рене ДиРеста нарича „поръчкови реалности“,“ казва О’Райли, известен още като хора, вярващи в „алтернативни факти“.

Платформите, които  заплахите използват, за да сеят разделение, вероятно няма да са от голяма полза: Той допълва, че например платформата за социални медии X, известна преди като Twitter, е намалила контрола на качеството на съдържанието.

„Другите платформи предоставиха шаблонни уверения, че ще се справят с дезинформацията, но защитата на свободата на словото и липсата на регулация все още оставят полето широко отворено за лошите“, предупреждава той.

AI засилва съществуващите техники за фишинг

Според Скот Смол, директор на отдела за разузнаване на киберзаплахи в Tidal Cyber, GenAI вече се използва за създаване на по-достоверни и целенасочени фишинг кампании в голям мащаб, но в контекста на сигурността на изборите това явление е още по-обезпокоително.

„Очакваме кибернетичните противници да възприемат генеративен ИИ, за да направят по-убедителни фишинг атаките и атаките със социален инженеринг – водещите форми на атаки, свързани с изборите, по отношение на постоянния им обем в продължение на много години – което увеличава вероятността целите да взаимодействат със злонамерено съдържание“, обяснява той.

Смол казва, че внедряването на ИИ също така намалява бариерата за навлизане в процеса на стартиране на такива атаки – фактор, който вероятно ще увеличи обема на кампаниите през тази година, които се опитват да проникнат в кампании или да превземат акаунти на кандидати с цел да се представят за тях, наред с други потенциални възможности.

„Криминалните и националните противници редовно адаптират примамките за фишинг и социален инженеринг към актуални събития и популярни теми и тези участници почти сигурно ще се опитат да се възползват от бума на цифрово съдържание, свързано с изборите, което се разпространява като цяло тази година, за да се опитат да доставят злонамерено съдържание на нищо неподозиращи потребители“, казва той.

Защита срещу атаките на избори с изкуствен интелект

За да се защитят от тези заплахи, изборните служители и кампаниите трябва да са наясно с рисковете, задвижвани от GenAI, и как да се защитават от тях.

„Изборните служители и кандидатите постоянно дават интервюта и пресконференции, от които  заплахите могат да извличат звукови хапки за дълбоки фалшификации, базирани на ИИ“, казва Джеймс Търгал, вицепрезидент по киберрисковете в Optiv. „Ето защо те са длъжни да се уверят, че разполагат с лице или екип, които отговарят за осигуряването на контрол върху съдържанието.“

Те също така трябва да се уверят, че доброволците и работниците са обучени за заплахите, задвижвани от изкуствен интелект, като например засилен социален инженеринг,  заплахите и хакерите, които стоят зад тях, и как да реагират на подозрителна дейност.

За тази цел служителите трябва да участват в обучение по социално инженерство и deepfake видео, което включва информация за всички форми и вектори на атака, включително електронни (имейл, текст и платформи на социалните медии), лични и телефонни опити.

„Това е толкова важно – особено при доброволците – защото не всички имат добра киберхигиена“, казва Търгал.

Освен това доброволците, участващи в кампании и избори, трябва да бъдат обучени как безопасно да предоставят информация онлайн и на външни субекти, включително публикации в социалните медии, и да внимават, когато го правят.

„Субектите на киберзаплахи могат да съберат тази информация, за да пригодят примамките със социално инженерство към конкретни цели“, предупреждава той.

О’Райли казва, че в дългосрочен план регулацията, която включва водни знаци за аудио- и видеодълбоки фалшификати, ще бъде от съществено значение, като отбелязва, че федералното правителство работи със собствениците на ДУУ за въвеждане на защити.

Всъщност Федералната комисия по комуникациите (FCC) току-що обяви гласовите повиквания, генерирани от изкуствен интелект, за „изкуствени“ съгласно Закона за защита на потребителите на телефонни услуги (TCPA), като направи използването на технологията за клониране на глас незаконно и предостави на главните прокурори на щатите в цялата страна нови инструменти за борба с подобни измамни дейности.

„ИИ се движи толкова бързо, че съществува вътрешна опасност всички предложени правила да станат неефективни с напредването на технологиите, като потенциално могат да пропуснат целта“, казва О’Райли. „В някои отношения това е Дивият Запад и ИИ излиза на пазара с много малко предпазни мерки.“

 

Източник: DARKReading

Подобни публикации

16 април 2024

CISA издаде извънредна директива

На 11 април Агенцията за киберсигурност и инфраструктурна сигурност...
15 април 2024

CP3O е арестуван

Министерството на правосъдието на САЩ обяви ареста и повдигането на...
15 април 2024

Daixin Team ransomware е атакувала успешно Omni...

Бандата Daixin Team ransomware е извършила неотдавнашна кибератака ...
15 април 2024

За проблемите с работната сила в сферата киберс...

  За проблемите с работната сила в сферата киберсигурността в ...
15 април 2024

КНДР се възползва от 2 подтехники: Призрачно от...

Този месец MITRE ще добави две подтехники към своята база данни ATT...
15 април 2024

Хакер твърди, че е пробил Giant Tiger и пусна 2...

Канадската верига за търговия на дребно Giant Tiger разкрива наруше...
14 април 2024

MuddyWater приемат нов C2 инструмент "DarkBeatC...

Иранският участник в заплахите, известен като MuddyWater, е причисл...
14 април 2024

Критичен недостатък на Palo Alto Networks PAN-O...

Palo Alto Networks предупреждава, че критичен недостатък, засягащ с...
Бъдете социални
Още по темата
16/04/2024

CISA издаде извънредна дире...

На 11 април Агенцията за киберсигурност...
15/04/2024

За проблемите с работната с...

  За проблемите с работната сила...
15/04/2024

КНДР се възползва от 2 подт...

Този месец MITRE ще добави две...
Последно добавени
16/04/2024

CISA издаде извънредна дире...

На 11 април Агенцията за киберсигурност...
15/04/2024

CP3O е арестуван

Министерството на правосъдието на САЩ обяви...
15/04/2024

Daixin Team ransomware е ат...

Бандата Daixin Team ransomware е извършила...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!