Неотдавнашните събития, включително генерираното от изкуствен интелект (ИИ) дълбоко фалшиво обаждане, представящо се за президента Байдън и призоваващо гласоподавателите в Ню Хемпшир да се въздържат от участие в първичните избори, са ярко напомняне, че злонамерените хакери все по-често разглеждат съвременните платформи за генериращ ИИ (GenAI) като мощно оръжие за атакуване на избори в САЩ.

Платформи като ChatGPT, Gemini на Google (бивш Bard) или всякакви специално създадени за целта големи езикови модели (LLM) в тъмната мрежа биха могли да играят роля в нарушаването на демократичния процес, като атаките обхващат кампании за масово влияние, автоматизиран тролинг и разпространение на дълбоко фалшиво съдържание.

Всъщност директорът на ФБР Кристофър Рей неотдавна изрази опасения за продължаваща информационна война с помощта на дълбоки фалшификати, която може да сее дезинформация по време на предстоящата президентска кампания, тъй като подкрепяни от държавата участници се опитват да променят геополитическите баланси.

GenAI може също така да автоматизира възхода на мрежите за „координирано неавтентично поведение“, които се опитват да развият аудитория за своите кампании за дезинформация чрез фалшиви новини, убедителни профили в социалните медии и други начини – с цел да посеят раздор и да подкопаят общественото доверие в изборния процес.

Влияние върху изборите: Съществени рискове и кошмарни сценарии

От гледна точка на Падраик О’Райли, главен директор по иновациите в CyberSaint, рискът е „значителен“, защото технологията се развива толкова бързо.

„Обещава да бъде интересно, а може би и малко тревожно, тъй като виждаме нови варианти на дезинформация, използващи технологията на дълбоките фалшификати“, казва той.

По-конкретно, казва О’Райли, „кошмарният сценарий“ е, че микротаргетирането с генерирано от изкуствен интелект съдържание ще се разпространи в платформите на социалните медии. Това е тактика, позната от скандала с Cambridge Analytica, при който компанията събра данни за психологическия профил на 230 млн. американски избиратели, за да поднесе силно персонализирани съобщения чрез Facebook на хората в опит да повлияе на техните убеждения – и гласове. Но GenAI може да автоматизира този процес в голям мащаб и да създаде изключително убедително съдържание, което ще има малко, ако изобщо има, характеристики на „бот“, които биха могли да отблъснат хората.

„Откраднатите данни за таргетиране [личностни снимки на потребителя и неговите интереси], обединени със съдържание, генерирано от ИИ, представляват реален риск“, обяснява той. „Руските кампании за дезинформация от 2013-2017 г. подсказват какво още би могло да се случи и ще се случи, а ние знаем за дълбоки фалшификати, генерирани от граждани на САЩ [като този] с участието на Байдън и Елизабет Уорън.“

Смесицата от социални медии и леснодостъпни технологии за дълбоки фалшификации може да се окаже оръжие на Страшния съд за поляризиране на гражданите на САЩ в една вече дълбоко разделена страна, добавя той.

„Демокрацията се основава на определени споделени традиции и информация, а опасността тук е засилена балканизация сред гражданите, водеща до това, което изследователката от Станфорд Рене ДиРеста нарича „поръчкови реалности“,“ казва О’Райли, известен още като хора, вярващи в „алтернативни факти“.

Платформите, които  заплахите използват, за да сеят разделение, вероятно няма да са от голяма полза: Той допълва, че например платформата за социални медии X, известна преди като Twitter, е намалила контрола на качеството на съдържанието.

„Другите платформи предоставиха шаблонни уверения, че ще се справят с дезинформацията, но защитата на свободата на словото и липсата на регулация все още оставят полето широко отворено за лошите“, предупреждава той.

AI засилва съществуващите техники за фишинг

Според Скот Смол, директор на отдела за разузнаване на киберзаплахи в Tidal Cyber, GenAI вече се използва за създаване на по-достоверни и целенасочени фишинг кампании в голям мащаб, но в контекста на сигурността на изборите това явление е още по-обезпокоително.

„Очакваме кибернетичните противници да възприемат генеративен ИИ, за да направят по-убедителни фишинг атаките и атаките със социален инженеринг – водещите форми на атаки, свързани с изборите, по отношение на постоянния им обем в продължение на много години – което увеличава вероятността целите да взаимодействат със злонамерено съдържание“, обяснява той.

Смол казва, че внедряването на ИИ също така намалява бариерата за навлизане в процеса на стартиране на такива атаки – фактор, който вероятно ще увеличи обема на кампаниите през тази година, които се опитват да проникнат в кампании или да превземат акаунти на кандидати с цел да се представят за тях, наред с други потенциални възможности.

„Криминалните и националните противници редовно адаптират примамките за фишинг и социален инженеринг към актуални събития и популярни теми и тези участници почти сигурно ще се опитат да се възползват от бума на цифрово съдържание, свързано с изборите, което се разпространява като цяло тази година, за да се опитат да доставят злонамерено съдържание на нищо неподозиращи потребители“, казва той.

Защита срещу атаките на избори с изкуствен интелект

За да се защитят от тези заплахи, изборните служители и кампаниите трябва да са наясно с рисковете, задвижвани от GenAI, и как да се защитават от тях.

„Изборните служители и кандидатите постоянно дават интервюта и пресконференции, от които  заплахите могат да извличат звукови хапки за дълбоки фалшификации, базирани на ИИ“, казва Джеймс Търгал, вицепрезидент по киберрисковете в Optiv. „Ето защо те са длъжни да се уверят, че разполагат с лице или екип, които отговарят за осигуряването на контрол върху съдържанието.“

Те също така трябва да се уверят, че доброволците и работниците са обучени за заплахите, задвижвани от изкуствен интелект, като например засилен социален инженеринг,  заплахите и хакерите, които стоят зад тях, и как да реагират на подозрителна дейност.

За тази цел служителите трябва да участват в обучение по социално инженерство и deepfake видео, което включва информация за всички форми и вектори на атака, включително електронни (имейл, текст и платформи на социалните медии), лични и телефонни опити.

„Това е толкова важно – особено при доброволците – защото не всички имат добра киберхигиена“, казва Търгал.

Освен това доброволците, участващи в кампании и избори, трябва да бъдат обучени как безопасно да предоставят информация онлайн и на външни субекти, включително публикации в социалните медии, и да внимават, когато го правят.

„Субектите на киберзаплахи могат да съберат тази информация, за да пригодят примамките със социално инженерство към конкретни цели“, предупреждава той.

О’Райли казва, че в дългосрочен план регулацията, която включва водни знаци за аудио- и видеодълбоки фалшификати, ще бъде от съществено значение, като отбелязва, че федералното правителство работи със собствениците на ДУУ за въвеждане на защити.

Всъщност Федералната комисия по комуникациите (FCC) току-що обяви гласовите повиквания, генерирани от изкуствен интелект, за „изкуствени“ съгласно Закона за защита на потребителите на телефонни услуги (TCPA), като направи използването на технологията за клониране на глас незаконно и предостави на главните прокурори на щатите в цялата страна нови инструменти за борба с подобни измамни дейности.

„ИИ се движи толкова бързо, че съществува вътрешна опасност всички предложени правила да станат неефективни с напредването на технологиите, като потенциално могат да пропуснат целта“, казва О’Райли. „В някои отношения това е Дивият Запад и ИИ излиза на пазара с много малко предпазни мерки.“

 

Източник: DARKReading

Подобни публикации

7 февруари 2025

7 стъпки към подобряване на киберустойчивостта ...

В днешно време повечето аспекти на бизнеса са цифровизирани и е от ...
7 февруари 2025

Hападателите използват открити ключове на ASP.N...

Microsoft предупреждава, че нападателите внедряват зловреден софтуе...
7 февруари 2025

Законодателите от Камарата забраняват приложени...

Двупартийно дуо в Камарата на представителите на САЩ предлага закон...
7 февруари 2025

Zimperium откри 1 000 приложения, използвани в ...

Фирмата за мобилна сигурност Zimperium е разкрила широка злонамерен...
7 февруари 2025

Astra и Invary набираха милиони за AI-Pentesti...

Тази седмица стартиращите компании за киберсигурност Astra Security...
7 февруари 2025

Хакер, атакувал НАТО и армията на САЩ, е аресту...

Испанските власти обявиха, че е арестувано лице, заподозряно като х...
6 февруари 2025

Нигерия с успехи в киберсигурността, въпреки че...

Правителството на Нигерия предприе по-строги мерки срещу финансовит...
Бъдете социални
Още по темата
07/02/2025

7 стъпки към подобряване на...

В днешно време повечето аспекти на...
07/02/2025

Hападателите използват откр...

Microsoft предупреждава, че нападателите внедряват зловреден...
07/02/2025

Законодателите от Камарата ...

Двупартийно дуо в Камарата на представителите...
Последно добавени
07/02/2025

7 стъпки към подобряване на...

В днешно време повечето аспекти на...
07/02/2025

Hападателите използват откр...

Microsoft предупреждава, че нападателите внедряват зловреден...
07/02/2025

Законодателите от Камарата ...

Двупартийно дуо в Камарата на представителите...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!