Неотдавнашните събития, включително генерираното от изкуствен интелект (ИИ) дълбоко фалшиво обаждане, представящо се за президента Байдън и призоваващо гласоподавателите в Ню Хемпшир да се въздържат от участие в първичните избори, са ярко напомняне, че злонамерените хакери все по-често разглеждат съвременните платформи за генериращ ИИ (GenAI) като мощно оръжие за атакуване на избори в САЩ.
Платформи като ChatGPT, Gemini на Google (бивш Bard) или всякакви специално създадени за целта големи езикови модели (LLM) в тъмната мрежа биха могли да играят роля в нарушаването на демократичния процес, като атаките обхващат кампании за масово влияние, автоматизиран тролинг и разпространение на дълбоко фалшиво съдържание.
Всъщност директорът на ФБР Кристофър Рей неотдавна изрази опасения за продължаваща информационна война с помощта на дълбоки фалшификати, която може да сее дезинформация по време на предстоящата президентска кампания, тъй като подкрепяни от държавата участници се опитват да променят геополитическите баланси.
GenAI може също така да автоматизира възхода на мрежите за „координирано неавтентично поведение“, които се опитват да развият аудитория за своите кампании за дезинформация чрез фалшиви новини, убедителни профили в социалните медии и други начини – с цел да посеят раздор и да подкопаят общественото доверие в изборния процес.
От гледна точка на Падраик О’Райли, главен директор по иновациите в CyberSaint, рискът е „значителен“, защото технологията се развива толкова бързо.
„Обещава да бъде интересно, а може би и малко тревожно, тъй като виждаме нови варианти на дезинформация, използващи технологията на дълбоките фалшификати“, казва той.
По-конкретно, казва О’Райли, „кошмарният сценарий“ е, че микротаргетирането с генерирано от изкуствен интелект съдържание ще се разпространи в платформите на социалните медии. Това е тактика, позната от скандала с Cambridge Analytica, при който компанията събра данни за психологическия профил на 230 млн. американски избиратели, за да поднесе силно персонализирани съобщения чрез Facebook на хората в опит да повлияе на техните убеждения – и гласове. Но GenAI може да автоматизира този процес в голям мащаб и да създаде изключително убедително съдържание, което ще има малко, ако изобщо има, характеристики на „бот“, които биха могли да отблъснат хората.
„Откраднатите данни за таргетиране [личностни снимки на потребителя и неговите интереси], обединени със съдържание, генерирано от ИИ, представляват реален риск“, обяснява той. „Руските кампании за дезинформация от 2013-2017 г. подсказват какво още би могло да се случи и ще се случи, а ние знаем за дълбоки фалшификати, генерирани от граждани на САЩ [като този] с участието на Байдън и Елизабет Уорън.“
Смесицата от социални медии и леснодостъпни технологии за дълбоки фалшификации може да се окаже оръжие на Страшния съд за поляризиране на гражданите на САЩ в една вече дълбоко разделена страна, добавя той.
„Демокрацията се основава на определени споделени традиции и информация, а опасността тук е засилена балканизация сред гражданите, водеща до това, което изследователката от Станфорд Рене ДиРеста нарича „поръчкови реалности“,“ казва О’Райли, известен още като хора, вярващи в „алтернативни факти“.
Платформите, които заплахите използват, за да сеят разделение, вероятно няма да са от голяма полза: Той допълва, че например платформата за социални медии X, известна преди като Twitter, е намалила контрола на качеството на съдържанието.
„Другите платформи предоставиха шаблонни уверения, че ще се справят с дезинформацията, но защитата на свободата на словото и липсата на регулация все още оставят полето широко отворено за лошите“, предупреждава той.
Според Скот Смол, директор на отдела за разузнаване на киберзаплахи в Tidal Cyber, GenAI вече се използва за създаване на по-достоверни и целенасочени фишинг кампании в голям мащаб, но в контекста на сигурността на изборите това явление е още по-обезпокоително.
„Очакваме кибернетичните противници да възприемат генеративен ИИ, за да направят по-убедителни фишинг атаките и атаките със социален инженеринг – водещите форми на атаки, свързани с изборите, по отношение на постоянния им обем в продължение на много години – което увеличава вероятността целите да взаимодействат със злонамерено съдържание“, обяснява той.
Смол казва, че внедряването на ИИ също така намалява бариерата за навлизане в процеса на стартиране на такива атаки – фактор, който вероятно ще увеличи обема на кампаниите през тази година, които се опитват да проникнат в кампании или да превземат акаунти на кандидати с цел да се представят за тях, наред с други потенциални възможности.
„Криминалните и националните противници редовно адаптират примамките за фишинг и социален инженеринг към актуални събития и популярни теми и тези участници почти сигурно ще се опитат да се възползват от бума на цифрово съдържание, свързано с изборите, което се разпространява като цяло тази година, за да се опитат да доставят злонамерено съдържание на нищо неподозиращи потребители“, казва той.
За да се защитят от тези заплахи, изборните служители и кампаниите трябва да са наясно с рисковете, задвижвани от GenAI, и как да се защитават от тях.
„Изборните служители и кандидатите постоянно дават интервюта и пресконференции, от които заплахите могат да извличат звукови хапки за дълбоки фалшификации, базирани на ИИ“, казва Джеймс Търгал, вицепрезидент по киберрисковете в Optiv. „Ето защо те са длъжни да се уверят, че разполагат с лице или екип, които отговарят за осигуряването на контрол върху съдържанието.“
Те също така трябва да се уверят, че доброволците и работниците са обучени за заплахите, задвижвани от изкуствен интелект, като например засилен социален инженеринг, заплахите и хакерите, които стоят зад тях, и как да реагират на подозрителна дейност.
За тази цел служителите трябва да участват в обучение по социално инженерство и deepfake видео, което включва информация за всички форми и вектори на атака, включително електронни (имейл, текст и платформи на социалните медии), лични и телефонни опити.
„Това е толкова важно – особено при доброволците – защото не всички имат добра киберхигиена“, казва Търгал.
Освен това доброволците, участващи в кампании и избори, трябва да бъдат обучени как безопасно да предоставят информация онлайн и на външни субекти, включително публикации в социалните медии, и да внимават, когато го правят.
„Субектите на киберзаплахи могат да съберат тази информация, за да пригодят примамките със социално инженерство към конкретни цели“, предупреждава той.
О’Райли казва, че в дългосрочен план регулацията, която включва водни знаци за аудио- и видеодълбоки фалшификати, ще бъде от съществено значение, като отбелязва, че федералното правителство работи със собствениците на ДУУ за въвеждане на защити.
Всъщност Федералната комисия по комуникациите (FCC) току-що обяви гласовите повиквания, генерирани от изкуствен интелект, за „изкуствени“ съгласно Закона за защита на потребителите на телефонни услуги (TCPA), като направи използването на технологията за клониране на глас незаконно и предостави на главните прокурори на щатите в цялата страна нови инструменти за борба с подобни измамни дейности.
„ИИ се движи толкова бързо, че съществува вътрешна опасност всички предложени правила да станат неефективни с напредването на технологиите, като потенциално могат да пропуснат целта“, казва О’Райли. „В някои отношения това е Дивият Запад и ИИ излиза на пазара с много малко предпазни мерки.“
АБОНИРАЙТЕ СЕ ЗА НАШИЯ Е-БЮЛЕТИН И ПОЛУЧАВАЙТЕ НОВИНИ И СЪВЕТИ НА ТЕМА КИБЕРСИГУРНОСТ.
© 2022 Фондация “Киберсигурност за Всеки” с ЕИК 206932045. Всички права запазени. Политики за поверителност.
ж.к. Гео Милев бл. 117, вх.А
София 1113, България
support[@]e-security.bg
Фондация “Киберсигурност за Всеки” с ЕИК 206932045 е ЮЛНЦ в обществена полза, регистрирано в ЕС, работещо в съответствие с мисията и целите си.
Моля, имайте предвид, че всички споменати продукти и/или имена на компании са търговски марки ™ или ® на съответните им притежатели. Уебсайтът/фондацията няма никаква свързаност и/или одобрение за/от тях – тези търговски марки се използват само за образователни цели като примери. Настоящият уебсайт е онлайн информационна платформа, управлявана от доброволна фондация в обществена полза. Благодарим ви, че сте тук и за всякакви допълнителни въпроси, не се колебайте да се свържете с нас.
Мисията на Фондация “Киберсигурност за Всеки” е да допринесе за подобряване на киберсигурността, информационна сигурност и защита на системите и да повиши културата на обществото и организациите по тези и свързани с тях теми. Ние насърчаване безопасността и поверителността на потребителите, като повишаваме осведомеността, информираме за най-добрите и нови практики и помагаме на хора и организации да преодолеят съвременните предизвикателства за сигурността на мрежата и опазването на техните дигиталните активи.
На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.
Моля, проверете електронната си поща за да потвърдите.