Ако смятате, че президентските избори в САЩ през 2020 г. представляваха най-лошата кампания, изпълнена с лъжи, неверни факти и дезинформация, имам новина за вас. Все още не сте видели нищо.
Бързата еволюция на изкуствения интелект (ИИ) и аналитичните двигатели ще вкара дезинформацията в годината на кампанията в хиперскорост по отношение на създаването, разпространението и въздействието на невярното съдържание. За да се подготвим като общество да отсяваме лъжите, да се справяме с тях по подходящ начин и да стигаме до истината, трябва да разберем как работи дезинформацията в ерата на ИИ.
В тази статия са описани четирите стъпки на една кампания за дезинформация, управлявана от ИИ, и как да ги изпреварим, за да могат екипите по сигурността да бъдат по-подготвени да се справят с напредващите тактики на злонамерените участници – и да търсят истината зад тях.
Стъпка 1: Разузнаване
В тази първоначална стъпка заплахите извършват извличане на данни, анализ на настроенията и прогнозен анализ, за да идентифицират конкретни точки на социално влияние. Те ще използват тези точки на лост, за да създадат вирусност, да извършат прецизно таргетиране на конкретни проблеми, групи и лица и да сегментират целевата(ите) си аудитория(и) за оптимален резонанс на посланията. Това буквално прилича на професионална маркетингова организация, която разработва персони за маркетинг и продажби, които са персонално базирани.
Стъпка 2: Създаване на съдържание
ИИ, особено генеративният ИИ, помага на заплахите да създават повече съдържание, по-бързо. Освен това те могат да създават съдържание, което изглежда много по-реалистично. Магията на ИИ тук се състои в това, че те могат бързо да създават изключително достоверно мултимедийно, многоезично, координирано, бързо обновявано и наблюдавано съдържание. Експертите във всички области вече са обезпокоени от такива реално изглеждащи дълбоки фалшификати. Коментирайки неотдавнашно проучване, което установи, че дезинформацията, генерирана от ИИ, може да бъде по-убедителна от дезинформацията, написана от хора, Джовани Спитале, който е ръководител на проучването, заяви: „Фактът, че дезинформацията, генерирана от ИИ, е не само по-евтина и по-бърза, но и по-ефективна, ми създава големи неприятности“.
Друга сила на изкуствения интелект при създаването на съдържание е, че той може да елиминира повторната употреба на съдържание и други белези на фалшиво съдържание, генерирано от хора. Целевите групи и лицата традиционно са в състояние да филтрират фалшивото съдържание, ако приемат, че са нащрек за него. Но с ИИ зад кулисите повторната употреба и маркерите изчезват и заплахите могат по-добре да използват цялото ново, реално изглеждащо съдържание и да го въоръжат по-добре.
В много случаи участниците в заплахите вече разполагат с данни от успешни хакерски атаки. Използвайки ИИ, те могат деликатно да променят тези данни и формите, в които ги представят. ИИ не само им дава възможност да вкарват данни в многобройни форми на ново съдържание, но също така прави това в мащаби и със скорост, които никога преди не са били обмисляни – отвъд всичко, което хората биха могли да направят някога.
Връзката с изборите? Фалшиви хора, които изразяват мнение по време на избори. Участниците в заплахите могат да инструктират ИИ да звучи като различни видове гласоподаватели, във всички сегменти на населението. Например ИИ може лесно да създаде съдържание, което да отразява нагласите, мненията и лексиката на фермер, ако му бъде наредено да го направи. След това той може да използва същите данни, за да създаде реалистично съдържание, което вероятно ще произхожда от чиновник. ИИ е толкова гъвкав и може да продължи да се приспособява, докато получава все повече данни, голяма част от които хората сами генерират в социалните медии.
Стъпка 3: Усилване
Усилването по същество е действие, при което възможно най-много хора виждат вашето съдържание в различните платформи на социалните медии. Използвайки анализите и изкуствения интелект, участниците в заплахите разполагат с необходимата инфраструктура, за да създадат армия от фалшиви личности и герои, които в началото изглеждат истински, но с течение на времето постепенно стават „по-истински“, тъй като изкуственият интелект попълва профилите им с редовно, достоверно съдържание и истории, които не са противоречиви. Така те стават все по-способни да организират и да изглеждат като истински автентични участници в онлайн дискусии по теми, свързани с изборите. Доскоро това беше невъзможно. Участниците в заплахите трябваше да разчитат на вземане на изображения от услуги като „thispersondoesnotexist.com“, които са доста лесни за идентифициране. Много от тях дори използваха снимки от фондовите борси, при които всеки можеше просто да направи търсене на изображения в Google и да установи, че изображенията всъщност не са свързани с използваната личност.
Разполагайки с нова армия от хибридни реално-фалшиви персони, участниците в заплахите ще бъдат готови да приложат армията си по автоматичен и координиран начин в различните социални платформи. Публикувайки, повишавайки и взаимодействайки с предварително генерираното съдържание, те могат да убедят всеки, който е бил примамен от него. Това абсолютно извежда социалните кампании на следващото ниво.
Стъпка 4: Актуализация
Актуализацията в контекста на социалните кампании, управлявани от изкуствен интелект, включва събиране на обратна информация от предишни и текущи усилия за по-нататъшно оптимизиране на създаването и усилването на съдържанието. Отново прилагайки анализи и ИИ към данните, събрани от техните усилия, участниците в заплахите усъвършенстват своето съдържание, за да го направят по-достоверно и по-целенасочено. Цикълът за обратна връзка може да проследява реакциите на хората към споделеното съдържание, за да се получат по-прецизни прозрения, които позволяват следното:
Креативните умове, които станат експерти в задаването на все по-целенасочени въпроси към AI двигателите относно социалните кампании и данните, които те произвеждат, могат да измислят безкрайни сценарии, а AI може да ги информира как най-добре да подходят стратегически и тактически към всеки сценарий. В резултат на това актуализацията става все по-въздействаща.
В последните си два материала за SecurityWeek прогнозирах масовото разпространение на дезинформацията, задвижвана от ИИ, и как екипите по сигурността могат превантивно да се справят с кампаниите за дезинформация, включително значението на „предварителното блокиране“ за стратегическа и психологическа подготовка на хората за въздействието на кампаниите за дезинформация.
Надявам се, че тази минипоредица за ИИ и дезинформацията ще предостави обща картина за това, за което екипите по сигурността в различните индустрии трябва да се подготвят и да дадат стратегически приоритет тази година, когато големи събития като изборния цикъл през 2024 г. в много страни по света, навлизат в пълен ход.
Автор: Рик Фъргюсън,securityweek.com
Рик Фъргюсън е вицепрезидент на отдела за разузнаване на сигурността във Forescout. Той е също така специален съветник към Европейския център за киберпрестъпност (EC3) на Европол, продуцент и писател, носител на множество награди, и член на Кралското дружество по изкуствата. Преди да се присъедини към Forescout през 2022 г., Рик работи като вицепрезидент на отдела за изследване на сигурността в Trend Micro в продължение на 15 години. Той притежава бакалавърска степен по изкуства от Университета на Уелс и е квалифициран като сертифициран етичен хакер (C|EH), сертифициран професионалист по сигурността на информационните системи (CISSP) и професионалист по архитектура на сигурността на информационните системи (ISSAP).
.
АБОНИРАЙТЕ СЕ ЗА НАШИЯ Е-БЮЛЕТИН И ПОЛУЧАВАЙТЕ НОВИНИ И СЪВЕТИ НА ТЕМА КИБЕРСИГУРНОСТ.
© 2022 Фондация “Киберсигурност за Всеки” с ЕИК 206932045. Всички права запазени. Политики за поверителност.
ж.к. Гео Милев бл. 117, вх.А
София 1113, България
support[@]e-security.bg
Фондация “Киберсигурност за Всеки” с ЕИК 206932045 е ЮЛНЦ в обществена полза, регистрирано в ЕС, работещо в съответствие с мисията и целите си.
Моля, имайте предвид, че всички споменати продукти и/или имена на компании са търговски марки ™ или ® на съответните им притежатели. Уебсайтът/фондацията няма никаква свързаност и/или одобрение за/от тях – тези търговски марки се използват само за образователни цели като примери. Настоящият уебсайт е онлайн информационна платформа, управлявана от доброволна фондация в обществена полза. Благодарим ви, че сте тук и за всякакви допълнителни въпроси, не се колебайте да се свържете с нас.
Мисията на Фондация “Киберсигурност за Всеки” е да допринесе за подобряване на киберсигурността, информационна сигурност и защита на системите и да повиши културата на обществото и организациите по тези и свързани с тях теми. Ние насърчаване безопасността и поверителността на потребителите, като повишаваме осведомеността, информираме за най-добрите и нови практики и помагаме на хора и организации да преодолеят съвременните предизвикателства за сигурността на мрежата и опазването на техните дигиталните активи.
На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.
Моля, проверете електронната си поща за да потвърдите.