В амбициозния стремеж да се справят с вредите от невярно съдържание в социалните медии и новинарските уебсайтове учените, занимаващи се с данни, проявяват творчество.
Макар и все още в тренировъчните си колела, големите езикови модели (LLM), използвани за създаване на чатботове като ChatGPT, се използват за откриване на фалшиви новини. При по-добро откриване системите за проверка на фалшиви новини с изкуствен интелект може да са в състояние да предупреждават и в крайна сметка да противодействат на сериозните вреди от дълбоките фалшификати, пропагандата, конспиративните теории и дезинформацията.
Инструментите на следващото ниво на ИИ ще персонализират откриването на фалшиво съдържание, както и ще ни предпазват от него. За този краен скок в ориентирания към потребителя ИИ науката за данните трябва да се обърне към поведенческите и неврологичните науки.
Последните проучвания показват, че не винаги съзнателно разбираме, че се сблъскваме с фалшиви новини. Неврологията помага да се открие какво се случва несъзнателно. Биомаркерите, като сърдечен ритъм, движения на очите и мозъчна активност, изглежда се променят едва доловимо в отговор на фалшиво и истинско съдържание. С други думи, тези биомаркери могат да бъдат „подсказки“, които показват дали сме били подведени или не.
Например, когато хората гледат лица, данните от проследяването на очите показват, че ние отчитаме честотата на мигане и промените в цвета на кожата, причинени от притока на кръв. Ако тези елементи изглеждат неестествени, това може да ни помогне да решим, че гледаме дълбоко фалшиво лице. Тези знания могат да дадат на ИИ предимство – можем да го обучим да имитира това, което хората търсят, наред с други неща.
Персонализацията на ИИ за проверка на фалшиви новини се оформя чрез използване на констатации от данни за движението на човешките очи и електрическата активност на мозъка, които показват какви видове фалшиво съдържание имат най-голямо въздействие в нервно, психологическо и емоционално отношение и за кого.
Познавайки специфичните ни интереси, личностни характеристики и емоционални реакции, системата за проверка на фалшиви новини с изкуствен интелект би могла да открие и предвиди кое съдържание би предизвикало най-силна реакция у нас. Това би могло да помогне да се установи кога хората се поддават на заблуда и какъв вид материали ги заблуждават най-лесно.
Следва персонализиране на предпазните мерки. За да се предпазим от вредата от фалшивите новини, е необходимо да се изградят системи, които да могат да се намесват – някакъв вид цифрово противодействие на фалшивите новини. Съществуват няколко начина за това, като например предупредителни етикети, връзки към потвърдено от експерти достоверно съдържание и дори приканване на хората да се опитат да вземат предвид различни гледни точки, когато четат нещо.
Нашият собствен персонализиран контролер за фалшиви новини с изкуствен интелект би могъл да бъде проектиран така, че да предоставя на всеки от нас по една от тези контрамерки, за да отмени вредите от фалшивото съдържание онлайн.
Такава технология вече се изпробва. Изследователи в САЩ са проучили как хората взаимодействат с персонализиран ИИ за проверка на фалшиви новини от публикации в социалните медии. Той се е научил да намалява броя на публикациите в новинарския поток до тези, които смята за верни. Като доказателство за концепцията друго проучване, използващо публикации в социалните медии, адаптира допълнително новинарско съдържание към всяка медийна публикация, за да насърчи потребителите да разглеждат алтернативни гледни точки.
Но независимо дали всичко това звучи впечатляващо или мрачно, преди да се увлечем, може би си струва да си зададем някои основни въпроси.
Голяма част, ако не и цялата работа по фалшивите новини, дълбоките фалшификати, дезинформацията и дезинформацията, подчертава същия проблем, с който би се сблъскал всеки детектор на лъжата.
Съществуват много видове детектори на лъжата, а не само полиграфският тест. Някои от тях разчитат изключително на лингвистичен анализ. Други са системи, предназначени да четат лицата на хората, за да открият дали те пропускат микроемоции, които издават, че лъжат. По същия начин има системи с изкуствен интелект, които са предназначени да откриват дали едно лице е истинско или дълбоко фалшиво.
Преди да започне откриването, всички трябва да се съгласим как изглежда една лъжа, ако искаме да я забележим. Всъщност, при измамите изследванията показват, че това може да е по-лесно, защото можете да инструктирате хората кога да лъжат и кога да казват истината. И така имате някакъв начин да знаете основната истина, преди да обучите човек или машина да прави разлика, защото им се предоставят примери, на които да базират преценките си.
Да разбереш колко добър е експертът по детектор на лъжата зависи от това колко често той изпозлва лъжата, когато е имало такава (попадение). Но също така и дали не бъркат често някого да казва истината, когато всъщност е лъгал (miss). Това означава, че те трябва да знаят каква е истината, когато я видят (правилно отхвърляне), и да не обвиняват някого в лъжа, когато той е казвал истината (фалшива тревога). Това, за което се отнася, е откриване на сигнали и същата логика се прилага за откриване на фалшиви новини.
За да бъде една система с изкуствен интелект, която открива фалшиви новини, супер точна, попаденията трябва да са наистина високи (да речем 90%) и така пропуските ще са много малко (да речем 10%), а фалшивите тревоги трябва да останат ниски (да речем 10%), което означава, че истинската новина не се нарича фалшива. Ако ни бъде препоръчана система за проверка на фактите с изкуствен интелект или човешка такава, въз основа на откриването на сигнали, ще можем да разберем по-добре колко добра е тя.
Вероятно ще има случаи, както беше съобщено в неотдавнашно проучване, в които съдържанието на новината може да не е напълно невярно или напълно вярно, а частично точно. Знаем това, тъй като скоростта на новинарските цикли означава, че това, което се счита за точно в даден момент, по-късно може да се окаже неточно, или обратното. Така че системата за проверка на фалшиви новини има много работа.
Ако предварително знаем коя е фалшива и коя е истинска новина, колко точни са биомаркерите, които несъзнателно показват коя е истинската? Отговорът е не много. Невронната активност най-често е еднаква, когато се сблъскваме с истински и фалшиви новинарски статии.
Когато става въпрос за проучвания с проследяване на погледа, е добре да се знае, че има различни видове данни, събирани от техниките за проследяване на погледа (например продължителността на времето, през което окото ни се фиксира върху даден обект, честотата, с която окото ни се движи из визуалната сцена).
Така че в зависимост от това какво се анализира, някои проучвания показват, че насочваме повече внимание, когато гледаме фалшиво съдържание, докато други показват обратното.
Предлаганите на пазара системи за откриване на фалшиви новини с изкуствен интелект вече използват прозренията на поведенческата наука, за да ни помогнат да сигнализираме и предупреждаваме за съдържание с фалшиви новини. Така че няма да е трудно същите системи с изкуствен интелект да започнат да се появяват в новинарските ни емисии с персонализирани защити за нашия уникален потребителски профил. Проблемът с всичко това е, че все още трябва да покрием много основни изисквания, за да разберем какво работи, но и да проверим дали искаме това.
В най-лошия случай виждаме фалшивите новини като проблем онлайн само като оправдание да го решим с помощта на ИИ. Но фалшивото и неточно съдържание е навсякъде и се обсъжда офлайн. Не само това, ние не вярваме по подразбиране на всички фалшиви новини, а понякога ги използваме в дискусиите, за да илюстрираме лоши идеи.
В един въображаем най-добър сценарий науката за данните и поведенческата наука са уверени в мащаба на различните вреди, които фалшивите новини могат да причинят. Но дори и тук приложенията на изкуствения интелект, съчетани с научни вълшебства, може да продължат да бъдат много лош заместител на по-малко сложни, но по-ефективни решения.
Магда Осман, професор по въздействие на политиките, Университет на Лийдс
АБОНИРАЙТЕ СЕ ЗА НАШИЯ Е-БЮЛЕТИН И ПОЛУЧАВАЙТЕ НОВИНИ И СЪВЕТИ НА ТЕМА КИБЕРСИГУРНОСТ.
© 2022 Фондация “Киберсигурност за Всеки” с ЕИК 206932045. Всички права запазени. Политики за поверителност.
ж.к. Гео Милев бл. 117, вх.А
София 1113, България
support[@]e-security.bg
Фондация “Киберсигурност за Всеки” с ЕИК 206932045 е ЮЛНЦ в обществена полза, регистрирано в ЕС, работещо в съответствие с мисията и целите си.
Моля, имайте предвид, че всички споменати продукти и/или имена на компании са търговски марки ™ или ® на съответните им притежатели. Уебсайтът/фондацията няма никаква свързаност и/или одобрение за/от тях – тези търговски марки се използват само за образователни цели като примери. Настоящият уебсайт е онлайн информационна платформа, управлявана от доброволна фондация в обществена полза. Благодарим ви, че сте тук и за всякакви допълнителни въпроси, не се колебайте да се свържете с нас.
Мисията на Фондация “Киберсигурност за Всеки” е да допринесе за подобряване на киберсигурността, информационна сигурност и защита на системите и да повиши културата на обществото и организациите по тези и свързани с тях теми. Ние насърчаване безопасността и поверителността на потребителите, като повишаваме осведомеността, информираме за най-добрите и нови практики и помагаме на хора и организации да преодолеят съвременните предизвикателства за сигурността на мрежата и опазването на техните дигиталните активи.
На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.
Моля, проверете електронната си поща за да потвърдите.