Търсене
Close this search box.

В амбициозния стремеж да се справят с вредите от невярно съдържание в социалните медии и новинарските уебсайтове учените, занимаващи се с данни, проявяват творчество.

Макар и все още в тренировъчните си колела, големите езикови модели (LLM), използвани за създаване на чатботове като ChatGPT, се използват за откриване на фалшиви новини. При по-добро откриване системите за проверка на фалшиви новини с изкуствен интелект може да са в състояние да предупреждават и в крайна сметка да противодействат на сериозните вреди от дълбоките фалшификати, пропагандата, конспиративните теории и дезинформацията.

Инструментите на следващото ниво на ИИ ще персонализират откриването на фалшиво съдържание, както и ще ни предпазват от него. За този краен скок в ориентирания към потребителя ИИ науката за данните трябва да се обърне към поведенческите и неврологичните науки.

Последните проучвания показват, че не винаги съзнателно разбираме, че се сблъскваме с фалшиви новини. Неврологията помага да се открие какво се случва несъзнателно. Биомаркерите, като сърдечен ритъм, движения на очите и мозъчна активност, изглежда се променят едва доловимо в отговор на фалшиво и истинско съдържание. С други думи, тези биомаркери могат да бъдат „подсказки“, които показват дали сме били подведени или не.

Например, когато хората гледат лица, данните от проследяването на очите показват, че ние отчитаме честотата на мигане и промените в цвета на кожата, причинени от притока на кръв. Ако тези елементи изглеждат неестествени, това може да ни помогне да решим, че гледаме дълбоко фалшиво лице. Тези знания могат да дадат на ИИ предимство – можем да го обучим да имитира това, което хората търсят, наред с други неща.

Персонализацията на ИИ за проверка на фалшиви новини се оформя чрез използване на констатации от данни за движението на човешките очи и електрическата активност на мозъка, които показват какви видове фалшиво съдържание имат най-голямо въздействие в нервно, психологическо и емоционално отношение и за кого.

Познавайки специфичните ни интереси, личностни характеристики и емоционални реакции, системата за проверка на фалшиви новини с изкуствен интелект би могла да открие и предвиди кое съдържание би предизвикало най-силна реакция у нас. Това би могло да помогне да се установи кога хората се поддават на заблуда и какъв вид материали ги заблуждават най-лесно.

Противодействие на вредите

Следва персонализиране на предпазните мерки. За да се предпазим от вредата от фалшивите новини, е необходимо да се изградят системи, които да могат да се намесват – някакъв вид цифрово противодействие на фалшивите новини. Съществуват няколко начина за това, като например предупредителни етикети, връзки към потвърдено от експерти достоверно съдържание и дори приканване на хората да се опитат да вземат предвид различни гледни точки, когато четат нещо.

Нашият собствен персонализиран контролер за фалшиви новини с изкуствен интелект би могъл да бъде проектиран така, че да предоставя на всеки от нас по една от тези контрамерки, за да отмени вредите от фалшивото съдържание онлайн.

Такава технология вече се изпробва. Изследователи в САЩ са проучили как хората взаимодействат с персонализиран ИИ за проверка на фалшиви новини от публикации в социалните медии. Той се е научил да намалява броя на публикациите в новинарския поток до тези, които смята за верни. Като доказателство за концепцията друго проучване, използващо публикации в социалните медии, адаптира допълнително новинарско съдържание към всяка медийна публикация, за да насърчи потребителите да разглеждат алтернативни гледни точки.

Точно откриване на фалшиви новини

Но независимо дали всичко това звучи впечатляващо или мрачно, преди да се увлечем, може би си струва да си зададем някои основни въпроси.

Голяма част, ако не и цялата работа по фалшивите новини, дълбоките фалшификати, дезинформацията и дезинформацията, подчертава същия проблем, с който би се сблъскал всеки детектор на лъжата.

Съществуват много видове детектори на лъжата, а не само полиграфският тест. Някои от тях разчитат изключително на лингвистичен анализ. Други са системи, предназначени да четат лицата на хората, за да открият дали те пропускат микроемоции, които издават, че лъжат. По същия начин има системи с изкуствен интелект, които са предназначени да откриват дали едно лице е истинско или дълбоко фалшиво.

Преди да започне откриването, всички трябва да се съгласим как изглежда една лъжа, ако искаме да я забележим. Всъщност, при измамите изследванията показват, че това може да е по-лесно, защото можете да инструктирате хората кога да лъжат и кога да казват истината. И така имате някакъв начин да знаете основната истина, преди да обучите човек или машина да прави разлика, защото им се предоставят примери, на които да базират преценките си.

Да разбереш колко добър е експертът по детектор на лъжата зависи от това колко често той изпозлва лъжата, когато е имало такава (попадение). Но също така и дали не бъркат често някого да казва истината, когато всъщност е лъгал (miss). Това означава, че те трябва да знаят каква е истината, когато я видят (правилно отхвърляне), и да не обвиняват някого в лъжа, когато той е казвал истината (фалшива тревога). Това, за което се отнася, е откриване на сигнали и същата логика се прилага за откриване на фалшиви новини.

За да бъде една система с изкуствен интелект, която открива фалшиви новини, супер точна, попаденията трябва да са наистина високи (да речем 90%) и така пропуските ще са много малко (да речем 10%), а фалшивите тревоги трябва да останат ниски (да речем 10%), което означава, че истинската новина не се нарича фалшива. Ако ни бъде препоръчана система за проверка на фактите с изкуствен интелект или човешка такава, въз основа на откриването на сигнали, ще можем да разберем по-добре колко добра е тя.

Вероятно ще има случаи, както беше съобщено в неотдавнашно проучване, в които съдържанието на новината може да не е напълно невярно или напълно вярно, а частично точно. Знаем това, тъй като скоростта на новинарските цикли означава, че това, което се счита за точно в даден момент, по-късно може да се окаже неточно, или обратното. Така че системата за проверка на фалшиви новини има много работа.

Ако предварително знаем коя е фалшива и коя е истинска новина, колко точни са биомаркерите, които несъзнателно показват коя е истинската? Отговорът е не много. Невронната активност най-често е еднаква, когато се сблъскваме с истински и фалшиви новинарски статии.

Когато става въпрос за проучвания с проследяване на погледа, е добре да се знае, че има различни видове данни, събирани от техниките за проследяване на погледа (например продължителността на времето, през което окото ни се фиксира върху даден обект, честотата, с която окото ни се движи из визуалната сцена).

Така че в зависимост от това какво се анализира, някои проучвания показват, че насочваме повече внимание, когато гледаме фалшиво съдържание, докато други показват обратното.

Стигнахме ли вече дотам?

Предлаганите на пазара системи за откриване на фалшиви новини с изкуствен интелект вече използват прозренията на поведенческата наука, за да ни помогнат да сигнализираме и предупреждаваме за съдържание с фалшиви новини. Така че няма да е трудно същите системи с изкуствен интелект да започнат да се появяват в новинарските ни емисии с персонализирани защити за нашия уникален потребителски профил. Проблемът с всичко това е, че все още трябва да покрием много основни изисквания, за да разберем какво работи, но и да проверим дали искаме това.

В най-лошия случай виждаме фалшивите новини като проблем онлайн само като оправдание да го решим с помощта на ИИ. Но фалшивото и неточно съдържание е навсякъде и се обсъжда офлайн. Не само това, ние не вярваме по подразбиране на всички фалшиви новини, а понякога ги използваме в дискусиите, за да илюстрираме лоши идеи.

В един въображаем най-добър сценарий науката за данните и поведенческата наука са уверени в мащаба на различните вреди, които фалшивите новини могат да причинят. Но дори и тук приложенията на изкуствения интелект, съчетани с научни вълшебства, може да продължат да бъдат много лош заместител на по-малко сложни, но по-ефективни решения.

Магда Осман, професор по въздействие на политиките, Университет на Лийдс

Източник: По материали от Интернет

Подобни публикации

13 декември 2024

Silent Push набра 10 млн. долара за платформа з...

Фирмата за разузнаване на заплахи Silent Push е депозирала 10 млн. ...
13 декември 2024

Фишинг - тихият предвестник на пробивите

Фишингът е една от най-разпространените тактики, техники и процедур...
13 декември 2024

Фалшиви ИТ работници превеждат милиони на Север...

В четвъртък Министерството на правосъдието на САЩ обяви обвиненията...
12 декември 2024

Изследователи разбиват Microsoft Azure MFA за е...

Изследователи разбиха метод за многофакторно удостоверяване (MFA) в...
12 декември 2024

Apple пусна големи актуализации на сигурността ...

В Купертино денят на кръпките е сряда тихоокеанско време. Екипът за...
12 декември 2024

27 услуги за DDoS атаки са свалени от Европол

Международна операция на правоприлагащите органи, насочена срещу ра...
12 декември 2024

Ключове за разбиране на MDR, EDR, NDR, XDR (ЧАС...

Еволюция на решенията за откриване и реагиране (DR) През последното...
Бъдете социални
Още по темата
08/12/2024

„Стачка“ на роботи поражда ...

Тест в Шанхай разкрива способността на...
28/11/2024

Microsoft отхвърля твърдени...

Microsoft отхвърли твърденията, разпространявани онлайн, че...
20/11/2024

BgGPT стартира на 23 ноември

Българският институт за компютърни науки и...
Последно добавени
13/12/2024

Silent Push набра 10 млн. д...

Фирмата за разузнаване на заплахи Silent...
13/12/2024

Фишинг - тихият предвестник...

Фишингът е една от най-разпространените тактики,...
13/12/2024

Фалшиви ИТ работници превеж...

В четвъртък Министерството на правосъдието на...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!