Борба с фалшивите новини с помощта на ИИ

В амбициозния стремеж да се справят с вредите от невярно съдържание в социалните медии и новинарските уебсайтове учените, занимаващи се с данни, проявяват творчество.

Макар и все още в тренировъчните си колела, големите езикови модели (LLM), използвани за създаване на чатботове като ChatGPT, се използват за откриване на фалшиви новини. При по-добро откриване системите за проверка на фалшиви новини с изкуствен интелект може да са в състояние да предупреждават и в крайна сметка да противодействат на сериозните вреди от дълбоките фалшификати, пропагандата, конспиративните теории и дезинформацията.

Инструментите на следващото ниво на ИИ ще персонализират откриването на фалшиво съдържание, както и ще ни предпазват от него. За този краен скок в ориентирания към потребителя ИИ науката за данните трябва да се обърне към поведенческите и неврологичните науки.

Последните проучвания показват, че не винаги съзнателно разбираме, че се сблъскваме с фалшиви новини. Неврологията помага да се открие какво се случва несъзнателно. Биомаркерите, като сърдечен ритъм, движения на очите и мозъчна активност, изглежда се променят едва доловимо в отговор на фалшиво и истинско съдържание. С други думи, тези биомаркери могат да бъдат „подсказки“, които показват дали сме били подведени или не.

Например, когато хората гледат лица, данните от проследяването на очите показват, че ние отчитаме честотата на мигане и промените в цвета на кожата, причинени от притока на кръв. Ако тези елементи изглеждат неестествени, това може да ни помогне да решим, че гледаме дълбоко фалшиво лице. Тези знания могат да дадат на ИИ предимство – можем да го обучим да имитира това, което хората търсят, наред с други неща.

Персонализацията на ИИ за проверка на фалшиви новини се оформя чрез използване на констатации от данни за движението на човешките очи и електрическата активност на мозъка, които показват какви видове фалшиво съдържание имат най-голямо въздействие в нервно, психологическо и емоционално отношение и за кого.

Познавайки специфичните ни интереси, личностни характеристики и емоционални реакции, системата за проверка на фалшиви новини с изкуствен интелект би могла да открие и предвиди кое съдържание би предизвикало най-силна реакция у нас. Това би могло да помогне да се установи кога хората се поддават на заблуда и какъв вид материали ги заблуждават най-лесно.

Противодействие на вредите

Следва персонализиране на предпазните мерки. За да се предпазим от вредата от фалшивите новини, е необходимо да се изградят системи, които да могат да се намесват – някакъв вид цифрово противодействие на фалшивите новини. Съществуват няколко начина за това, като например предупредителни етикети, връзки към потвърдено от експерти достоверно съдържание и дори приканване на хората да се опитат да вземат предвид различни гледни точки, когато четат нещо.

Нашият собствен персонализиран контролер за фалшиви новини с изкуствен интелект би могъл да бъде проектиран така, че да предоставя на всеки от нас по една от тези контрамерки, за да отмени вредите от фалшивото съдържание онлайн.

Такава технология вече се изпробва. Изследователи в САЩ са проучили как хората взаимодействат с персонализиран ИИ за проверка на фалшиви новини от публикации в социалните медии. Той се е научил да намалява броя на публикациите в новинарския поток до тези, които смята за верни. Като доказателство за концепцията друго проучване, използващо публикации в социалните медии, адаптира допълнително новинарско съдържание към всяка медийна публикация, за да насърчи потребителите да разглеждат алтернативни гледни точки.

Точно откриване на фалшиви новини

Но независимо дали всичко това звучи впечатляващо или мрачно, преди да се увлечем, може би си струва да си зададем някои основни въпроси.

Голяма част, ако не и цялата работа по фалшивите новини, дълбоките фалшификати, дезинформацията и дезинформацията, подчертава същия проблем, с който би се сблъскал всеки детектор на лъжата.

Съществуват много видове детектори на лъжата, а не само полиграфският тест. Някои от тях разчитат изключително на лингвистичен анализ. Други са системи, предназначени да четат лицата на хората, за да открият дали те пропускат микроемоции, които издават, че лъжат. По същия начин има системи с изкуствен интелект, които са предназначени да откриват дали едно лице е истинско или дълбоко фалшиво.

Преди да започне откриването, всички трябва да се съгласим как изглежда една лъжа, ако искаме да я забележим. Всъщност, при измамите изследванията показват, че това може да е по-лесно, защото можете да инструктирате хората кога да лъжат и кога да казват истината. И така имате някакъв начин да знаете основната истина, преди да обучите човек или машина да прави разлика, защото им се предоставят примери, на които да базират преценките си.

Да разбереш колко добър е експертът по детектор на лъжата зависи от това колко често той изпозлва лъжата, когато е имало такава (попадение). Но също така и дали не бъркат често някого да казва истината, когато всъщност е лъгал (miss). Това означава, че те трябва да знаят каква е истината, когато я видят (правилно отхвърляне), и да не обвиняват някого в лъжа, когато той е казвал истината (фалшива тревога). Това, за което се отнася, е откриване на сигнали и същата логика се прилага за откриване на фалшиви новини.

За да бъде една система с изкуствен интелект, която открива фалшиви новини, супер точна, попаденията трябва да са наистина високи (да речем 90%) и така пропуските ще са много малко (да речем 10%), а фалшивите тревоги трябва да останат ниски (да речем 10%), което означава, че истинската новина не се нарича фалшива. Ако ни бъде препоръчана система за проверка на фактите с изкуствен интелект или човешка такава, въз основа на откриването на сигнали, ще можем да разберем по-добре колко добра е тя.

Вероятно ще има случаи, както беше съобщено в неотдавнашно проучване, в които съдържанието на новината може да не е напълно невярно или напълно вярно, а частично точно. Знаем това, тъй като скоростта на новинарските цикли означава, че това, което се счита за точно в даден момент, по-късно може да се окаже неточно, или обратното. Така че системата за проверка на фалшиви новини има много работа.

Ако предварително знаем коя е фалшива и коя е истинска новина, колко точни са биомаркерите, които несъзнателно показват коя е истинската? Отговорът е не много. Невронната активност най-често е еднаква, когато се сблъскваме с истински и фалшиви новинарски статии.

Когато става въпрос за проучвания с проследяване на погледа, е добре да се знае, че има различни видове данни, събирани от техниките за проследяване на погледа (например продължителността на времето, през което окото ни се фиксира върху даден обект, честотата, с която окото ни се движи из визуалната сцена).

Така че в зависимост от това какво се анализира, някои проучвания показват, че насочваме повече внимание, когато гледаме фалшиво съдържание, докато други показват обратното.

Стигнахме ли вече дотам?

Предлаганите на пазара системи за откриване на фалшиви новини с изкуствен интелект вече използват прозренията на поведенческата наука, за да ни помогнат да сигнализираме и предупреждаваме за съдържание с фалшиви новини. Така че няма да е трудно същите системи с изкуствен интелект да започнат да се появяват в новинарските ни емисии с персонализирани защити за нашия уникален потребителски профил. Проблемът с всичко това е, че все още трябва да покрием много основни изисквания, за да разберем какво работи, но и да проверим дали искаме това.

В най-лошия случай виждаме фалшивите новини като проблем онлайн само като оправдание да го решим с помощта на ИИ. Но фалшивото и неточно съдържание е навсякъде и се обсъжда офлайн. Не само това, ние не вярваме по подразбиране на всички фалшиви новини, а понякога ги използваме в дискусиите, за да илюстрираме лоши идеи.

В един въображаем най-добър сценарий науката за данните и поведенческата наука са уверени в мащаба на различните вреди, които фалшивите новини могат да причинят. Но дори и тук приложенията на изкуствения интелект, съчетани с научни вълшебства, може да продължат да бъдат много лош заместител на по-малко сложни, но по-ефективни решения.

Магда Осман, професор по въздействие на политиките, Университет на Лийдс

По материали от Интернет

Подобни

ИИ модели не могат да различат видео, генерирано от ИИ
25.01.2026
deepfake_Tero_Vesalainen_shutterstock
Срив в Microsoft 365
23.01.2026
cloud-8598424_640
ЕС планира изключване на високорискови доставчици в критични сектори
23.01.2026
Europäische Flaggen im Wind, Louise-Weiss-Gebäude, Sitz des Europäischen Parlaments in Straßburg, Frankreich, Europa
Reddit като първа линия за киберпомощ
23.01.2026
reddit-6615447_640
Холандската полиция „измами“ 3 400 души
21.01.2026
scam-7432958_1280
Реалността зад продуктивността с ИИ
21.01.2026
Img_blog_ChatGPT

Споделете

Facebook
LinkedIn

Бюлетин

С нашия бюлетин ще бъдеш сред първите, които научават за нови заплахи, практични решения и добри практики. Напълно безплатно и с грижа за твоята сигурност.

Популярни

Измамническите сайтове в България: как да ги разпознаем, проверим и защитим себе си
6.10.2025
bulgaria3
Социалните мрежи и младите - между канализиране на общественото мнение и манипулация
7.12.2025
spasov
Вишинг измами срещу потребители на Revolut
11.12.2025
revolut
ClickFix кампания атакува хотели и туристически компании в България и ЕС
6.01.2026
Blue_screen_of_death-Maurice_Savage-Alamy

Бъди в крак с киберсигурността

Абонирай се за нашия бюлетин и получавай директно в пощата си най-важните новини, експертни съвети и практически насоки за киберхигиена и защита онлайн. Кратко, полезно и без спам.