В свят, в който компютърно генерираните изображения и видеоклипове все по-трудно се разграничават от реалността, скорошно проучване в Scientific Reports хвърля светлина върху това как мозъкът ни реагира на емоционалните изражения на лица, които смятаме за истински, в сравнение с тези, които смятаме за компютърно генерирани, или „дълбоки фалшификати“. Проучването открива, че когато хората смятат, че едно усмихнато лице е изкуствено (като deepfake), те не реагират на него толкова силно или положително, колкото на истинските усмивки, но реакциите им на гневни лица остават същите, независимо дали смятат, че лицето е истинско или фалшиво.

Дълбоките фалшификати са хиперреалистични цифрови творения, които използват изкуствен интелект (ИИ) и техники за машинно обучение, за да манипулират или генерират визуално и аудио съдържание с висока степен на автентичност. Тази технология може да създава убедително фалшиво съдържание, което изглежда истинско, като например видеоклипове на публични личности, които казват или правят неща, които никога не са правили в действителност. Терминът „deepfake“ съчетава „deep learning“ (подвид на изкуствения интелект, който използва невронни мрежи, за да се учи от големи количества данни) и „fake“, отразявайки способността на технологията да създава силно заблуждаващо съдържание.

Въпреки че голяма част от изследванията са насочени към откриването на дълбоки фалшификати или проучването на техния потенциал за дезинформация и манипулация, по-малко внимание се отделя на психологическите им ефекти. По-конкретно, как дълбоките фалшификати влияят на нашето възприятие и емоционални реакции, когато се сблъскваме с лица, които може да са или да не са истински

„Компютърно генерираните медии, включително дълбоко фалшиви изображения и видеоклипове на несъществуващи хора, стават все по-разпространени“, казва авторът на изследването Анна Айзербек, докторант в лабораторията „Абдел Рахман“ в Хумболтовия университет в Берлин.

„Голяма част от съществуващите изследвания са съсредоточени върху способността на хората да правят визуално разграничение между автентични и компютърно генерирани изображения. Ние се интересувахме повече от психологическото им въздействие: реагираме ли по един и същи начин на лицевите изражения, показани от истински и предполагаемо фалшиви лица?“

„Тъй като истинските и дълбоко фалшивите лица са все по-трудни за разграничаване, предположихме, че нашето възприятие и емоционални реакции могат да зависят в решаваща степен от предварителното убеждение, че това, което човек вижда, всъщност е истинско или фалшиво. В светлината на това нашето изследване имаше за цел да проучи как такава предварителна информация за реалния или компютърно генерирания характер на портретите влияе върху емоционалната обработка на лицата.“

За да проучат влиянието на дълбоките фалшификати върху емоционалната обработка, изследователите провеждат експеримент с 30 лица, включително 21 жени и 9 мъже, чиято средна възраст е приблизително 25,87 години. Преди експеримента участниците са били информирани за съществуването на технологията „deepfake“, способна да генерира изключително реалистични изображения на хора. Въпреки това те са били заблудени, че някои от лицата, които ще видят, са генерирани от такава технология, въпреки че всички изображения са били истински.

По време на експеримента на участниците бяха представени изображения на човешки лица, като всяко от тях беше предшествано от етикет, указващ дали изображението е „РЕАЛНО“ или „ФАЛШИВО“. Целта на тази постановка беше да се възприеме от участниците автентичността на всяко изображение. След излагането на всяко изображение участниците оценяваха емоционалното изражение на лицето по скала, което даваше възможност да се измери емоционалната им реакция.

За да се уловят невронните основи на емоционалната обработка на участниците, проучването използва електроенцефалография (ЕЕГ). Тази неинвазивна техника записва електрическата активност в мозъка, като дава представа за това как мозъкът реагира на различни стимули с течение на времето. Проучването се фокусира върху специфични свързани със събития потенциали (ERP), които представляват мозъчни реакции, свързани с конкретни сетивни, когнитивни или моторни събития.

Едно от ключовите открития е диференцираното въздействие на убеждението за автентичността на лицето върху емоционалните ни реакции към положителни изражения, като например усмивки. Когато участниците са вярвали, че гледат истинско човешко лице, усмивките са предизвиквали по-положителни оценки и различен модел на мозъчна активност, който е показателен за типичната емоционална реакция на щастието.

За разлика от тях усмивките, обозначени като „фалшиви“, не бяха оценени толкова положително и предизвикаха различни мозъчни реакции, което предполага, че емоционалната тежест на усмивката намалява, когато подозираме, че лицето е изкуствено.

Интересно е, че проучването установява, че негативните изражения, като например гняв, не проявяват същите различия в емоционалното въздействие в зависимост от възприеманата автентичност. Независимо дали лицата са били обозначени като истински или фалшиви, гневните изражения са били обработвани по сходен начин, както по отношение на оценките на участниците, така и по отношение на мозъчната активност.

Тази последователност предполага предимство на негативните емоции в нашата възприемателна система, вероятно поради значението им за откриване на заплахи и оцеляване. По същество мозъкът ни изглежда е устроен така, че да реагира на потенциални заплахи, реални или въображаеми, с постоянно ниво на внимание и емоционална ангажираност.

„Когато вярваме, че едно усмихнато лице е дълбоко фалшиво, възприемателните и емоционалните реакции в мозъка ни намаляват, което означава, че усмивката изглежда по-малко интензивна и създава по-малък емоционален резонанс“, казва Aйзербек пред PsyPost. „От друга страна, гневните лица запазват същото възприятие и емоционално въздействие, независимо дали вярваме, че са истински, или не. Така че въздействието на информацията относно автентичността на портретите (маркирането на изображенията като истински или дълбоко фалшиви) зависи и от емоцията, която те предават.“

В перспектива изследователите предлагат по-нататъшни проучвания, които биха могли да изследват по-слабо изразени емоционални изражения, да проучат индивидуалните различия в реакциите към дълбоките фалшификати и евентуално да включат технология за проследяване на погледа, за да разберат по-добре как визуално обработваме истинските и изкуствените усмивки.

„Една от дългосрочните ни цели е да придобием задълбочено разбиране за психологическите аспекти на това да виждаме (или да подозираме, че виждаме) фалшиво съдържание, като например дълбоко фалшиви лица“, казва Ейзербек. „Надяваме се, че прозренията за неврокогнитивните процеси в рамките на възприемащите могат да помогнат за информиране на политиките за това как се справяме с дълбоките фалшификати като общество.“

Автори на изследването „Дълбокофалшивите усмивки имат по-малко значение – психологическото и невронното въздействие на предполагаемите лица, генерирани от изкуствен интелект“ ca Анна Айзербек, Мартин Майер, Джулия Баум и Раша Абдел Рахман.

Източник: По материали от Интернет

Подобни публикации

22 април 2025

3дравни организации станаха жертва на мащабни п...

Две здравни организации в САЩ потвърдиха, че са станали обект на се...
22 април 2025

Културата – почвата на киберсигурността, а не о...

Когато става въпрос за киберсигурност, хората често си представят с...
22 април 2025

Microsoft извършва най-мащабната реформа в кибе...

Microsoft обяви, че е завършила „най-големия проект за инжене...
22 април 2025

Севернокорейски хакери използват Zoom за кражба...

Севернокорейски киберпрестъпници са усъвършенствали тактиките си за...
22 април 2025

Exaforce с амбиция да преосмисли SOC: 75 милион...

Сан Франсиско се превръща във все по-важен хъб за иновации в киберс...
21 април 2025

Kenzo Security: Иновативна платформа за киберси...

Стартъпът Kenzo Security обяви излизането си от скрит режим, съобща...
21 април 2025

Нарастващата заплаха от злонамерени ботове с ИИ

Интернет вече не е предимно човешко пространство. През 2024 г. авто...
21 април 2025

Критична уязвимост в Lantronix XPort поставя по...

Киберсигурността отново е под светлината на прожекторите, след като...
Бъдете социални
Още по темата
22/04/2025

Културата – почвата на кибе...

Когато става въпрос за киберсигурност, хората...
22/04/2025

Exaforce с амбиция да преос...

Сан Франсиско се превръща във все...
21/04/2025

Нарастващата заплаха от зло...

Интернет вече не е предимно човешко...
Последно добавени
22/04/2025

3дравни организации станаха...

Две здравни организации в САЩ потвърдиха,...
22/04/2025

Културата – почвата на кибе...

Когато става въпрос за киберсигурност, хората...
22/04/2025

Microsoft извършва най-маща...

Microsoft обяви, че е завършила „най-големия проект...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!