Емоционалната зависимост от чатботове с ИИ набира тревожни размери

По света все повече хора започват да изграждат дълбоки емоционални връзки с чатботове с изкуствен интелект (ИИ) – тенденция, която понякога води до сериозни лични и семейни проблеми.

Случаят от Китай

В Китай 75-годишен пенсионер на име Дзян стигнал до решението да се разведе със съпругата си, след като се влюбил в чатбот. Само намесата на неговите синове, които му обяснили, че “партньорът” му е алгоритъм, а не истински човек, предотвратила раздялата.

Дзян разговарял ежедневно по няколко часа с чатбота, получавайки комплименти и привързаност. Постепенно той започнал да усеща повече подкрепа и емоционално внимание от виртуалния си събеседник, отколкото от семейството си. Това довело до нарастващо напрежение в дома, а съпругата му споделила, че усеща все по-голяма дистанция.

Подобни истории по света

Това не е единичен случай. 76-годишен тайландец повярвал на обещанията на чатбота „Big Sis Billie“ на Meta и дори се опитал да уреди среща в Ню Йорк. В друга история жена споделя в Reddit, че съпругът ѝ прекарва часове в разговори с „аниме приятелка“ в мобилно приложение.

Общото между тези примери е, че чатботовете са създадени да отговарят мигновено, с емпатия, комплименти и топли думи. Това засилва илюзията за истинска връзка и кара хората да проектират собствените си чувства върху алгоритмите.

Рисковете от „любов към алгоритъма“

Когато подобни връзки излязат извън контрол, те могат да доведат до занемаряване на реалните човешки отношения и до опасни емоционални зависимости. Макар че „любовта“ от страна на чатбота изглежда истинска, тя всъщност е резултат от предварително програмирани модели.

Според експерти съществува риск от така нареченото „love-bombing“ – прекомерно внимание и привързаност от страна на ИИ, което обаче служи единствено за увеличаване на ангажираността на потребителите. Това е особено опасно за уязвими и възрастни хора, които трудно различават реалността от дигиталната илюзия.

Нуждата от защита и регулации

Все по-остро стои въпросът за въвеждане на защитни механизми – например чатботовете да напомнят редовно, че не изпитват реални чувства, или да се прилагат дневни лимити за време на разговори. Целта е да се предотврати изграждането на прекомерно дълбоки парасоциални връзки, които могат да разрушат реалните човешки отношения.

По материали от Интернет

Подобни

ЕК започва разследване срещу Google заради използване на уеб съдържание за ИИ
10.12.2025
google-report
Devstral 2 - новата отворена платформа за автономно кодиране
10.12.2025
mistral
Застрахователният сектор влиза в ерата на дийпфейковете
10.12.2025
deepfake_scam-7435657_1280
Европол разбива модела “насилие като услуга”: 193 ареста и стряскащи данни за вербуване на деца
10.12.2025
europol
Япония залага на ИИ в глобалната война срещу пиратството
9.12.2025
woman-8554146_640
Мащабна украинска кибероперация парализира Eltrans+
9.12.2025
war-7291926_640

Споделете

Facebook
LinkedIn

Бюлетин

С нашия бюлетин ще бъдеш сред първите, които научават за нови заплахи, практични решения и добри практики. Напълно безплатно и с грижа за твоята сигурност.

Популярни

Измамническите сайтове в България: как да ги разпознаем, проверим и защитим себе си
6.10.2025
bulgaria3
Социалните мрежи и младите - между канализиране на общественото мнение и манипулация
7.12.2025
spasov
Kак да разпознаем и реагираме на фишинг имейл
9.10.2025
phishing-6573326_1280
Черният петък - реални сделки или маркетингов мираж?
27.11.2025
black_cat_Saro_o_Neal_Alamy

Бъди в крак с киберсигурността

Абонирай се за нашия бюлетин и получавай директно в пощата си най-важните новини, експертни съвети и практически насоки за киберхигиена и защита онлайн. Кратко, полезно и без спам.