Когато ИИ не уцелва шегата

Големите езикови модели продължават да впечатляват с естествен език, бързи отговори и умения да подражават на човешки стил на общуване. Въпреки това ново научно изследване разкрива, че техните способности да „разбират“ хумор – особено каламбури и игри на думи – остават изненадващо ограничени.

Според проучване, публикувано в Proceedings of the 2025 Conference on Empirical Methods in Natural Language Processing, водещи модели като GPT-4o, Qwen2.5-72B, Llama3.3-70B, Gemini2.0-Flash и Mistral3-24B често идентифицират шеги там, където изобщо няма такива, а при истински, но непознати майтапи точността им рязко спада.

Какъв всъщност се оказа проблемът?

Изследователите тестват моделите с известни каламбури – например:
“Long fairy tales have a tendency to dragon (drag on).”

След това заменят ключовата дума с несмислена – “wyvern” – и въпреки това моделите продължават да определят изречението като шега.

Това показва, че моделите разчитат на шаблони, а не на истинско езиково разбиране или осмисляне на двусмислие.

При друга проверка –
“I used to be a comedian, but my life became a chaotic.”
– моделите отново маркират „виц“, въпреки че липсва игра на думи.

Допълнително, при изречения, които само наподобяват структура на шега, например:
“Old X never die, they just X.”
моделите почти винаги настояват, че е хумористично.

Когато шегите станат непознати – точността се срива

Според авторите на изследването, при непознати или нови игри на думи някои модели падат до едва 20% успеваемост – значително под вероятността при случайно предположение.

От петте тествани модела GPT-4o се справя най-добре, а Mistral3-24B показва най-слаби резултати.

Творческото мислене остава човешко предимство

Изследователите предупреждават, че при задачи, свързани с хумор, емпатия, нюанси на културата или творческо разсъждение, LLM технологиите трябва да се използват внимателно.

Както отбелязва проф. Хосе Камачо-Коладос от Cardiff University,
„резултатите от тези модели трябва да се приемат с известна доза скептицизъм.“

Интересното е, че професионални комедианти, участвали в отделно проучване, също заявяват, че ИИ не може да замени човешката комедия – защото му липсва личен опит, контекст, перспектива и реално усещане за ситуацията.

Те подчертават обаче и важни етични въпроси: използване на защитени произведения и недостатъчно разнообразие в обучителните данни.

Извод: ИИ може да имитира шега – но не и да я „разбере“

Големите езикови модели показват впечатляващи способности, но хуморът остава една от областите, където човешката интуиция е трудно заменима. Технологиите ще продължат да напредват, но за момента комиците – и човешката креативност като цяло – остават в собствения си клас.

e-security.bg

Подобни

Киберсигурност на домашните рутeри
10.12.2025
modem-5436144_640
Zero Trust – обяснено човешки
9.12.2025
Img_blog_ZeroTrust
ФБР предупреждава за нова вълна от виртуални отвличания
8.12.2025
FBI
2025: годината на Labubu, „Gen Z stare“ и интернет хаоса
7.12.2025
celebrate-9164625_1280
Социалните мрежи и младите - между канализиране на общественото мнение и манипулация
7.12.2025
spasov
Киберсигурност на смарт дома - защита на дигиталното ни ежедневие
7.12.2025
smart-home-2769210_640

Споделете

Facebook
LinkedIn

Бюлетин

С нашия бюлетин ще бъдеш сред първите, които научават за нови заплахи, практични решения и добри практики. Напълно безплатно и с грижа за твоята сигурност.

Популярни

Измамническите сайтове в България: как да ги разпознаем, проверим и защитим себе си
6.10.2025
bulgaria3
Социалните мрежи и младите - между канализиране на общественото мнение и манипулация
7.12.2025
spasov
Kак да разпознаем и реагираме на фишинг имейл
9.10.2025
phishing-6573326_1280
Черният петък - реални сделки или маркетингов мираж?
27.11.2025
black_cat_Saro_o_Neal_Alamy

Бъди в крак с киберсигурността

Абонирай се за нашия бюлетин и получавай директно в пощата си най-важните новини, експертни съвети и практически насоки за киберхигиена и защита онлайн. Кратко, полезно и без спам.