Големите езикови модели продължават да впечатляват с естествен език, бързи отговори и умения да подражават на човешки стил на общуване. Въпреки това ново научно изследване разкрива, че техните способности да „разбират“ хумор – особено каламбури и игри на думи – остават изненадващо ограничени.
Според проучване, публикувано в Proceedings of the 2025 Conference on Empirical Methods in Natural Language Processing, водещи модели като GPT-4o, Qwen2.5-72B, Llama3.3-70B, Gemini2.0-Flash и Mistral3-24B често идентифицират шеги там, където изобщо няма такива, а при истински, но непознати майтапи точността им рязко спада.
Какъв всъщност се оказа проблемът?
Изследователите тестват моделите с известни каламбури – например:
“Long fairy tales have a tendency to dragon (drag on).”
След това заменят ключовата дума с несмислена – “wyvern” – и въпреки това моделите продължават да определят изречението като шега.
Това показва, че моделите разчитат на шаблони, а не на истинско езиково разбиране или осмисляне на двусмислие.
При друга проверка –
“I used to be a comedian, but my life became a chaotic.”
– моделите отново маркират „виц“, въпреки че липсва игра на думи.
Допълнително, при изречения, които само наподобяват структура на шега, например:
“Old X never die, they just X.”
моделите почти винаги настояват, че е хумористично.
Когато шегите станат непознати – точността се срива
Според авторите на изследването, при непознати или нови игри на думи някои модели падат до едва 20% успеваемост – значително под вероятността при случайно предположение.
От петте тествани модела GPT-4o се справя най-добре, а Mistral3-24B показва най-слаби резултати.
Творческото мислене остава човешко предимство
Изследователите предупреждават, че при задачи, свързани с хумор, емпатия, нюанси на културата или творческо разсъждение, LLM технологиите трябва да се използват внимателно.
Както отбелязва проф. Хосе Камачо-Коладос от Cardiff University,
„резултатите от тези модели трябва да се приемат с известна доза скептицизъм.“
Интересното е, че професионални комедианти, участвали в отделно проучване, също заявяват, че ИИ не може да замени човешката комедия – защото му липсва личен опит, контекст, перспектива и реално усещане за ситуацията.
Те подчертават обаче и важни етични въпроси: използване на защитени произведения и недостатъчно разнообразие в обучителните данни.
Извод: ИИ може да имитира шега – но не и да я „разбере“
Големите езикови модели показват впечатляващи способности, но хуморът остава една от областите, където човешката интуиция е трудно заменима. Технологиите ще продължат да напредват, но за момента комиците – и човешката креативност като цяло – остават в собствения си клас.








