ИИ модели не могат да различат видео, генерирано от ИИ

Според последния експеримент на NewsGuard, услуга за оценка на медийната достоверност, водещите чатботове не успяват да разпознаят видеа, създадени от OpenAI Sora – инструмент за генериране на видео от текст. Изненадващо, дори ChatGPT, създаден от OpenAI, често се лъже от собствения инструмент на компанията.

Sora бързо стана популярен сред любителите на ИИ, но също така и сред лица и групи, разпространяващи дезинформация, тъй като видеата му изглеждат реалистично и могат да заблудят зрителите. Например, наскоро се появиха социални видеа, показващи украински войници, които уж се предават или плачат на фронта – всички те се оказаха Sora-генерирани deepfake клипове.

Резултати от теста на NewsGuard

Тестът включва три водещи чатбота: xAI Grok, OpenAI ChatGPT и Google Gemini. Те са подканени да определят дали видеата са генерирани от AI. Резултатите показват:

  • Без воден знак:

    • Grok – 95% неразпознати видеа

    • ChatGPT – 92.5% неразпознати

    • Gemini – 78% неразпознати

  • С воден знак:

    • Grok – неразпознато 30% от видеата

    • ChatGPT – неразпознато 7.5%

    • Gemini – успява да разпознае всички

Новината е особено обезпокоителна за ChatGPT, тъй като компанията, която го притежава, също е разработчик на Sora.

Лесно премахване на водните знаци

NewsGuard отбелязва, че водните знаци на Sora са много лесни за премахване. След старта на Sora през февруари 2025 г., множество компании започнаха да предлагат безплатни инструменти за премахване на водни знаци, които успешно заблуждават и трите чатбота.

Пример: видеа, показващи арест на шестгодишно дете от ICE агент или служител на Delta Airlines, който събаря пътник заради шапка с надпис „Make America Great Again“, бяха приети за автентични от ChatGPT и Gemini, когато водният знак беше премахнат.

OpenAI признава ограниченията

В отговор на запитване на NewsGuard, Нико Феликс, ръководител комуникации на OpenAI за продукти и приложения, признава:

„ChatGPT няма възможност да определи дали съдържанието е генерирано от ИИ.“

Той обаче не обяснява защо тази съществена граница не се съобщава на потребителите, което поставя въпроси за прозрачността и надеждността на ИИ системите при проверка на медийното съдържание.

e-security.bg

Подобни

Европа и американските технологии
13.02.2026
eu usa
200 романа за година с ИИ
12.02.2026
geralt-silhouette-1632912_640
Windows 11 26H1: специална версия за новото поколение ARM устройства
12.02.2026
Windows_11_blur
Moltbook: когато ИИ започва да „говори“ сам със себе си
8.02.2026
moltbox
Европейската комисия заплашва TikTok с глоба заради пристрастяващ дизайн
8.02.2026
tiktok_GK_Images_Alamy
Sophos разкрива мащабна слабост в bulletproof hosting
6.02.2026
cyber-security-1721662_960_720

Споделете

Facebook
LinkedIn

Бюлетин

С нашия бюлетин ще бъдеш сред първите, които научават за нови заплахи, практични решения и добри практики. Напълно безплатно и с грижа за твоята сигурност.

Популярни

Изземване на Zamunda, Arena и други торент сайтове
30.01.2026
seizure
Измамническите сайтове в България: как да ги разпознаем, проверим и защитим себе си
6.10.2025
bulgaria3
Вишинг измами срещу потребители на Revolut
11.12.2025
revolut
Социалните мрежи и младите - между канализиране на общественото мнение и манипулация
7.12.2025
spasov

Бъди в крак с киберсигурността

Абонирай се за нашия бюлетин и получавай директно в пощата си най-важните новини, експертни съвети и практически насоки за киберхигиена и защита онлайн. Кратко, полезно и без спам.