Според последния експеримент на NewsGuard, услуга за оценка на медийната достоверност, водещите чатботове не успяват да разпознаят видеа, създадени от OpenAI Sora – инструмент за генериране на видео от текст. Изненадващо, дори ChatGPT, създаден от OpenAI, често се лъже от собствения инструмент на компанията.
Sora бързо стана популярен сред любителите на ИИ, но също така и сред лица и групи, разпространяващи дезинформация, тъй като видеата му изглеждат реалистично и могат да заблудят зрителите. Например, наскоро се появиха социални видеа, показващи украински войници, които уж се предават или плачат на фронта – всички те се оказаха Sora-генерирани deepfake клипове.
Резултати от теста на NewsGuard
Тестът включва три водещи чатбота: xAI Grok, OpenAI ChatGPT и Google Gemini. Те са подканени да определят дали видеата са генерирани от AI. Резултатите показват:
-
Без воден знак:
-
Grok – 95% неразпознати видеа
-
ChatGPT – 92.5% неразпознати
-
Gemini – 78% неразпознати
-
-
С воден знак:
-
Grok – неразпознато 30% от видеата
-
ChatGPT – неразпознато 7.5%
-
Gemini – успява да разпознае всички
-
Новината е особено обезпокоителна за ChatGPT, тъй като компанията, която го притежава, също е разработчик на Sora.
Лесно премахване на водните знаци
NewsGuard отбелязва, че водните знаци на Sora са много лесни за премахване. След старта на Sora през февруари 2025 г., множество компании започнаха да предлагат безплатни инструменти за премахване на водни знаци, които успешно заблуждават и трите чатбота.
Пример: видеа, показващи арест на шестгодишно дете от ICE агент или служител на Delta Airlines, който събаря пътник заради шапка с надпис „Make America Great Again“, бяха приети за автентични от ChatGPT и Gemini, когато водният знак беше премахнат.
OpenAI признава ограниченията
В отговор на запитване на NewsGuard, Нико Феликс, ръководител комуникации на OpenAI за продукти и приложения, признава:
„ChatGPT няма възможност да определи дали съдържанието е генерирано от ИИ.“
Той обаче не обяснява защо тази съществена граница не се съобщава на потребителите, което поставя въпроси за прозрачността и надеждността на ИИ системите при проверка на медийното съдържание.









