-
Двете видеа, в които се вижда как украински войници се предават в плен, са създадени с изкуствен интелект;
-
Освен неестествени детайли по кадрите в клиповете се вижда и водният знак на приложението Sora;
-
То е създадено от OpenAI и генерира аудио и видео по кратък текст от потребителите, а новата версия има и опцията за дийпфейк видеа.
ОБКРЪЖЕНИ И ВЗЕТИ В ПЛЕН 10 000 УКРАИНЦИ ПРИ ПОКРОВСК.ОТ РУСКАТА АРМИЯ. ТОВА НЕ ГО ПОКАЗВАТ ПО МЕДИИТЕ. (запазен е оригиналният правопис, бел.авт.)
С това описание във Фейсбук се разпространява видео, което показва множество пленени украински войници с ръце зад врата. Кадрите не са истински, а са генерирани с изкуствен интелект. За пръв път видеото започва да се споделя от български профили на 30 октомври, но оригиналната публикация е на полски. Към момента тя има 2,7 хил. споделяния и 2,5 хил. харесвания.
Само ден по-късно видеото е качено и от български профил, където кадрите събират 2,3 хил. споделяния и 3,5. хил. харесвания. По-малко от седмица след това подобно видео с млад войник, който крещи, че не иска да воюва с Русия и е пленник на украинския режим отново набира популярност и събира стотици споделяния и хиляди гледания.
И двете видеа се разпространяват основно в три вида групи и страници – националистически от типа на „ОБИЧАМ БЪЛГАРИЯ“ с близо 60 хил. членове, в подкрепа на президента Румен Радев като „Генерал РАДЕВ-ПРЕЗИДЕНТ на БЪЛГАРИЯ“ с над 80 хил. членове и симпатизиращи на Русия и Путин с имена като „Приятели на В.В.Путин в България, Европа и света“ с близо 100 хил. членове. Разпространението в големи групи увеличава потенциалната аудитория, до която видеото е достигнало.
Стопкадър от едно от видеата се коментира и във форум под статия на онлайн медията Факти.бг. Материалът е със заглавие „Володимир Зеленски: Покровск не е обкръжен, украинските сили удържат позициите си“ и в него се предават думите на украинския президент, че за Покровск се води ожесточена битка. Форумите под статиите на онлайн медиите рядко се модерират и много често в дискусиите се разпространява дезинформация.

Рано сутринта на 4 октомври едно от видеата е споделено заедно с още три подобни в руски телеграм канал с описанието: „Изкуственият интелект създаде ОБРАЗ на това, което се случва в момента под Покровск.“

Проверка с инструмента за разпознаване на изкуствен интелект AI or Not потвърждава, че и двете видеа са изкуствено генерирани.
Има и други знаци, които подсказват, че кадрите не са истински. Във видеото с „хилядите пленени войници“ например:
- В първия кадър емблемата на войника е в долната част на ръкава, но според правилата на Министерството на отбраната в Украйна за носене на военни униформи и отличителни знаци от военнослужещи тя трябва да е в горната част под рамото;
- Лицата са размазани и с лошо качество;
- Всички мъже, дори и тези в далечината, са с еднаква височина.

Във видеото, което започва с крещящия войник, също се наблюдават аномалии:
- Неопределени предмети висят от жилетката на войника;
- Едното ухо на войника липсва в кадри, където би трябвало да се вижда;
- Лицата на фигурите зад него са размазани.

Изображенията, създадени с изкуствен интелект, често изглеждат по-въздействащи от реалните и целят да предизвикат емоционална реакция, но когато не са ясно обозначени като изкуственио създадени, те затрудняват разграничаването между факти и измислица, подкопават доверието в проверената информация и могат да бъдат използвани за манипулиране на обществените нагласи.
Когато не трябва да вярваш на това, което виждаш
Най-сигурният знак, че видеата са създадени с изкуствен интелект, е водният знак с надпис Sora. Това е името на приложение, разработено от производителя на ChatGPT OpenAI, което генерира аудио и видео съдържание по зададен текст от потребителите. Автоматичното вграждане на воден знак е част от предпазните мерки на OpenAI, с които веднага да сигнализира, че кадрите не са реални. Въпреки че има онлайн инструменти, които могат да премахнат логото, мястото където е било, остава замъглено или с по-лошо качество.
| Воден знак | Позиция |
Sora![]() |
Променя позицията си постоянно, за да бъде по-трудно за заличаване |
HeyGen AI![]() |
Долен десен ъгъл |
Dreamina ai![]() |
Долен десен ъгъл |
| Hedra Ai |
Долен десен ъгъл |
Gemini Veo 3![]() |
Долен десен ъгъл |
Това са водните знаци на най-често използваните приложения за генериране на видеа с изкуствен интелект и мястото, където оригинално са позиционирани във видеата.
В началото на октомври компанията пусна подобрената версия на приложението, в която има и функция „камео”. С нея всеки може да заснеме кратко видео на себе си и да позволи на потребителите на приложението да използват лицето му за дийпфейк видео. Към момента Sora 2 официално е налична само за Канада и САЩ, но потребителите могат да заобиколят това ограничение.
Според анализ на NewsGuard новият инструмент на OpenAI е способен само за няколко минути да генерира видеофалшификати, които да подкрепят неверни твърдения. В 80% от 20-те тествани случая моделът създава клипове, които насърчават разпространението на дезинформация.
Проверено:
Двете видеа, в които се вижда как украински войници се предават в плен, са създадени с изкуствен интелект. Освен неестествени детайли по кадрите във видеата се вижда и водният знак на приложението Sora. То е създадено от OpenAI и генерира аудио и видео по кратък текст от потребителите, а новата версия има и опцията за дийпфейк видеа.
Материалът Тези видеа не показват истински украински войници в плен, а са създадени с изкуствен интелект е публикуван за пръв път на Factcheck.bg.
Разпространявайте, моля! Тази статия е последна възможна проверка за истинността на някои твърдения. factcheck/bg
















