• Двете видеа, в които се вижда как украински войници се предават в плен, са създадени с изкуствен интелект;

  • Освен неестествени детайли по кадрите в клиповете се вижда и водният знак на приложението Sora; 

  • То е създадено от OpenAI и генерира аудио и видео по кратък текст от потребителите, а новата версия има и опцията за дийпфейк видеа. 

ОБКРЪЖЕНИ И ВЗЕТИ В ПЛЕН 10 000 УКРАИНЦИ ПРИ ПОКРОВСК.ОТ РУСКАТА АРМИЯ. ТОВА НЕ ГО ПОКАЗВАТ ПО МЕДИИТЕ. (запазен е оригиналният правопис, бел.авт.)

С това описание във Фейсбук се разпространява видео, което показва множество пленени украински войници с ръце зад врата. Кадрите не са истински, а са генерирани с изкуствен интелект. За пръв път видеото започва да се споделя от български профили на 30 октомври, но оригиналната публикация е на полски. Към момента тя има 2,7 хил. споделяния и 2,5 хил. харесвания.

Само ден по-късно видеото е качено и от български профил, където кадрите събират 2,3 хил. споделяния и 3,5. хил. харесвания. По-малко от седмица след това подобно видео с млад войник, който крещи, че не иска да воюва с Русия и е пленник на украинския режим отново набира популярност и събира стотици споделяния и хиляди гледания. 

И двете видеа се разпространяват основно в три вида групи и страници – националистически от типа на „ОБИЧАМ БЪЛГАРИЯ“ с близо 60 хил. членове, в подкрепа на президента Румен Радев като „Генерал РАДЕВ-ПРЕЗИДЕНТ на БЪЛГАРИЯ“ с над 80 хил. членове и симпатизиращи на Русия и Путин с имена като „Приятели на В.В.Путин в България, Европа и света“ с близо 100 хил. членове. Разпространението в големи групи увеличава потенциалната аудитория, до която видеото е достигнало. 

 

Стопкадър от едно от видеата се коментира и във форум под статия на онлайн медията Факти.бг. Материалът е със заглавие „Володимир Зеленски: Покровск не е обкръжен, украинските сили удържат позициите си“ и в него се предават думите на украинския президент, че за Покровск се води ожесточена битка. Форумите под статиите на онлайн медиите рядко се модерират и много често в дискусиите се разпространява дезинформация. 

Рано сутринта на 4 октомври едно от видеата е споделено заедно с още три подобни в руски телеграм канал с описанието: „Изкуственият интелект създаде ОБРАЗ на това, което се случва в момента под Покровск.“

 

Проверка с инструмента за разпознаване на изкуствен интелект AI or Not потвърждава, че и двете видеа са изкуствено генерирани. 

Има и други знаци, които подсказват, че кадрите не са истински. Във видеото с „хилядите пленени войници“ например: 

  • В първия кадър емблемата на войника е в долната част на ръкава, но според правилата на Министерството на отбраната в Украйна за носене на военни униформи и отличителни знаци от военнослужещи тя трябва да е в горната част под рамото; 
  • Лицата са размазани и с лошо качество; 
  • Всички мъже, дори и тези в далечината, са с еднаква височина. 

Във видеото, което започва с крещящия войник, също се наблюдават аномалии: 

  • Неопределени предмети висят от жилетката на войника; 
  • Едното ухо на войника липсва в кадри, където би трябвало да се вижда;
  • Лицата на фигурите зад него са размазани.

Изображенията, създадени с изкуствен интелект, често изглеждат по-въздействащи от реалните и целят да предизвикат емоционална реакция, но когато не са ясно обозначени като изкуственио създадени, те затрудняват разграничаването между факти и измислица, подкопават доверието в проверената информация и могат да бъдат използвани за манипулиране на обществените нагласи.

Когато не трябва да вярваш на това, което виждаш

Най-сигурният знак, че видеата са създадени с изкуствен интелект, е водният знак с надпис Sora. Това е името на приложение, разработено от производителя на ChatGPT OpenAI, което генерира аудио и видео съдържание по зададен текст от потребителите. Автоматичното вграждане на воден знак е част от предпазните мерки на OpenAI, с които веднага да сигнализира, че кадрите не са реални. Въпреки че има онлайн инструменти, които могат да премахнат логото, мястото където е било, остава замъглено или с по-лошо качество.

Воден знак Позиция
Sora
Променя позицията си постоянно, за да бъде по-трудно за заличаване
HeyGen AI
Долен десен ъгъл
Dreamina ai
Долен десен ъгъл
Hedra Ai
Долен десен ъгъл
Gemini Veo 3
Долен десен ъгъл

Това са водните знаци на най-често използваните приложения за генериране на видеа с изкуствен интелект и мястото, където оригинално са позиционирани във видеата.

В началото на октомври компанията пусна подобрената версия на приложението, в която има и функция „камео”. С нея всеки може да заснеме кратко видео на себе си и да позволи на потребителите на приложението да използват лицето му за дийпфейк видео. Към момента Sora 2 официално е налична само за Канада и САЩ, но потребителите могат да заобиколят това ограничение.

Според анализ на NewsGuard новият инструмент на OpenAI е способен само за няколко минути да генерира видеофалшификати, които да подкрепят неверни твърдения. В 80% от 20-те тествани случая моделът създава клипове, които насърчават разпространението на дезинформация.

Проверено: 

Двете видеа, в които се вижда как украински войници се предават в плен, са създадени с изкуствен интелект. Освен неестествени детайли по кадрите във видеата се вижда и водният знак на приложението Sora. То е създадено от OpenAI и генерира аудио и видео по кратък текст от потребителите, а новата версия има и опцията за дийпфейк видеа. 

Източници:

„Правилата за носене на военни униформи и отличителни знаци от военнослужещи от Въоръжените сили на Украйна, Държавната специална транспортна служба и лицеисти от военни лицеи“, МИНИСТЕРСТВО НА ОТБРАНАТА НА УКРАЙНА: https://zakon.rada.gov.ua/laws/main/z1502-17 

AI or Not: https://www.aiornot.com/ 

Everything is fake on Silicon Valley’s hottest new social network: https://archive.ph/kx2O3#selection-249.0-252.0 

OpenAI’s Sora: When Seeing Should Not Be Believing, NewsGuard: https://www.newsguardtech.com/special-reports/openai-sora-seeing-should-not-be-believing/ 

Материалът Тези видеа не показват истински украински войници в плен, а са създадени с изкуствен интелект е публикуван за пръв път на Factcheck.bg.

Разпространявайте, моля! Тази статия е последна възможна проверка за истинността на някои твърдения. factcheck/bg

Прочетено 1 пъти, 1 прочита днес