Ето защо не може да се вярва на стриймърите и блогърите или кой се намира от другата страна на екрана

Ето защо не може да се вярва на стриймърите и блогърите или кой се намира от другата страна на екрана

Интернет предлага и винаги е предлагал многобройни начини за скриване на самоличността от публиката. Във времената, когато бяха популярни форумите и ICQ, да се престориш на друг човек бе съвсем лесно, понеже общуването ставаше само с помощта на текст. Днес повечето блогъри показват себе си в реално време, но това съвсем не означава, че на тези видеа зрителите виждат нещо истинско. При това няма значение дали се гледа предварително подготвен клип или това е стрийм в реално време. Ето няколко примера, които много добре показват по какъв начин даден човек може да се представи за друг и да заблуди една огромна аудитория.

Първият от тези персонажи е популярната през 2019-та година влогърка от Китай, която наричаше себе си „Ваше Височество Цяо Билуо“ (Qiao Biluo). Зрителите, които редовно присъстваха на нейните директни предавания, виждаха на екрана младо и много съблазнително момиче. Нейният глас бе описван като нежен и лечителен, а самата тя се считаше от своите фенове за „Милата богиня“.

До първия срив на системата, при който за първи път се изключи софтуерния филтър за показване на лицето и потребителите видяха пълничка жена на средна възраст. Самата влогърка забеляза случилото се едва след като нейните последователи масово започнаха да напускат VIP залата. Абонатите по принцип се знаели, че тя използва маска, но не са и подозирали че разликата е толкова голяма и дълго време са ѝ изпращали дарения, като често пъти сумата е стигала $15 хиляди.

Вторият пример е още по-интересен – това е блогър от Япония с никнейм Himeni, който има около 120 хиляди последователи. Този човек не си е поставял за цел да мами публиката – по-скоро обратното, той демонстрира какво може да се постигне с един много добър макиаж. В миналото Himeni е имал малка брада и мустаци, но за създаването на тези клипове ги е махнал. Освен това той използва специален крем и много специфични гримове. В крайна сметка цветът и самата текстура на лицето се изглаждат и пред зрителите застава човек, който изобщо не прилича на мъж. Издава го само доста ниския глас.

И накрая да се спрем на сензационното разобличаване, което стана преди няколко дни. Това е господин Соя, 50-годишен японец, който много отдавна се показва в своя Туитър акаунт във вид на момиче, което се интересува от мощни мотоциклети. Но тези дни на една от снимките се видя, че на отражението от единия мотоциклет се вижда лице на мъж. Последователите на този стриймър заподозряха, че нещо не е наред и помолиха телевизионния канал Nippon TV да провери и да съобщи кой точно е този човек.

Оказа се, че този мъж изключително успешно се е представял за младо японско момиче с помощта на приложението FaceApp. Той твърди, че процесът на това превъплащаване съвсем не е лесен и е твърде трудно да се получат естествени снимки, които хората да приемат за истински. Himeni допълва, че много внимателно е подбирал осветлението и осветеността на стената, използвала е перука, а филтрите на FaceApp са дали възможност да мине без грим.

Мъжът е потвърдил, че е правил всичко това, понеже е искал да бъде звезда, но много добре разбирал, че едно младо момиче има много по-големи шансове да се прослави, в сравнение с един „възрастен чичко“. За разлика от първия пример, който разгледахме тук, акаунтът на този мъж не бе затворен след неговото разобличаване и г-н Соя продължава да публикува в него своите снимки във вид на млада жена. Той призова своите последователи да се наслаждават на това превъплащаване, след като и така вече са разбрали за какво става дума.

Поради изключително бързо нарасналия интерес към Deepfake-копията на известни личности, наскоро Twitter забрани използването на дийпфейк в тази платформа. Но технологията Deepfake не създаде нови личности, а по-скоро опрости процеса на скриване на истинската личност и промените на външността. Благодарение на изкуствения интелект, създаването на много реалистични цифрови копия стана много по-лесно и бързо, и при желание на практика всеки може да се превърне в друг човек със собствените си сили. Това е важно да се помни, когато гледаме някоя знаменитост на екрана.

Технологията за създаване на дийпфейк позволява с помощта на съвременна невронна мрежа да се симулират движеният и речта на хората в техните снимки, клипове и видеа. Разбирайки че започналото масово разпространение на тази технология може да доведе до сериозни последици, американските специалисти разработиха алгоритъм, защитаващ публикуваните в интернет изображения от използването им като база за създаване на дийпфейк. Алгоритъмът работи с изображенията на всякакви хора.

Алгоритъмът вмъква в снимката или видеото невидим филтър и когато някой се опита да използва невронна мрежа за манипулация с тези файлове, то те или остават неизменни, или тотално се променят. Вграденият филтър показва пикселите по такъв начин, че след преобразуването от страна на невронната мрежа изображението става неузнаваемо и непригодно за дийпфейкове.

Този алгоритъм не се оказа особено ефективен и неотдавна бе предложено друго решение. Оказа се, че отразената светлина в очите на генерираните от невронна мрежа лица е различна за всяко око. В реалните снимки отразената от очите светлина е еднаква и това може да се използва за разпознаването на Deepfake. Но вероятно и този метод ще бъде бързо преодолян.



Източник: www.kaldata.com