Деепфаке АИ: Наша дистопијска садашњост

Pin
Send
Share
Send

Међу свим застрашујућим моћима интернета, могућност заваравања ништа сумњивог може бити најстрашнија. Цлицкбаит, слике са фотографијама и лажне вести су неки од најгорих преступника, али последњих година се такође види пораст новог потенцијално опасног алата познатог под називом уметна интелигенција деепфаке (АИ).

Израз деепфаке односи се на фалсификовани, рачунарски генерисани видео и аудио који је тешко разликовати од оригиналног, непромењеног садржаја. Треба снимити шта је Пхотосхоп за слике.

Како функционира АИ деепфаке?

Алат се ослања на оно што је познато као генеративне противничке мреже (ГАН), технику коју је 2014. године измислио Иан Гоодфеллов, доктор наука. студент који сада ради у Апплеу, известио је Популар Мецханицс.

ГАН алгоритам укључује два одвојена АИ-а, онај који ствара садржај - рецимо, фотографије људи - и противника који покушава да погоди да ли су слике стварне или лажне, наводи Вок. Генерисање АИ почиње готово да нема појма како људи изгледају, што значи да његов партнер може лако разликовати праве фотографије од лажних. Али с временом, свака врста АИ постаје прогресивно боља, и на крају генерисање АИ почиње да ствара садржај који изгледа савршено животно.

Примери Деепфаке-а

ГАН-ови су импресивни алати и не користе се увек у злонамерне сврхе. У 2018., слика настала у ГАН-у која имитира холандски стил „Старог мајстора“ уметника попут Рембрандта ван Ријна из 17. века, продата је у аукцијској кући Цхристие за невероватних 432 500 долара.

Исте године, деепфакес је постао широко познат, углавном путем Реддит корисника који је прозван именом 'деепфакес', извијестио је Вице. ГАН техника се често користила за постављање лица познатих познатих личности - укључујући Гал Гадот, Маисие Виллиамс и Таилор Свифт - на тела порнографских глумица.

Остали ГАН-ови су научили да снимају једну слику особе и стварају прилично реалне алтернативне фотографије или видео снимке те особе. У 2019. години, дубоко наметање могло би да створи језиве, али реалне филмове Мона Лизе који разговарају, крећући се и смешкајући се на различитим положајима.

Деепфакес такође може изменити аудио садржај. Како је извијестио Тхе Верге раније ове године, техника може спојити нове ријечи у видеозапис особе која говори, па се чини да су рекли нешто што никада нису намјеравали.

Једноставност кориштења новог алата може имати застрашујуће посљедице. Ако било ко и било где може да направи реалистичне филмове који приказују познату личност или политичара који говори, креће се и изговара речи које никад није рекао, гледаоци су приморани да постану више опрезни према садржају на Интернету. Као пример, само послушајте упозорење председника Обаме против "избрушене" дистопијске будућности у овом видеу из Буззфеед-а, који је створен користећи деепфаке режисера Јордана Пеелеа.

Pin
Send
Share
Send

Погледајте видео: Its Getting Harder to Spot a Deep Fake Video (Новембар 2024).