Санаттар: Технологиялар

Депфакт дегеніміз не, ол қаншалықты қауіпті және оны қалай тануға болады

Бүгін біз кеңінен таралған және әдеттегі құбылысқа айналған терең фэйк туралы сөйлесетін боламыз. Осы технологияның арқасында ақпаратты манипуляциялау жаңа деңгейге көтерілді.

Жаңа жылдық хабарды тарату кезінде Елизавета патшайымның үстел үстінде билеп тұрғанын көрдіңіз бе? Әлде Ким Чен Ынның демократия туралы сөзін тыңдадыңыз ба, әлде оның өлімі туралы айтқан Сальвадор Далиге таң қалдыңыз ба (неге ол бұған сенбейді)?

Бұл таңғажайып бейнелердің барлығына ортақ бір нәрсе бар - олар жалған. Deepfake - бұл бейне, аудио және фотосуреттер түрінде жалған ақпаратты жасау және жариялау әдісі. Мұндай материалдарды табу оңайырақ, сондықтан біз сізге Интернетте терең фейк бейнелерді жасау, тану және іздеу бойынша нұсқаулық дайындадық.

Сондай-ақ оқыңыз: Ертеңгі блокчейндер: қарапайым сөзбен айтқанда криптовалюта индустриясының болашағы

Deepfake - бұл не?

Deepfake (Deepfake) - шын мәнінде, шынайы емес, жалған, яғни жалған фото, бейне немесе аудио материал. Deepfake (екі сөздің тіркесімі – терең оқыту «терең оқыту» және жалған «жалған») бейнелер мен басқа сандық медиа материалдарында бір адамның екіншісіне ұқсастығын жасау үшін терең оқыту үшін жасанды интеллектті (AI) пайдаланады. Ол нақты дауыс, дыбыс, бейне немесе фото үлгілері негізінде біріктірілген алгоритмдер арқылы жасалады. Алгоритм көптеген әртүрлі жерлерден таңдалған ақпаратты алады, содан кейін оны бір материалға біріктіреді. Нәтижесінде әртүрлі нақты деректердің қосындысына негізделген жаңа (жалған) нәрсе жасалады.

Бірақ бұл бәрі емес. Deepfake сонымен қатар фотосуретті нөлден бастап, мысалы, ешқашан болмаған кейіпкерлердің беттерін жасау арқылы «бояй алады».

Мұндай әрекеттердің мақсаты қандай? Басқа нәрселермен қатар, Deepfake интернетте дұрыс емес ақпаратты тарату (мысалы, саяси қайраткерлер немесе оқиғалар туралы), ұрлық (мысалы, дауыстық командаларды жалғау) және порнография (атақты адамдармен фильмдер - deepfake порно) жасау үшін қолданылады. Оны білім беру және ойын-сауық мақсатында да пайдалануға болады.

Сондай-ақ оқыңыз: Кванттық компьютерлер туралы қарапайым сөздермен

Deepfake - бұл қалай жұмыс істейді?

Жалпы, терең фейк материалды жасаудың екі жолы бар. Бірінші әдіс екі алгоритмді пайдаланады. Біріншіден, бірінші (кодер) екі кескіннің ортақ белгілерін іздейді (бірге біріктірілетін), содан кейін екіншісі (декодер) оларды жаңадан жасалған кескінге тасымалдай алады. Мысалы, біз актер біз сияқты қимылдайтын бейне жасағымыз келсе, кодер біз билеп жатқан бейнеден қозғалысты алады, ал декодер біздің бетімізді актердің бетімен ауыстырып, оны біздің қозғалыстарымызды қайта жасауға мәжбүр етеді. . Мұнда кілт жаңа кескінге көшірілетін таңдалған әрекеттер (мысалы, қозғалыстар, қимылдар, мимика).

Екінші әдіс - екі алгоритм бірге жұмыс істейтін генеративті қарсылас желілер (GANs) арқылы. Біріншісі генератор деп аталады, өйткені ол жалпы ақпаратты пайдалана отырып, оның ерекше белгілерін (адамның денесі, беті, көзі бар) біріктіретін бейнелерді (мысалы, адам бейнесі) жасайды. Екінші алгоритм – генератор берген кескіндердің ақиқат немесе дұрыс еместігін бағалайтын дискриминатор.

Уақыт өте келе екі алгоритм де жетілдіріледі, сондықтан олар өздерін үйренеді және жетілдіреді. Егер генераторды дискриминатор жалған фотосуретті танымайтындай етіп үйретсе (оны шынайы деп санаса), процесс аяқталды.

Жасанды бағдарламалық қамтамасыз етудің үлкен көлемін сценарийлерге, бағдарламаларға және кодтарға арналған ашық бастапқы коды бар GitHub қауымдастығынан табуға болады. Бұл бағдарламалардың кейбірі тек ойын-сауық мақсатында пайдаланылады, сондықтан терең фейк жасауға тыйым салынбайды, алайда олардың көпшілігі қылмыстық мақсатта да пайдаланылуы мүмкін.

Көптеген сарапшылардың пікірінше, болашақта технологиялардың дамуымен терең фейк әлдеқайда күрделене түседі және сайлауға араласуға, саяси шиеленіс тудыруға және қылмыстық әрекеттерге байланысты қоғамға аса ауыр қауіптер тудыруы мүмкін.

Сондай-ақ оқыңыз:

Deepfake қаупі - ол қашаннан бері бар?

Мұндай жалған ақпарат алғаш рет 2017 жылы пайда болды. Содан кейін пайдаланушы бүркеншік ат болады deepfake Reddit сайтында атақты адамдар қатысқан бірнеше порнографиялық фильмдер жарияланған Скарлетт Йоханссон, Гал Гадот және Тейлор Свифт. Содан бері бұл сала қарқынды дамып келеді, өйткені дерлік кез келген адам терең фейк фильмдерді түсіре алады.

Соңғы жылдары терең фейкинг технологиясының дамығаны сонша, қазір оның ойдан шығарылған бейне немесе шынайы адамдардың жазбасы екенін анықтау қиындап барады. Мысал ретінде Елизавета II-нің хабарламасы немесе көптеген түрлі сайттарда тез жарияланған Барак Обаманың сөзі бар бейнероликті келтіруге болады. АҚШ-тың бұрынғы президентінің мәлімдемесі бар бейнеролик интернетте жарияланған жалған ақпарат пен жалған жаңалықтардан туындауы мүмкін жаһандық қауіп-қатерлерге арналған. BuzzFeedVideos арнасы жариялаған материалда америкалық режиссер және актер Джордан Пил АҚШ-тың 44-ші президентінің дауысы болды. Дегенмен, қазіргі уақытта жасанды интеллект жалған фильмге түсуі тиіс адамның мұрағаттық жазбалары негізінде дауысты шығаруға қабілетті.

Мұндай озық технологиялар болашақта киберқылмыскерлер мен интернет-алаяқтардың қолындағы қауіпті құралға айналуы мүмкін. Маңызды саясаткерлердің сөйлеген сөздерінің жалған бейнероликтерінің жариялануы халықаралық деңгейде нақты зиян келтіруі мүмкін. Deepfake технологиясына негізделген мұндай фильмдер дипломатиялық қақтығыстар мен жанжалдарды тудыруы мүмкін, сондықтан қоғамдық пікір мен адамдардың мінез-құлқына әсер етеді.

Тағы бір ықтимал қауіп виртуалды кеңістікте әрқашан ең көп трафикті тудыратын ересектерге арналған мазмұн болып табылады. Deepfake технологиясының интернетке тез енуі таңқаларлық емес. Нидерландтың Deeptrace киберқауіпсіздік компаниясының есебіне сәйкес, deepfake технологиясы арқылы жасалған ойдан шығарылған бейнелердің 96 пайызы осындай тақырыптардағы мазмұн. Мұндай материалдарды жасау үшін көбінесе кино жұлдыздарының, спортшылардың, тіпті саясаткерлер мен үкімет өкілдерінің бейнелері қолданылады.

Сондай-ақ оқыңыз: Неліктен ғарыштық миссия кез келген уақытта ұша алмайды: ұшыру терезесі дегеніміз не?

Депфакті қалай жасауға болады?

Егер кімде-кім deepfake бейнелерін жасай алатын болса, оларды үйде де жасауға болады ма? Әрине, иә, бірақ олардың сапасы, әрине, мінсіз болмайды. Мұндай бейнелерді жасау үлкен есептеу ресурстары мен қуатты видеокарталарды қажет етеді. Бізде әдетте үйдегі компьютерлер жеткіліксіз, ал әзірлеу процесінің өзі бірнеше аптаға созылуы мүмкін. Фильмдердің сапасы да көп нәрсені қалаусыз қалдырады - көрінетін қателер болады, ауыз қозғалысы дыбысқа сәйкес келмеуі мүмкін, «ескі» мазмұн «жаңамен» қабаттасатын көрінетін жерлер болады.

Дегенмен, егер біз фотосуретті сәл «түрткілеуді» немесе қысқаша терең фейк бейнені жасағымыз келсе, бұл бағдарламаны тікелей смартфонға жүктеп алуға болады. Пайдалануға өте оңай бағдарлама бірнеше минут ішінде сыртқы көріністегі кемшіліктерді жояды, сізді таңдалған атақтыға айналдырады немесе итіңізге адам дауысымен сөйлеуге мүмкіндік береді.

Сондай-ақ оқыңыз:

Депфэйкті қалай тануға болады?

Кәсіби терең фейк бейнелерін анықтау қиындап барады. Алғашында алгоритмдерде негізгі мінез-құлық проблемалары болды (мысалы, көздің жыпылықтауы) және фильмнің жалған екені бірден белгілі болды. Бұл қате енді түзетілді. Жалған кейіпкерлер жыпылықтайды, табиғи қозғалады және еркін сөйлейді. Дегенмен, кейде олардың табиғи көз қозғалысымен проблемалары бар.

Сонымен, терең фейкті қалай анықтауға болады? Бейнежазбаны көргенде мыналарға назар аудару керек:

  • Дыбыс ауыздың қимылдарына сәйкес келе ме? Кейде олар мүлдем сәйкес келмейді және бейнедегі адам дыбысқа қатысты еріндерін кідіріспен қозғалтады немесе сөздерді дұрыс емес айтады.
  • Табиғатқа жат болып көрінетін барлық құбылыстар. Бұл жерде, басқа нәрселермен қатар, бүкіл дененің немесе бастың денеге қатысты орналасуы, заттарға жарықтың дұрыс көрсетілмеуі, зергерлік бұйымдардағы жарықтың дұрыс көрсетілмеуі және т.б. Терінің табиғи емес түсі фильмнің жалған екендігінің белгісі болуы мүмкін.
  • Аудио және бейне сапасы. Олардың арасындағы айырмашылық терең фейкті анықтауға көмектеседі. Әдетте саундтрек сапасы нашар.
  • Кескіннің бұзылуы. Көбінесе олар дене мен бастың түйіскен жерінде пайда болады. Атақты адамның басы басқа денеге «жабыстырылған» кезде, мойын аймағында бұлыңғырлық пайда болуы мүмкін. Кейде кадрды өткізіп жіберу (үзіліс) және кадр қателері (әртүрлі жарық бұрышы, түрі немесе бағыты) бар.
  • Бейне кезінде хэштегті өзгерту бізде терең фейк бейне бар екенін де білдіруі мүмкін.

Материалдарды терең фэйк тұрғысынан қараған кезде, өз сезімдеріңізге де сенген жөн. Кейде бірдеңе «дұрыс емес» деген әсер аламыз. Бұл, басқалармен қатар, экранда бейнеленген адамның эмоциялары бет әлпетіне немесе дауыс ырғағы бізге сәйкес келмегенде орын алады. Бұл да бейненің жалған болуы мүмкін екенін көрсетеді.

Сондай-ақ қызықты:

Өзіңізді терең фейктен қалай қорғауға болады?

Терең жалған алаяқтықтан аулақ болу үшін сарапшылар келесі қадамдарды орындауға кеңес береді:

  • Жағдайдың шындығын бейне немесе жазба арқылы дәлелдейтін отбасы мүшелері немесе әріптестер сияқты жақын адамдарыңызбен құпия сөз немесе ұран жасаңыз. Бұл жағдайдың жалғандығын жылдам тексеруге және, мысалы, ақша бопсалаудан аулақ болуға мүмкіндік береді.
  • Хабарламалар арқылы, мысалы, әлеуметтік желілерде немесе SMS арқылы ешқашан сұралмайтын ақпарат тізімін туыстарыңызбен немесе әріптестеріңізбен келісіңіз. Барлық мүдделі тараптар қауіптің шынайы дәрежесі туралы хабардар болуы өте маңызды.
  • Әрбір сұранысты тексеру үшін көп факторлы аутентификация арналарын енгізу. Егер байланыс мәтіндік хабарламадан басталса, онда ақпаратты растаудың ең қауіпсіз жолы - алдын ала келісілген және қауіпсіз байланыс арнасы арқылы сөйлесу түрінде хабарлама жіберушімен байланысу.
  • Қауіпсіздік құзыреттілігін үздіксіз жетілдіру, мысалы, қауіпсіздік және киберқылмыс бойынша қызметкерлерді оқыту түрінде. Deepfake деген не және бұл қауіпке қалай қарсы тұру керектігі туралы хабардарлықты арттыру.
  • Ақпараттық-коммуникациялық технологиялар (АКТ) орталарында қауіпсіздік жүйелерін қолдау және дамыту.

Сіз терең фейкті қай жерде кездестіре аласыз?

Жалған материалды үлкен аудиторияға, яғни әлеуетті терең фейк аудиториясына қол жеткізе алатын кез келген жерден табуға болады. Facebook, Instagram, TikTok және басқа да әлеуметтік медиа сайттары осындай материалдарға толы.

Бұл таңғажайып бейнелер ғана емес, сонымен қатар «тазаланған» фотосуреттер мен аудио жазбалар. Кейбір шынайы атақты профильдер кейде терең фейк материалдарымен толтырылған!

Бұл терең фейкті таба алатын жалғыз орын емес. Смартфонға арналған қосымша да осы технологияға негізделген, ол фотосуретке мұртты және сақалды немесе басқа арнайы эффектілерді қосуға мүмкіндік береді (мысалы, бірнеше ондаған жылдарға қартаю). Сондықтан достарыңыздан алған соңғы фотосуретіңіз аздап «түсірілмеген» болып шығуы мүмкін.

Сондай-ақ қызықты:

Deepfake фильмдері тек порнографиялық емес

Deepfake қолдану оң және теріс болуы мүмкін. Deepfake фильмдері ойнақы немесе қызықты болуы мүмкін. Бұл жерде Елизавета патшайым жаңа жылдық хабарлама кезінде үстел үстінде билеген видеоны айта кеткен жөн. Бұл сонымен қатар смартфондардағы deepfake қолданбасымен жасайтын фото модификацияларының көпшілігінің мақсаты. Бұл күлкілі және көңілді болуы керек.

Deepfake материалдары білім беру рөлін де атқара алады, мысалы, қазірдің өзінде өлген суретшілерді, әншілерді немесе музыканттарды «қайта тірілтеді». Кейбір мұражайлар, атап айтқанда, Флоридадағы Сальвадор Дали мұражайы осы технологияны пайдаланады, мұнда келушілерге суретшінің өзі өз туындыларын «ұсынып», олармен сөйлесуге, тіпті суретке түсуге болады.

Deepfake технологиясы дауыс генераторларында қолданылады - сөйлеу қабілетін жоғалтқан адамдарға арналған құрылғылар. Солардың арқасында мұндай адамдар әлі де өз дауысымен бізбен сөйлесе алады. Көмейдің қатерлі ісігінен айырылған Вэл Килмердің дауысы Top Gun: Maverick фильмінде үлгіленген.

Өкінішке орай, бізде терең фейкингті теріс пайдаланудың көптеген мысалдары бар. Саясат - бұл жалған ақпараттың қоғам қайраткерлерінің беделін түсіру, қор нарығына, экономикаға немесе сайлау нәтижелеріне әсер ету немесе тіпті соғыс кезінде соғыс жүргізу сияқты ауқымды, жаһандық салдары болуы мүмкін мысал. Жақсы дайындалған жазба қоғамдық пікірді басқаруды жеңілдетеді. Технологиялардың прогрессивті дамуы шынайы материалдарды жалған материалдардан ажыратуды одан сайын қиындатады. Демек, бұл әлеуметтік сенім мен ақпараттық хаостың құлдырауына жасалған қадам.

Deepfake бейнелері, біз айтып өткеніміздей, порно индустриясында кеңінен таралған. Көбінесе өзгерістер порно актрисаның/актердің бетін атақты адамдардың немесе кино жұлдыздарының, әрине, олардың келісімінсіз ауыстырудан тұрады.

Сондай-ақ оқыңыз: Басқарылатын ғарыш миссиялары: Жерге оралу неге әлі де проблема болып табылады?

Deepfake - бәрімізге нақты қауіп

Deepfake тек актерлер мен саясаткерлердің проблемасы емес. Кез келген адамға жалған мазмұн әсер етуі мүмкін. Бопсалау мен бопсалау элементі біз қылмыс жасаған немесе түсініксіз жағдайға түсетін ойдан шығарылған бейне болуы мүмкін - сіз төлейсіз немесе біз ашамыз. Егер сіз бизнесте жұмыс істесеңіз, компанияны контрагенттер арасында беделін түсіру үшін deepfake қолдану қаупі бар екенін түсінуіңіз керек.

Манипуляциялық материалдың көлемінің артуы әлеуметтік сенім мен берілген ақпаратқа деген сенімге де әсер етуі мүмкін. Сотта дәлел болып табылатын фильм жалған болуы мүмкін және жаңалықтар болмаған оқиғалар туралы хабарлар болса, қалай сенуге болады?

Кейіпкерлері басқа адамдарға қатты ұқсайтын зиянды кескінді, аудиожазбаны немесе фильмді жасауға мүмкіндік беретін технология киберқылмыскерлерден келетін қауіптің жаңа деңгейі болып табылады. Әсіресе, әлеуметтік желілерде олар терең фейктерді жасау үшін шексіз дерлік бастапқы материал ресурстарын тарта алатынын ескерсек.

Машиналық оқыту бағдарламалық құралы іздей алады Facebook abo Instagram, мысалы, әлеуетті «актерлердің» қызықты фотосуреттерін немесе бейнелерін түсіріңіз. Осының негізінде адамның өте айқын дауысы, бейнесі және бейнесі жасалуы мүмкін, бірақ арнайы жасалған жалған үндеу арқылы, мысалы, ауыр қиыншылықта болуды - адам ұрлау немесе жазатайым оқиғаның құрбаны ретінде. Келесі кезеңде «жәбірленушінің» туыстарына көмек көрсету туралы жалған өтініш жасалады, мысалы, қаржылық.

Сондай-ақ оқыңыз: Джеймс Уэбб ғарыштық телескопы: бақылауға болатын 10 нысана

Депфэйкпен күрес

Жалған ақпарат ағынының көптігі сонша, көптеген әлеуметтік желілер терең фейктермен күресуді шешті. Facebook і Twitter жалған бейнелерді анықтауға және оларды автоматты түрде жоюға тырысыңыз. Ірі корпорациялар (соның ішінде Microsoft немесе Amazon) жалған мазмұнды анықтайтын бағдарламалық құралға инвестиция салуда. Ғалымдар да бұл мәселенің шешімін табуда.

Дегенмен, жалған фильм жасау үшін смартфон қолданбасы жеткілікті болған жағдайда терең фейкпен күресу жел диірмендерімен күресумен бірдей. Сондай-ақ ақпаратты манипуляциялау немесе басқа біреудің имиджін осылай пайдаланудың салдарын анықтайтын құқықтық нормалар жоқ.

Deepfake барған сайын танымал болып келеді және оны шындықтан ажырату қиынға соғуда. Бұл адамның қимыл-қозғалысы мен ым-ишарасына жақсырақ еліктейтін технологиялардың жетілдірілуіне байланысты. Deepfakes оқу материалдарын жасау немесе көмейге операциядан кейін дауысын жоғалтқан адамдарға көмектесу сияқты жақсы мақсаттарда пайдаланылуы мүмкін, бірақ олар сонымен қатар хакерлерге, шантажшыларға және интернет-тролльдерге арналған құрал болып табылады.

Сондықтан, егер сіз Интернетте таңғажайып бейнені қайтадан кездестірсеңіз, алдымен оның кейде өзгертілгенін немесе жалған екенін тексеріңіз. Мүмкін сіз қарап отырған нәрсе ешқашан шындықта болмаған шығар!

Сондай-ақ оқыңыз:

Дегенмен, Украинада соғыс жүріп жатқанын ұмытпаңыз. Егер сіз Украинаға ресейлік басқыншылармен күресуге көмектескіңіз келсе, мұны істеудің ең жақсы жолы - Украина Қарулы Күштеріне Lifelife немесе ресми парақшасы арқылы NBU.

үлес
Yuri Svitlyk

Карпат тауларының ұлы, математиканың танылмаған генийі, «заңгер»Microsoft, практикалық альтруист, сол-оң

пікір қалдыру

Сіздің электрондық пошта мекенжайы емес жарияланады. Міндетті өрістер таңбаланған*