Ուրբաթ, 3 մայիսի, 2024 թ

աշխատասեղան v4.2.1

Root NationՀոդվածներՏեխնոլոգիաներԻնչ է խորը ֆեյքը, որքան վտանգավոր է այն և ինչպես ճանաչել այն

Ինչ է խորը ֆեյքը, որքան վտանգավոր է այն և ինչպես ճանաչել այն

-

Այսօր կխոսենք deepfake-ի մասին, որն այժմ մեծ տարածում է գտել և բավականին տարածված երեւույթ է։ Այս տեխնոլոգիայի շնորհիվ տեղեկատվական մանիպուլյացիան նոր մակարդակի է հասել։

Ամանորյա ուղերձի հեռարձակման ժամանակ Եղիսաբեթ թագուհուն տեսե՞լ եք սեղանի վրա պարելիս: Կամ լսե՞լ եք Կիմ Չեն Ընի ելույթը ժողովրդավարության մասին, թե՞ հիացել Սալվադոր Դալիով, ով խոսեց իր մահվան մասին (ինչու՞ չի հավատում դրան):

Այս բոլոր զարմանահրաշ տեսանյութերն ունեն մեկ ընդհանուր բան՝ դրանք կեղծ են: Deepfake-ը կեղծ տեղեկություններ ստեղծելու և հրապարակելու տեխնիկա է՝ տեսանյութերի, աուդիո և լուսանկարների տեսքով: Նման նյութերի հանդիպելն ավելի հեշտ է դառնում, ուստի մենք ձեզ համար պատրաստել ենք հրահանգ՝ համացանցում խորը կեղծ տեսանյութեր ստեղծելու, ճանաչելու և որոնելու վերաբերյալ։

Կարդացեք նաև. Վաղվա բլոկչեյններ. կրիպտոարժույթների արդյունաբերության ապագան պարզ բառերով

Deepfake - ինչ է դա:

Deepfake-ը (Deepfake) իրականում լուսանկար, վիդեո կամ աուդիո նյութ է, որը իրական չէ, կեղծ, այսինքն՝ կեղծ: Deepfake-ը (երկու բառի համակցություն՝ խորը ուսուցում «խորը ուսուցում» և կեղծ «կեղծ») օգտագործում է արհեստական ​​ինտելեկտը (AI) խորը ուսուցման համար՝ տեսանյութերում և թվային այլ նյութերում մեկ մարդու նմանությունը մյուսի հետ ստեղծելու համար: Այն ստեղծվում է իրական ձայնի, ձայնի, տեսանյութի կամ լուսանկարի նմուշների վրա հիմնված ալգորիթմների միջոցով, որոնք կարված են միասին: Ալգորիթմը վերցնում է ընտրված տեղեկատվություն շատ տարբեր վայրերից, այնուհետև այն միավորում է մեկ նյութի մեջ: Արդյունքում ստեղծվում է մի նոր բան (կեղծ), որը հիմնված է տարբեր իրական տվյալների համակցության վրա։

Deepfake

Բայց սա դեռ ամենը չէ: Deepfake-ը կարող է նաև «նկարել» լուսանկար զրոյից, օրինակ՝ ստեղծելով երբեք գոյություն չունեցող կերպարների դեմքերը:

Ո՞րն է նման գործողությունների նպատակը։ Ի թիվս այլ բաների, Deepfake-ն օգտագործվում է համացանցում սխալ տեղեկատվություն տարածելու համար (օրինակ՝ քաղաքական գործիչների կամ իրադարձությունների մասին), գողության (օրինակ՝ ձայնային հրամաններ կեղծելու) և պոռնոգրաֆիա ստեղծելու համար (հայտնիների հետ ֆիլմեր՝ խորը ֆեյք պոռնո): Այն կարող է օգտագործվել նաև կրթական և ժամանցային նպատակներով:

Կարդացեք նաև. Քվանտային համակարգիչների մասին պարզ բառերով

Deepfake - Ինչպե՞ս է այն աշխատում:

Ընդհանուր առմամբ, կա խորը կեղծ նյութ ստեղծելու երկու եղանակ. Առաջին մեթոդը օգտագործում է երկու ալգորիթմ. Նախ, առաջինը (կոդավորիչը) փնտրում է երկու պատկերների ընդհանուր հատկանիշները (որոնք պետք է միավորվեն մեկում), ապա երկրորդը (ապակոդավորիչը) կարող է դրանք փոխանցել նոր ստեղծված պատկերին: Օրինակ, եթե մենք ուզում ենք ստեղծել մի տեսահոլովակ, որտեղ դերասանը կշարժվի մեզ նման, ապա կոդավորիչը շարժումը վերցնում է այն տեսահոլովակից, որտեղ մենք պարում ենք, և ապակոդավորիչը արդեն կփոխարինի մեր դեմքը դերասանի դեմքով և կստիպի նրան վերարտադրել մեր շարժումները: . Այստեղ հիմնականը ընտրված գործողություններն են, որոնք պատճենվում են նոր պատկերին (օրինակ՝ շարժումները, ժեստերը, դեմքի արտահայտությունները):

- Գովազդ -

Երկրորդ ճանապարհը գեներատիվ հակառակորդ ցանցերի (GANs) միջոցով է, որտեղ երկու ալգորիթմ աշխատում են միասին: Առաջինը կոչվում է գեներատոր, քանի որ, օգտագործելով ընդհանուր տեղեկատվություն, այն ստեղծում է պատկերներ (օրինակ՝ մարդու կերպար), որոնք միավորում են նրա տարբերակիչ հատկանիշները (մարդն ունի մարմին, դեմք, աչքեր): Երկրորդ ալգորիթմը տարբերակիչ է, որը գնահատում է՝ արդյոք գեներատորի կողմից իրեն տրված պատկերները ճշմարիտ են, թե ոչ։

Deepfake

Ժամանակի ընթացքում երկու ալգորիթմներն էլ ավելի առաջադեմ են դառնում, ուստի նրանք սովորում և կատարելագործվում են: Եթե ​​գեներատորը վարժեցված է այնպես, որ խտրականը չճանաչի կեղծ լուսանկարը (այն համարում է իրական), գործընթացը ավարտված է։

Մեծ քանակությամբ կեղծ ծրագրեր կարելի է գտնել GitHub-ում՝ սկրիպտների, ծրագրերի և կոդի բաց կոդով համայնքում: Այս ծրագրերից որոշներն օգտագործվում են զուտ զվարճանքի նպատակներով, այնպես որ խորը ֆեյք ստեղծելն արգելված չէ, սակայն դրանցից շատերը կարող են օգտագործվել նաև հանցավոր նպատակներով։

Շատ փորձագետներ կարծում են, որ ապագայում, տեխնոլոգիաների զարգացման հետ մեկտեղ, deepfakes-ը շատ ավելի բարդ կդառնա և կարող է ավելի լուրջ վտանգներ ստեղծել հասարակության համար՝ կապված ընտրություններին միջամտության, քաղաքական լարվածության և հանցավոր գործունեության հետ։

Կարդացեք նաև.

Deepfake-ի սպառնալիքը. երբվանի՞ց է այն գոյություն ունի:

Առաջին անգամ նման կեղծ տեղեկատվություն հայտնվեց 2017թ. Այնուհետև օգտագործողը այլանուն է խորը մտքեր Reddit-ում հրապարակել է մի քանի պոռնոֆիլմեր, որոնցում ներգրավված են եղել հայտնի մարդիկ, այդ թվում Սքարլեթ Յոհանսոն, Գալ Գադոտ և Թեյլոր Սվիֆթ: Այդ ժամանակից ի վեր այս ոլորտը արագ զարգանում է, քանի որ գրեթե բոլորը կարող են նկարահանել խորը կեղծ ֆիլմեր։

https://youtu.be/IvY-Abd2FfM

Վերջին տարիներին խորը ֆեյքինգի տեխնոլոգիան այնքան է զարգացել, որ այժմ ավելի ու ավելի դժվար է որոշել՝ դա հորինված տեսահոլովակ է, թե իրական մարդկանց իրական ձայնագրություն: Օրինակ կարող է լինել Եղիսաբեթ 44-րդի ուղերձով տեսանյութը կամ Բարաք Օբամայի ելույթը, որն արագորեն հրապարակվել է բազմաթիվ տարբեր կայքերում: ԱՄՆ նախկին նախագահի հայտարարությամբ տեսանյութն անդրադարձել է գլոբալ սպառնալիքներին, որոնք կարող են առաջանալ համացանցում հրապարակված ապատեղեկատվության և կեղծ լուրերի պատճառով։ BuzzFeedVideos ալիքի հրապարակած նյութում ամերիկացի ռեժիսոր և դերասան Ջորդան Փիլը դարձել է ԱՄՆ XNUMX-րդ նախագահի ձայնը։ Այնուամենայնիվ, ներկայումս արհեստական ​​ինտելեկտն արդեն ի վիճակի է ձայն ստեղծել՝ հիմնված արխիվային ձայնագրությունների վրա, ով պետք է հայտնվի կեղծ ֆիլմում։

Նման առաջադեմ տեխնոլոգիաները ապագայում կարող են վտանգավոր գործիք դառնալ կիբերհանցագործների և ինտերնետ խարդախների ձեռքում։ Կարեւոր քաղաքական գործիչների ելույթների կեղծ տեսանյութերի հրապարակումը կարող է իրական վնաս հասցնել միջազգային մակարդակով։ Դիփֆեյքի տեխնոլոգիայի վրա հիմնված նման ֆիլմերը կարող են դիվանագիտական ​​կոնֆլիկտների ու սկանդալների պատճառ դառնալ, հետևաբար ազդել հասարակական կարծիքի և մարդկանց վարքի վրա։

Մյուս պոտենցիալ սպառնալիքը մեծահասակների համար նախատեսված բովանդակությունն է, որը միշտ ամենաշատ տրաֆիկն է առաջացրել վիրտուալ տարածքում: Զարմանալի չէ, որ deepfake տեխնոլոգիան այդքան արագ հայտնվեց համացանցում: Հոլանդական Deeptrace կիբերանվտանգության ընկերության զեկույցի համաձայն, հորինված տեսանյութերի 96%-ը, որոնք ստեղծվել են deepfake տեխնոլոգիայի միջոցով, բովանդակում են նման թեմաներով: Ամենից հաճախ նման նյութերի արտադրության համար օգտագործվում են կինոաստղերի, մարզիկների, նույնիսկ քաղաքական գործիչների ու իշխանության ներկայացուցիչների պատկերները։

Կարդացեք նաև. Ինչու՞ տիեզերական առաքելությունը չի կարող թռչել ցանկացած պահի. Ի՞նչ է մեկնարկի պատուհանը:

- Գովազդ -

Ինչպե՞ս պատրաստել խորը ֆեյք:

Եթե ​​որևէ մեկը կարող է նկարահանել խորը ֆեյք տեսանյութեր, կարո՞ղ են դրանք պատրաստել նաև տանը: Միանշանակ այո, բայց դրանց որակը, իհարկե, կատարյալ չի լինի։ Նման տեսանյութերի ստեղծման համար անհրաժեշտ են մեծ հաշվողական ռեսուրսներ և հզոր վիդեո քարտեր: Նրանք, որոնք մենք սովորաբար ունենում ենք տնային համակարգիչներում, բավարար չեն, և զարգացման գործընթացը ինքնին կարող է տևել շաբաթներ: Ֆիլմերի որակը նույնպես շատ ցանկալի կթողնի՝ տեսանելի սխալներ կլինեն, բերանի շարժումները կարող են չհամապատասխանել ձայնին, տեսանելի վայրեր կլինեն, որտեղ «հին» բովանդակությունը համընկնում է «նորին»:

Այնուամենայնիվ, եթե մենք ուզում ենք մի փոքր «շոշափել» լուսանկարը կամ պատրաստել կարճ խորը կեղծ տեսանյութ, ապա դրա համար նախատեսված ծրագիրը կարող է ներբեռնվել անմիջապես սմարթֆոնի վրա: Շատ հեշտ օգտագործման ծրագիրը մի քանի րոպեում կվերացնի արտաքինի թերությունները, կվերածի ձեզ ընտրված հայտնի մարդու կամ թույլ կտա ձեր շանը խոսել մարդկային ձայնով:

Կարդացեք նաև.

Ինչպե՞ս ճանաչել խորը ֆեյքը:

Պրոֆեսիոնալ խորը կեղծ հոլովակները գնալով ավելի ու ավելի դժվարանում են նկատել: Սկզբում ալգորիթմներն ունեին հիմնական վարքի հետ կապված խնդիրներ (օրինակ՝ աչքերի թարթումը), և անմիջապես պարզ դարձավ, որ ֆիլմը կեղծ է: Այս սխալն այժմ շտկվել է: Կեղծ կերպարները թարթում են, բնականաբար շարժվում և խոսում են սահուն: Այնուամենայնիվ, երբեմն նրանք դեռ խնդիրներ ունեն աչքերի բնական շարժման հետ:

Deepfake

Այսպիսով, ինչպե՞ս կարելի է նկատել խորը ֆեյքը: Ահա, թե ինչին պետք է ուշադրություն դարձնել տեսանյութը դիտելիս.

  • Արդյո՞ք ձայնը համահունչ է բերանի շարժումներին: Երբեմն դրանք այնքան էլ չեն համընկնում, և տեսանյութում պատկերված անձը ձայնի համեմատ ուշացումով շարժում է շուրթերը կամ սխալ է արտահայտում բառերը:
  • Բոլոր տեսակի երեւույթներ, որոնք անբնական են թվում: Խոսքն այստեղ, ի թիվս այլ բաների, ամբողջ մարմնի կամ գլխի դիրքի մասին է իրանի նկատմամբ, առարկաների վրա լույսի սխալ արտացոլումը, զարդերի մեջ լույսի սխալ արտացոլումը և այլն։ Մաշկի անբնական գույնը կարող է նաև նշան լինել, որ ֆիլմը կեղծ է:
  • Աուդիո և վիդեո որակ: Նրանց միջև եղած տարբերությունը կօգնի բացահայտել խորը ֆեյքը: Սովորաբար սաունդթրեքն ավելի վատ որակի է։
  • Պատկերի անկանոնություններ. Ամենից հաճախ դրանք հայտնվում են մարմնի և գլխի միացման վայրում։ Երբ հայտնի մարդու գլուխը «կպչում» է մեկ այլ մարմնի վրա, պարանոցի հատվածում կարող է պղտորվել: Երբեմն լինում են շրջանակի բացթողումներ (ընդհատվող) և շրջանակի սխալներ (տարբեր լույսի անկյուն, տեսակ կամ ուղղություն):
  • Տեսահոլովակի ընթացքում հեշթեգը փոխելը կարող է նշանակել նաև, որ մենք ունենք խորը կեղծ տեսանյութ։

Նյութերը deepfake-ի տեսանկյունից դիտելիս արժե նաև ապավինել սեփական զգացմունքներին։ Երբեմն մեզ մոտ տպավորություն է ստեղծվում, որ ինչ-որ բան «սխալ» է։ Դա տեղի է ունենում, ի թիվս այլ բաների, երբ էկրանին պատկերված անձի հույզերը չեն համընկնում այն ​​ամենի հետ, ինչ մեզ ցույց է տալիս դեմքի արտահայտությունը կամ ձայնի տոնը: Սա նաև հուշում է, որ տեսանյութը կարող է կեղծված լինել։

Հետաքրքիր է նաև.

Ինչպե՞ս պաշտպանվել ձեզ խորը կեղծիքից:

Խորը կեղծ խարդախությունից խուսափելու համար փորձագետները խորհուրդ են տալիս հետևել հետևյալ քայլերին.

  • Ստեղծեք գաղտնի խոսք կամ կարգախոս սիրելիների հետ, ինչպիսիք են ընտանիքի անդամները կամ գործընկերները, որոնք կապացուցեն իրավիճակի իրականությունը տեսանյութով կամ ձայնագրությամբ: Սա թույլ կտա արագ ստուգել իրավիճակի կեղծ լինելը և խուսափել, օրինակ, փողի շորթումից։
  • Համաձայնեք հարազատների կամ գործընկերների հետ այնպիսի տեղեկությունների ցանկի շուրջ, որոնց մասին երբեք չեն հարցնի հաղորդագրությունների միջոցով, օրինակ՝ սոցիալական ցանցերում կամ SMS-ում: Հրամայական է, որ բոլոր շահագրգիռ կողմերը տեղեկացված լինեն վտանգի իրական չափի մասին:
  • Յուրաքանչյուր հարցումը ստուգելու համար բազմագործոն նույնականացման ալիքների ներդրում: Եթե ​​շփումը սկսվում է տեքստային հաղորդագրությունից, ապա տեղեկատվությունը հաստատելու ամենաանվտանգ միջոցը հաղորդագրություն ուղարկողի հետ զրույցի ձևով կապվելն է նախապես համաձայնեցված և ապահով հաղորդակցման ալիքով։
  • Անվտանգության իրավասության շարունակական բարելավում, օրինակ՝ անվտանգության և կիբերհանցագործությունների վերաբերյալ անձնակազմի վերապատրաստման տեսքով: Իրազեկության բարձրացում, թե ինչ է խորը ֆեյքը և ինչպես դիմակայել այս սպառնալիքին:
  • Տեղեկատվական և հաղորդակցական տեխնոլոգիաների (ՏՀՏ) միջավայրերում անվտանգության համակարգերի աջակցություն և զարգացում:

Որտե՞ղ կարող եք հանդիպել deepfake-ի:

Կեղծ նյութը կարելի է գտնել ամենուր, որտեղ այն կարող է հասնել մեծ լսարանի, այսինքն՝ պոտենցիալ խորը կեղծ լսարանի: Facebook, Instagram, TikTok-ը և այլ սոցիալական մեդիա կայքերը լի են նման նյութերով:

Սրանք ոչ միայն զարմանալի տեսանյութեր են, այլեւ «զտված» լուսանկարներ եւ աուդիո ձայնագրություններ։ Որոշ իսկական հայտնիների պրոֆիլներ երբեմն ամբողջությամբ լցված են խորը կեղծ նյութերով:

Սա միակ վայրը չէ, որտեղ դուք կարող եք գտնել deepfake: Այս տեխնոլոգիայի վրա է հիմնված նաև սմարթֆոնի հավելվածը, որը թույլ է տալիս լուսանկարին ավելացնել բեղեր և մորուք կամ այլ հատուկ էֆեկտներ (օրինակ՝ ծերանալը մի քանի տասնամյակով)։ Այսպիսով, կարող է պարզվել, որ ձեր ընկերներից ստացած վերջին լուսանկարը մի փոքր «թերքաշված է»:

Հետաքրքիր է նաև.

Deepfake ֆիլմերը միայն պոռնոգրաֆիկ չեն

Deepfake-ի օգտագործումը կարող է լինել և՛ դրական, և՛ բացասական: Deepfake ֆիլմերը կարող են լինել զվարճալի կամ զվարճալի: Այստեղ պետք է նշենք ամանորյա ուղերձի ժամանակ Եղիսաբեթ թագուհու՝ սեղանի վրա պարելու տեսագրությունը։ Սա է նաև լուսանկարների փոփոխությունների մեծ մասի նպատակը, որը մենք անում ենք մեր սմարթֆոնների խորը ֆեյք հավելվածի միջոցով: Այն պետք է լինի զվարճալի և զվարճալի:

Deepfake նյութերը կարող են նաև դաստիարակչական դեր խաղալ, օրինակ՝ «վերակենդանացնել» արդեն մահացած արտիստներին, երգիչներին կամ երաժիշտներին։ Որոշ թանգարաններ, մասնավորապես՝ Ֆլորիդայի Սալվադոր Դալիի թանգարանը, օգտագործում են այս տեխնոլոգիան, որտեղ այցելուներին «ներկայացնում է» իրենց աշխատանքները հենց նկարչի կողմից, ում հետ կարելի է զրուցել և նույնիսկ նկարվել։

Deepfake տեխնոլոգիան օգտագործվում է ձայնային գեներատորներում՝ սարքեր, որոնք նախատեսված են խոսելու ունակությունը կորցրած մարդկանց համար: Նրանց շնորհիվ նման մարդիկ դեռ կարող են մեզ հետ խոսել իրենց ձայնով։ Վալ Քիլմերի ձայնը, որը նա կորցրել է կոկորդի քաղցկեղի պատճառով, մոդելավորվել է Top Gun: Maverick-ում:

Ցավոք սրտի, մենք ունենք նաև deepfaking-ի բացասական կիրառման բազմաթիվ օրինակներ: Քաղաքականությունը օրինակ է, որտեղ այս տեսակի կեղծ տեղեկատվությունը կարող է ունենալ հեռուն գնացող, գլոբալ հետևանքներ, ինչպիսիք են վարկաբեկումը հասարակական գործիչներին, ազդել արժեթղթերի շուկայի, տնտեսության կամ ընտրությունների արդյունքների վրա, կամ նույնիսկ պատերազմի վարումը: Լավ պատրաստված գրառումը հեշտացնում է հանրային կարծիքը շահարկելը: Տեխնոլոգիաների առաջանցիկ զարգացումն էլ ավելի կդժվարացնի իրական նյութերը կեղծիքներից տարբերելը։ Այսպիսով, սա քայլ է դեպի սոցիալական վստահության անկում և տեղեկատվական քաոս։

Deepfake տեսանյութերը, ինչպես արդեն նշեցինք, լայն տարածում ունեն պոռնոարդյունաբերության մեջ։ Ամենից հաճախ փոփոխությունները բաղկացած են պոռնոդերասանուհու/դերասանի դեմքը հայտնիների կամ կինոաստղերի դեմքով փոխարինելուց, իհարկե, առանց նրանց համաձայնության։

Կարդացեք նաև. Օդաչու տիեզերական առաքելություններ. ինչու՞ է Երկիր վերադարձը դեռ խնդիր:

Deepfake-ը իրական սպառնալիք է բոլորիս համար

Deepfake-ը միայն դերասանների և քաղաքական գործիչների խնդիր չէ: Ցանկացած անձ կարող է ազդել կեղծ բովանդակության վրա: Շանտաժի և շորթման տարր կարող է լինել շինծու տեսանյութը, որում մենք հանցագործություն ենք կատարում կամ հայտնվում ենք ոչ միանշանակ իրավիճակում՝ կամ դուք վճարում եք, կամ մենք բացահայտում ենք։ Եթե ​​դուք աշխատում եք բիզնեսում, ապա պետք է հասկանաք, որ կա վտանգ՝ օգտագործելով deepfake-ը՝ ընկերությունը վարկաբեկելու իր գործընկերների շրջանում:

Deepfake

Մանիպուլյատիվ նյութերի քանակի ավելացումը կարող է ազդել նաև սոցիալական վստահության և տրամադրված տեղեկատվության նկատմամբ վստահության վրա: Ինչպե՞ս կարող ես որևէ բանի հավատալ, երբ դատարանում ապացույց հանդիսացող ֆիլմը կարող է կեղծ լինել, իսկ լուրերը հաղորդում են գոյություն չունեցող իրադարձությունների մասին:

Deepfake

Տեխնոլոգիան, որը թույլ է տալիս ստեղծել վնասակար պատկեր, աուդիո ձայնագրություն կամ ֆիլմ, որի հերոսները շատ նման են այլ մարդկանց, կիբերհանցագործների սպառնալիքի նոր մակարդակ է: Հատկապես հաշվի առնելով այն հանգամանքը, որ սոցիալական ցանցերում նրանք կարող են գրեթե անսահմանափակ աղբյուրի ռեսուրսներ ներգրավել խորը ֆեյքեր ստեղծելու համար։

Մեքենայի ուսուցման ծրագրակազմը կարող է որոնել Facebook або Instagram, օրինակ, եւ որսալ պոտենցիալ «դերասանների» հետաքրքիր լուսանկարներ կամ տեսանյութեր։ Դրա հիման վրա կարելի է ստեղծել մարդու շատ հստակ ձայն, պատկեր և տեսանյութ, բայց հատուկ ստեղծված կեղծ կոչով, որը նմանակում է, օրինակ, լուրջ դժվարությունների մեջ լինել՝ որպես առևանգման կամ դժբախտ պատահարի զոհ: Հաջորդ փուլում առաջանում է «զոհի» հարազատներին ուղղված օգնության կեղծ խնդրանք, օրինակ՝ ֆինանսական։

Կարդացեք նաև. Ջեյմս Ուեբ տիեզերական աստղադիտակ. 10 թիրախ, որոնք պետք է դիտարկել

Դիփֆեյքի դեմ պայքար

Կեղծ տեղեկատվության հոսքն այնքան մեծ է, որ սոցիալական ցանցերից շատերը որոշել են պայքարել խորը ֆեյքերի դեմ։ Facebook і Twitter փորձեք հայտնաբերել կեղծ տեսանյութեր և ինքնաբերաբար ջնջել դրանք: Խոշոր կորպորացիաները (ներառյալ Microsoft կամ Amazon) ներդրումներ են կատարում ծրագրային ապահովման մեջ, որը կբացահայտի կեղծ բովանդակությունը: Գիտնականները նույնպես աշխատում են այս խնդրի լուծման վրա։

Այնուամենայնիվ, այն իրավիճակում, երբ սմարթֆոնի հավելվածը բավական է կեղծ ֆիլմ ստեղծելու համար, խորը կեղծիքի դեմ պայքարելը նման է հողմաղացների դեմ պայքարին: Չկան նաև իրավական նորմեր, որոնք կորոշեն տեղեկատվության մանիպուլյացիայի կամ այս կերպ ուրիշի կերպարը օգտագործելու հետևանքները։

Deepfake

Deepfake-ը գնալով ավելի տարածված է դառնում, և ավելի ու ավելի դժվար է այն տարբերել ճշմարտությունից: Դա պայմանավորված է տեխնոլոգիաների կատարելագործմամբ, որոնք կարող են ավելի լավ ընդօրինակել մարդու շարժումներն ու ժեստերը։ Deepfakes-ը կարող է օգտագործվել լավ նպատակների համար, օրինակ՝ ուսումնական նյութեր ստեղծելու կամ կոկորդի վիրահատությունից հետո ձայնը կորցրած մարդկանց օգնելու համար, բայց դրանք նաև գործիք են հաքերների, շանտաժիստների և ինտերնետային տրոլների համար:

Այսպիսով, եթե համացանցում կրկին հանդիպեք զարմանալի տեսանյութի, նախ ստուգեք՝ այն երբեմն փոփոխված է կամ կեղծ: Միգուցե այն, ինչ դուք նայում եք, երբեք իրականում չի եղել:

Կարդացեք նաև.

Այնուամենայնիվ, մի մոռացեք, որ Ուկրաինայում պատերազմ է ընթանում։ Եթե ​​ցանկանում եք օգնել Ուկրաինային պայքարել ռուս օկուպանտների դեմ, ապա դա անելու լավագույն միջոցը Ուկրաինայի զինված ուժերին նվիրատվություն կատարելն է. Savelife կամ պաշտոնական էջի միջոցով NBU.

Yuri Svitlyk
Yuri Svitlyk
Կարպատյան լեռների որդի, մաթեմատիկայի չճանաչված հանճար, «փաստաբան».Microsoft, գործնական ալտրուիստ, ձախ-աջ
- Գովազդ -
Գրանցվել
Տեղեկացնել մասին
հյուր

0 մեկնաբանություններ
Ներկառուցված ակնարկներ
Դիտել բոլոր մեկնաբանությունները
Բաժանորդագրվեք թարմացումների համար