Google-ի նախկին գործադիր տնօրեն Էրիկ Շմիդտը արհեստական ինտելեկտը (AI) համեմատեց միջուկային զենքի հետ և կոչ արեց զսպման ռեժիմ, որը նման է փոխադարձ երաշխավորված ոչնչացմանը, որը թույլ չի տալիս աշխարհի ամենահզոր պետություններին ոչնչացնել միմյանց:
Շմիդտը խոսել է արհեստական ինտելեկտի վտանգների մասին հուլիսի 22-ին Ասպենի անվտանգության ֆորումում՝ ազգային անվտանգության և արհեստական ինտելեկտի վերաբերյալ քննարկման ժամանակ։ Երբ նրան հարցրին տեխնոլոգիայի մեջ բարոյականության արժեքի մասին, Շմիդտը բացատրեց, որ ինքը միամիտ էր Google-ի սկզբնական շրջանում տեղեկատվության ուժի հարցում: Այնուհետև նա կոչ արեց տեխնոլոգիան ավելի լավ համապատասխանեցնել մարդկանց էթիկային և բարոյականությանը, որոնց ծառայում են, և տարօրինակ համեմատություն արեց արհեստական ինտելեկտի և միջուկային զենքի միջև:
«Մենք պատրաստ չենք այն բանակցություններին, որոնք մեզ անհրաժեշտ են». – @ericsschmidt #AspenSecurity նկարtwitter.com/As749t6ZyU
— Ասպենի անվտանգության ֆորում (@AspenSecurity) Հուլիս 22, 2022
Շմիդտը խոսել է մոտ ապագայի մասին, երբ Չինաստանն ու ԱՄՆ-ն պետք է համաձայնագիր կնքեն արհեստական ինտելեկտի վերաբերյալ։ «50-ականներին և 60-ականներին մենք ի վերջո ստեղծեցինք մի աշխարհ, որտեղ միջուկային փորձարկումների համար գործում էր «անսպասելի չլինելու» կանոնը, և արդյունքում դրանք արգելվեցին», - ասաց Շմիդտը: «Սա վստահության հավասարակշռության կամ անվստահության օրինակ է, սա «անսպասելի չլինելու» կանոնն է։ Ես շատ մտահոգված եմ, որ ԱՄՆ-ի Չինաստանի տեսակետը որպես կոռումպացված կամ կոմունիստական կամ ինչ-որ այլ բան, և Չինաստանի՝ Ամերիկայի՝ որպես պարտվողի տեսակետը... թույլ կտան մարդկանց ասել. ինչ-որ անհասկանալի բան կսկսվի... .
AI-ն և մեքենայական ուսուցումը հետաքրքրաշարժ և հաճախ չհասկացված տեխնոլոգիա են: Նա հիմնականում այնքան խելացի չէ, որքան մարդիկ կարծում են: Այն կարող է ստեղծել գլուխգործոցների մակարդակի արվեստի գործեր, հաղթել մարդկանց Starcraft II-ում և կատարել տարրական հեռախոսազանգեր օգտատերերի համար: Այնուամենայնիվ, այն ավելի բարդ առաջադրանքներ կատարելու փորձերը, օրինակ՝ մեծ քաղաքում մեքենա վարելը, հաջողություն չեն ունեցել։
Շմիդտը խոսում է երևակայական մոտ ապագայի մասին, որտեղ և՛ Չինաստանը, և՛ ԱՄՆ-ը մտահոգված կլինեն անվտանգության խնդիրներով, ինչը նրանց կստիպի մի տեսակ պայմանագիր կնքել արհեստական ինտելեկտը պարունակելու համար: Նա հիշեց 1950-ական և 60-ական թվականները, երբ դիվանագիտությունը մշակեց մի շարք հսկողություն մոլորակի ամենամահաբեր զենքերի շուրջ: Սակայն միջուկային պայթյունների տասնամյակը և, ամենակարևորը, Հիրոսիմայի և Նագասակիի կործանումը պահանջվեց, որպեսզի խաղաղություն գա մինչև Միջուկային փորձարկումների արգելման պայմանագրի, SALT II-ի և այլ կարևոր օրենսդրության կնքումը:
Երկրորդ համաշխարհային պատերազմի վերջում Ամերիկայի կողմից ավերված ճապոնական երկու քաղաքներ խլեցին տասնյակ հազարավոր մարդկանց կյանքեր և աշխարհին ապացուցեցին միջուկային զենքի հավերժական սարսափը։ Հետո Ռուսաստանի և Չինաստանի կառավարությունները շտապեցին զենք ձեռք բերել։ Ինչպես մենք ապրում ենք այդ զենքի կիրառման հնարավորության հետ, դա այն է, ինչը հայտնի է որպես Փոխադարձ երաշխավորված ոչնչացում (MAD), զսպման տեսություն, որը երաշխավորում է, որ եթե մի երկիր արձակի միջուկային զենք, ապա հնարավոր է ցանկացած այլ երկիր: Մենք չենք օգտագործում մոլորակի ամենակործանարար զենքերը, քանի որ այն կկործանի առնվազն քաղաքակրթությունն ամբողջ աշխարհում:
Չնայած Շմիդտի գունեղ մեկնաբանություններին, մենք չենք ուզում կամ կարիք ունենք MAD-ի AI-ի համար: Նախ, AI-ն դեռ չի ապացուցել իր կործանարար ուժը՝ համեմատած միջուկային զենքի հետ: Բայց իշխանություն ունեցող մարդիկ վախենում են այս նոր տեխնոլոգիայից և սովորաբար սխալ պատճառներով: Մարդիկ նույնիսկ առաջարկել են միջուկային զենքի կառավարումը արհեստական ինտելեկտին հանձնել՝ հավատալով, որ այն ավելի լավ դատավար կլինի դրա օգտագործման համար, քան մարդը:
Արհեստական ինտելեկտի խնդիրն այն չէ, որ այն ունի միջուկային զենքի պոտենցիալ կործանարար ուժը: Բանն այն է, որ արհեստական ինտելեկտը նույնքան լավն է, որքան այն մշակողները, և որ այն կրում է իր ստեղծողների արժեքները։ Արհեստական ինտելեկտը տառապում է դասական «աղբի մեջ, աղբից դուրս» խնդրից. ռասիստական ալգորիթմները ստեղծում են ռասիստական ռոբոտներ, և ամբողջ AI-ն կրում է իր ստեղծողների կողմնակալությունը:
Դեմիս Հասաբիսը, DeepMind ընկերության գործադիր տնօրենը, որը մարզել է AI-ին, որը հաղթում է Starcraft II խաղացողներին, կարծես թե դա ավելի լավ է հասկանում, քան Շմիդտը: Լեքս Ֆրիդմանի փոդքասթին տված հուլիսյան հարցազրույցում Ֆրիդմանը հարցրեց Հասաբիսին, թե ինչպես կարելի է կառավարել արհեստական ինտելեկտի նման հզոր տեխնոլոգիան, և ինչպես կարող է ինքը՝ Հասաբիսը, խուսափել այդ ուժի կողմից կոռումպացված լինելուց:
Խասաբիսի պատասխանն իր մասին է. «Արհեստական ինտելեկտը չափազանց մեծ գաղափար է: «Կարևոր է, թե ով է ստեղծում արհեստական ինտելեկտը, ինչ մշակույթներից են նրանք գալիս և ինչ արժեքներ ունեն։ AI համակարգերն ինքնուրույն կսովորեն, բայց համակարգը կմնա տպագրված համակարգի հեղինակների մշակույթով և արժեքներով»:
Արհեստական ինտելեկտը նրա հեղինակի արտացոլումն է։ Այն չի կարող հողին հավասարեցնել քաղաքը 1,2 մեգատոն հզորությամբ պայթյունով: Եթե մարդն իրեն դա չսովորեցնի։
Դուք կարող եք օգնել Ուկրաինային պայքարել ռուս զավթիչների դեմ։ Դա անելու լավագույն միջոցը Ուկրաինայի զինված ուժերին միջոցների նվիրաբերումն է Savelife կամ պաշտոնական էջի միջոցով NBU.
Կարդացեք նաև.
- Նոր հավելված Samsung օգտագործում է AI՝ ձեր լուսանկարները բարելավելու համար
- Արհեստական ինտելեկտը օգնում է աստղագիտական օբյեկտների նույնականացմանը