Ուրբաթ, 3 մայիսի, 2024 թ

աշխատասեղան v4.2.1

Root NationՆորություններՏՏ նորություններGoogle-ի նախկին ղեկավարն արհեստական ​​ինտելեկտը համեմատել է միջուկային զենքի հետ

Google-ի նախկին ղեկավարն արհեստական ​​ինտելեկտը համեմատել է միջուկային զենքի հետ

-

Google-ի նախկին գործադիր տնօրեն Էրիկ Շմիդտը արհեստական ​​ինտելեկտը (AI) համեմատեց միջուկային զենքի հետ և կոչ արեց զսպման ռեժիմ, որը նման է փոխադարձ երաշխավորված ոչնչացմանը, որը թույլ չի տալիս աշխարհի ամենահզոր պետություններին ոչնչացնել միմյանց:

Google-ի նախկին ղեկավարն արհեստական ​​ինտելեկտը համեմատել է միջուկային զենքի հետ

Շմիդտը խոսել է արհեստական ​​ինտելեկտի վտանգների մասին հուլիսի 22-ին Ասպենի անվտանգության ֆորումում՝ ազգային անվտանգության և արհեստական ​​ինտելեկտի վերաբերյալ քննարկման ժամանակ։ Երբ նրան հարցրին տեխնոլոգիայի մեջ բարոյականության արժեքի մասին, Շմիդտը բացատրեց, որ ինքը միամիտ էր Google-ի սկզբնական շրջանում տեղեկատվության ուժի հարցում: Այնուհետև նա կոչ արեց տեխնոլոգիան ավելի լավ համապատասխանեցնել մարդկանց էթիկային և բարոյականությանը, որոնց ծառայում են, և տարօրինակ համեմատություն արեց արհեստական ​​ինտելեկտի և միջուկային զենքի միջև:

Շմիդտը խոսել է մոտ ապագայի մասին, երբ Չինաստանն ու ԱՄՆ-ն պետք է համաձայնագիր կնքեն արհեստական ​​ինտելեկտի վերաբերյալ։ «50-ականներին և 60-ականներին մենք ի վերջո ստեղծեցինք մի աշխարհ, որտեղ միջուկային փորձարկումների համար գործում էր «անսպասելի չլինելու» կանոնը, և արդյունքում դրանք արգելվեցին», - ասաց Շմիդտը: «Սա վստահության հավասարակշռության կամ անվստահության օրինակ է, սա «անսպասելի չլինելու» կանոնն է։ Ես շատ մտահոգված եմ, որ ԱՄՆ-ի Չինաստանի տեսակետը որպես կոռումպացված կամ կոմունիստական ​​կամ ինչ-որ այլ բան, և Չինաստանի՝ Ամերիկայի՝ որպես պարտվողի տեսակետը... թույլ կտան մարդկանց ասել. ինչ-որ անհասկանալի բան կսկսվի... .

AI-ն և մեքենայական ուսուցումը հետաքրքրաշարժ և հաճախ չհասկացված տեխնոլոգիա են: Նա հիմնականում այնքան խելացի չէ, որքան մարդիկ կարծում են: Այն կարող է ստեղծել գլուխգործոցների մակարդակի արվեստի գործեր, հաղթել մարդկանց Starcraft II-ում և կատարել տարրական հեռախոսազանգեր օգտատերերի համար: Այնուամենայնիվ, այն ավելի բարդ առաջադրանքներ կատարելու փորձերը, օրինակ՝ մեծ քաղաքում մեքենա վարելը, հաջողություն չեն ունեցել։

Շմիդտը խոսում է երևակայական մոտ ապագայի մասին, որտեղ և՛ Չինաստանը, և՛ ԱՄՆ-ը մտահոգված կլինեն անվտանգության խնդիրներով, ինչը նրանց կստիպի մի տեսակ պայմանագիր կնքել արհեստական ​​ինտելեկտը պարունակելու համար: Նա հիշեց 1950-ական և 60-ական թվականները, երբ դիվանագիտությունը մշակեց մի շարք հսկողություն մոլորակի ամենամահաբեր զենքերի շուրջ: Սակայն միջուկային պայթյունների տասնամյակը և, ամենակարևորը, Հիրոսիմայի և Նագասակիի կործանումը պահանջվեց, որպեսզի խաղաղություն գա մինչև Միջուկային փորձարկումների արգելման պայմանագրի, SALT II-ի և այլ կարևոր օրենսդրության կնքումը:

Երկրորդ համաշխարհային պատերազմի վերջում Ամերիկայի կողմից ավերված ճապոնական երկու քաղաքներ խլեցին տասնյակ հազարավոր մարդկանց կյանքեր և աշխարհին ապացուցեցին միջուկային զենքի հավերժական սարսափը։ Հետո Ռուսաստանի և Չինաստանի կառավարությունները շտապեցին զենք ձեռք բերել։ Ինչպես մենք ապրում ենք այդ զենքի կիրառման հնարավորության հետ, դա այն է, ինչը հայտնի է որպես Փոխադարձ երաշխավորված ոչնչացում (MAD), զսպման տեսություն, որը երաշխավորում է, որ եթե մի երկիր արձակի միջուկային զենք, ապա հնարավոր է ցանկացած այլ երկիր: Մենք չենք օգտագործում մոլորակի ամենակործանարար զենքերը, քանի որ այն կկործանի առնվազն քաղաքակրթությունն ամբողջ աշխարհում:

Չնայած Շմիդտի գունեղ մեկնաբանություններին, մենք չենք ուզում կամ կարիք ունենք MAD-ի AI-ի համար: Նախ, AI-ն դեռ չի ապացուցել իր կործանարար ուժը՝ համեմատած միջուկային զենքի հետ: Բայց իշխանություն ունեցող մարդիկ վախենում են այս նոր տեխնոլոգիայից և սովորաբար սխալ պատճառներով: Մարդիկ նույնիսկ առաջարկել են միջուկային զենքի կառավարումը արհեստական ​​ինտելեկտին հանձնել՝ հավատալով, որ այն ավելի լավ դատավար կլինի դրա օգտագործման համար, քան մարդը:

Google-ի նախկին ղեկավարը AI-ն համեմատել է միջուկային զենքի հետ

Արհեստական ​​ինտելեկտի խնդիրն այն չէ, որ այն ունի միջուկային զենքի պոտենցիալ կործանարար ուժը: Բանն այն է, որ արհեստական ​​ինտելեկտը նույնքան լավն է, որքան այն մշակողները, և որ այն կրում է իր ստեղծողների արժեքները։ Արհեստական ​​ինտելեկտը տառապում է դասական «աղբի մեջ, աղբից դուրս» խնդրից. ռասիստական ​​ալգորիթմները ստեղծում են ռասիստական ​​ռոբոտներ, և ամբողջ AI-ն կրում է իր ստեղծողների կողմնակալությունը:

Դեմիս Հասաբիսը, DeepMind ընկերության գործադիր տնօրենը, որը մարզել է AI-ին, որը հաղթում է Starcraft II խաղացողներին, կարծես թե դա ավելի լավ է հասկանում, քան Շմիդտը: Լեքս Ֆրիդմանի փոդքասթին տված հուլիսյան հարցազրույցում Ֆրիդմանը հարցրեց Հասաբիսին, թե ինչպես կարելի է կառավարել արհեստական ​​ինտելեկտի նման հզոր տեխնոլոգիան, և ինչպես կարող է ինքը՝ Հասաբիսը, խուսափել այդ ուժի կողմից կոռումպացված լինելուց:

Խասաբիսի պատասխանն իր մասին է. «Արհեստական ​​ինտելեկտը չափազանց մեծ գաղափար է: «Կարևոր է, թե ով է ստեղծում արհեստական ​​ինտելեկտը, ինչ մշակույթներից են նրանք գալիս և ինչ արժեքներ ունեն։ AI համակարգերն ինքնուրույն կսովորեն, բայց համակարգը կմնա տպագրված համակարգի հեղինակների մշակույթով և արժեքներով»:

Արհեստական ​​ինտելեկտը նրա հեղինակի արտացոլումն է։ Այն չի կարող հողին հավասարեցնել քաղաքը 1,2 մեգատոն հզորությամբ պայթյունով: Եթե ​​մարդն իրեն դա չսովորեցնի։

Դուք կարող եք օգնել Ուկրաինային պայքարել ռուս զավթիչների դեմ։ Դա անելու լավագույն միջոցը Ուկրաինայի զինված ուժերին միջոցների նվիրաբերումն է Savelife կամ պաշտոնական էջի միջոցով NBU.

Կարդացեք նաև.

Աղբյուրփոխնախագահ
Գրանցվել
Տեղեկացնել մասին
հյուր

0 մեկնաբանություններ
Ներկառուցված ակնարկներ
Դիտել բոլոր մեկնաբանությունները
Այլ հոդվածներ
Բաժանորդագրվեք թարմացումների համար
Հանրաճանաչ հիմա