Կատեգորիաներ: Վերլուծություն

Արհեստական ​​բանականության վեց պատվիրաններ

Հետագա տարիները կնշանավորվեն արհեստական ​​ինտելեկտի տեխնոլոգիաների արագ զարգացմամբ։ Միգուցե անհրաժեշտ է ներդնել AI ստեղծման և օգտագործման հստակ սահմանված շրջանակներ: Արդյո՞ք 6 ամսվա փորձը բավարա՞ր է տեխնոլոգիան կարգավորելու համար, որը դեռևս չի լքել լաբորատորիան: Այս հարցը գնալով ավելի է բխում փորձագետների և լրագրողների շուրթերից, երբ խոսքը վերաբերում է արհեստական ​​ինտելեկտին: Արհեստական ​​ինտելեկտը կարգավորելու համար միջոցներ ձեռնարկելու ձայներ և կոչեր՝ ինչպես օգտագործողների, այնպես էլ նախագծերի մշակման մակարդակում, ավելի ու ավելի հաճախ են լսվում։ Նման կոչերի պատմությունը սկսվել է բավականին վաղուց։

Արհեստական ​​ինտելեկտի ամենուր առկա ներկայությունը թվային տարածքում և, առաջին հերթին, մոդելների, որոնք ունակ են ստեղծել բովանդակություն, որը չի տարբերվի մարդկանց ստեղծածից, շատ տարբեր էմոցիաներ է առաջացնում: Մի կողմից, մենք ունենք մի խումբ էնտուզիաստներ, ովքեր ապագան տեսնում են արհեստական ​​ինտելեկտի մեջ և, չնայած նրա համեմատաբար սահմանափակ հնարավորություններին (որովհետև AI-ն չի մտածում և հաճախ պարզապես տեղեկատվություն է վերցնում ինտերնետից), չեն վախենում նրան վստահել բազմաթիվ առաջադրանքներ։ . Բարիկադի մյուս կողմում մի խումբ է, որն իր թերահավատությունն ու մտահոգությունն է հայտնում արհեստական ​​ինտելեկտի զարգացման ներկայիս միտումների վերաբերյալ։

Երկու խմբերի միջև կամուրջը արհեստական ​​ինտելեկտի հետազոտողներն են, որոնք, մի կողմից, բերում են բազմաթիվ օրինակներ, թե ինչպես է արհեստական ​​ինտելեկտը դրականորեն ազդել շրջապատող իրականության վրա։ Միևնույն ժամանակ, նրանք հասկանում են, որ դեռ վաղ է հանգստանալ իրենց դափնիների վրա, և հսկայական տեխնոլոգիական թռիչքն իր հետ բերում է բազմաթիվ մարտահրավերներ և մեծ պատասխանատվություն։ Այս վերաբերմունքի վառ օրինակն է արհեստական ​​ինտելեկտի և մեքենայական ուսուցման հետազոտողների միջազգային խումբը, որը գլխավորում է դոկտոր Օզլեմ Գարիբայը Կենտրոնական Ֆլորիդայի համալսարանից: 47 էջանոց հրապարակումը, որը գրվել է 26 գիտնականների կողմից ամբողջ աշխարհից, բացահայտում և նկարագրում է վեց մարտահրավեր, որոնց պետք է լուծեն հետազոտական ​​հաստատությունները, ընկերությունները և կորպորացիաները՝ իրենց մոդելները (և դրանք օգտագործող ծրագրակազմը) անվտանգ դարձնելու համար:

Այո, սա լուրջ գիտական ​​աշխատանք է՝ արհեստական ​​ինտելեկտի ապագան հասկանալու համար կարևոր բացատրություններով։ Ով հետաքրքրված է, կարող է ինքնուրույն կարդացեք այս գիտական ​​զեկույցը և ինքներդ եզրակացություններ արեք: Պարզ խոսքերով՝ գիտնականները հայտնաբերել են արհեստական ​​բանականության 6 պատվիրաններ։ AI-ի բոլոր զարգացումները և գործողությունները պետք է համապատասխանեն դրանց, որպեսզի այն ապահով լինի մարդկանց և աշխարհի համար:

Հենց այս գիտական ​​աշխատանքի հիման վրա գրված իմ հոդվածում ես կփորձեմ ձևակերպել հիմնական պոստուլատները, օրենքները, ըստ որոնց պետք է գոյություն ունենա և զարգանա արհեստական ​​ինտելեկտը։ Այո, սա իմ գրեթե ազատ մեկնաբանությունն է արհեստական ​​ինտելեկտի զարգացման վերաբերյալ գիտնականների եզրակացությունների և դրանք, այսպես ասած, աստվածաշնչյան տարբերակով ներկայացնելու փորձի։ Բայց այսպես ուզում էի ձեզ ծանոթացնել հարգված գիտնականների այս գիտական ​​աշխատանքին։

Հետաքրքիր է նաև. Building AI. Ո՞վ է առաջնորդում մրցավազքը:

Առաջին օրենք. Մարդու բարեկեցություն

Հետազոտողների առաջին պոստուլատը արհեստական ​​ինտելեկտի աշխատանքը մարդու բարեկեցության վրա կենտրոնացնելն է։ «Մարդկային արժեքների, ողջախոհության և էթիկայի» բացակայության պատճառով արհեստական ​​ինտելեկտը կարող է գործել այնպես, որ կհանգեցնի մարդու բարեկեցության զգալի վատթարացման։ Խնդիրները կարող են լինել արհեստական ​​ինտելեկտի գերմարդկային կարողությունների արդյունք (օրինակ, թե որքան հեշտությամբ AI-ն հաղթում է մարդկանց, և ոչ միայն շախմատում), այլ նաև այն, որ AI-ն ինքն իրեն չի մտածում և, հետևաբար, ի վիճակի չէ «զտել» կողմնակալությունները կամ ակնհայտ սխալներ.

Հետազոտողները նշում են, որ արհեստական ​​ինտելեկտի տեխնոլոգիաների նկատմամբ չափից ավելի վստահությունը կարող է բացասաբար ազդել մարդկանց բարեկեցության վրա։ Հասարակությունը, որը քիչ է հասկանում, թե ինչպես են իրականում աշխատում արհեստական ​​ինտելեկտի ալգորիթմները, հակված է չափից ավելի վստահել դրան, կամ, ընդհակառակը, բացասական վերաբերմունք ունի որոշակի մոդելի, մասնավորապես՝ չաթ-բոտերի կողմից ստեղծված բովանդակության նկատմամբ: Հաշվի առնելով այս և այլ գործոններ՝ Գարիբայի թիմը կոչ է անում մարդու բարեկեցությունը դնել արհեստական ​​ինտելեկտի և մարդու ապագա փոխազդեցությունների կենտրոնում:

Կարդացեք նաև. ChatGPT. պարզ օգտատիրոջ ուղեցույց

Երկրորդ օրենքը՝ պատասխանատվություն

Պատասխանատվությունը տերմին է, որը անընդհատ հայտնվում է AI աշխարհում՝ այն համատեքստում, թե ինչի համար ենք մենք օգտագործում մեքենայական ուսուցումը, և թե ինչպես են մշակվում և վերապատրաստվում AI մոդելներն ու ալգորիթմները: Միջազգային թիմն ընդգծում է, որ արհեստական ​​ինտելեկտի նախագծումը, մշակումն ու ներդրումը պետք է արվի բացառապես բարի նպատակներով։

Նրանց կարծիքով, պատասխանատվությունը պետք է դիտարկել ոչ միայն տեխնիկական, այլ նաև իրավական և էթիկական համատեքստում։ Տեխնոլոգիան պետք է դիտարկել ոչ միայն դրա արդյունավետության տեսանկյունից, այլև դրա օգտագործման համատեքստում։

"Մեքենայի ուսուցման առաջադեմ տեխնիկայի ներդրմամբ ավելի ու ավելի կարևոր է դառնում հասկանալ, թե ինչպես է կայացվել որոշումը և ով է պատասխանատու դրա համար:- գրում են հետազոտողները։

Երրորդ օրենքը. Գաղտնիություն

Գաղտնիությունը մի թեմա է, որը բումերանգի մեջ է մտնում տեխնոլոգիայի մասին յուրաքանչյուր դիսկուրսի մեջ: Հատկապես, երբ սոցիալական ցանցերում ամեն ինչ քննարկվում է։ Այնուամենայնիվ, սա չափազանց կարևոր է արհեստական ​​ինտելեկտի համար, քանի որ այն գոյություն չունի առանց տվյալների բազայի: Իսկ ինչ են տվյալների բազաները:

Գիտնականները դրանք նկարագրում են որպես «հիմնական շինանյութերի աբստրակցիա, որոնք կազմում են այն ձևը, որը մենք տեսնում ենք աշխարհը»: Այս բլոկները սովորաբար սովորական արժեքներ են՝ գույներ, ձևեր, հյուսվածքներ, հեռավորություններ, ժամանակ: Թեև նեղ AI-ն կենտրոնացած է մեկ նպատակի վրա, ինչպիսին է կափարիչի բացման աստիճանը լույսի տվյալ ինտենսիվության դեպքում, օգտագործում է հանրությանը հասանելի օբյեկտիվ տվյալներ, AI-ն ավելի լայն կիրառություններում (այստեղ, օրինակ, տեքստից պատկեր մոդելներ, ինչպիսիք են Midjourney, կամ լեզվի մոդելները, ինչպիսիք են ChatGPT-ը ) կարող են օգտագործել մարդկանց մասին և ստեղծած տվյալները: Հարկ է նշել նաև մամուլում տեղ գտած հոդվածները, գրքերը, նկարազարդումները և համացանցում հրապարակված լուսանկարները։ Արհեստական ​​ինտելեկտի ալգորիթմներին հասանելի է ամեն ինչ, քանի որ մենք ինքներս ենք դա տվել նրանց։ Հակառակ դեպքում նա ոչինչ չի իմանա ու ոչ մի հարցի պատասխան չի տա։

Օգտատիրոջ տվյալները հիմնովին ազդում են ինչպես մարդկանց վրա, ում մասին հավաքագրվում են այս տվյալները, այնպես էլ այն մարդկանց վրա, ովքեր համակարգում են, որտեղ կիրականացվեն արհեստական ​​ինտելեկտի ալգորիթմները:

Հետևաբար, երրորդ մարտահրավերը վերաբերում է գաղտնիության լայն ըմբռնմանը և այնպիսի իրավունքների ապահովմանը, ինչպիսիք են միայնակ մնալու իրավունքը, սեփական անձի մուտքը սահմանափակելու իրավունքը, անձնական կյանքի կամ բիզնեսի գաղտնիության իրավունքը, անձնական հսկողության իրավունքը: տեղեկատվություն, այսինքն՝ սեփական անձի, անհատականության և արժանապատվության պաշտպանության իրավունք։ Այս ամենը պետք է գրվի ալգորիթմների մեջ, հակառակ դեպքում գաղտնիությունը պարզապես չի լինի, և AI ալգորիթմները կարող են օգտագործվել խարդախ սխեմաներում, ինչպես նաև քրեական հանցագործություններում:

Կարդացեք նաև. ChatGPT-ի օգտագործման 7 ամենաթեժ եղանակները

Չորրորդ օրենք. Ծրագրի կառուցվածքը

Արհեստական ​​ինտելեկտը կարող է լինել չափազանց պարզ և միանվագ, սակայն ավելի մեծ մոդելների դեպքում, որոնք ունեն լայն և բազմաֆունկցիոնալ բնույթ, խնդիրը ոչ միայն տվյալների գաղտնիությունն է, այլև դիզայնի կառուցվածքը:

Օրինակ, GPT-4-ը՝ OpenAI-ի արհեստական ​​ինտելեկտի վերջին մոդելը, չնայած իր մեծությանը և ազդեցությանը արհեստական ​​ինտելեկտի աշխարհի (և դրանից դուրս) վրա, չունի ամբողջությամբ հանրային փաստաթղթեր: Այսինքն՝ մենք չունենք ըմբռնում, թե որոնք են վերջնական նպատակները մշակողների համար, ինչ են նրանք ցանկանում ստանալ վերջնական արդյունքում։ Հետևաբար, մենք չենք կարող ամբողջությամբ գնահատել այս AI մոդելի օգտագործման հետ կապված ռիսկերը: Մյուս կողմից, GPT-3-ը, որը վերապատրաստվել է 4chan ֆորումի տվյալների վրա, մոդել է, որի հետ հաստատ չեք ցանկանում շփվել: 4chan ֆորումը համացանցի ամենահետաքրքիր երեւույթներից է։ Սա բացարձակ, տոտալ անարխիայի օրինակ է, որը գործնականում սահմանափակված չէ որևէ շրջանակով։ Այստեղ են ստեղծվել հաքերային խմբեր, ինչպիսիք են Anonymous կամ LulzSec-ը: Այն ամենահայտնի մեմերի աղբյուրն է, վիճելի թեմաներ քննարկելու և էլ ավելի հակասական կարծիքներ հրապարակելու վայր: Թեև անգլալեզու պատկերատախտակը նշում է, որ «առայժմ դա օրինական է», սա որոշ չափով կասկածելի է, հաշվի առնելով, որ 4chan-ը երբեմն շփվում է լրատվամիջոցների հետ, ներառյալ ռասիստական, նացիստական ​​և սեքսիստական ​​բովանդակությունը:

Պրոֆեսոր Գարիբայի թիմը ցանկանում է, որ արհեստական ​​ինտելեկտի յուրաքանչյուր մոդել աշխատի հստակ սահմանված շրջանակում: Ոչ միայն այն անձի բարեկեցության պատճառով, ում հետ AI-ն փոխազդում է, այլ նաև մոդելի օգտագործման հետ կապված ռիսկերը գնահատելու ունակության պատճառով: Ցանկացած նախագծի կառուցվածքը պետք է ներառի հարգանք տարբեր մշակութային խմբերի և շահագրգիռ կողմերի կարիքների, արժեքների և ցանկությունների նկատմամբ: Արհեստական ​​ինտելեկտի ստեղծման, ուսուցման և ճշգրտման գործընթացը պետք է կենտրոնանա մարդու բարեկեցության վրա, իսկ վերջնական արդյունքը՝ AI մոդելը, պետք է կենտրոնանա հենց մարդկային համայնքի արտադրողականության բարձրացման և բարելավման վրա: Մոդելները, որտեղ հնարավոր չէ բացահայտել ռիսկերը, պետք է ունենան սահմանափակ կամ վերահսկվող հասանելիություն: Դրանք չպետք է սպառնալիք հանդիսանան մարդկության համար, այլ ընդհակառակը, նպաստեն մարդու և ամբողջ հասարակության զարգացմանը։

Կարդացեք նաև. Twitter Իլոն Մասկի ձեռքում` վտանգ, թե՞ «բարելավում».

Հինգերորդ օրենք. Կառավարում և անկախ վերահսկողություն

Արհեստական ​​ինտելեկտի ալգորիթմները բառացիորեն փոխեցին աշխարհը ընդամենը մեկ տարում։ Bard by Google-ի և Bing-ի պրեմիերան տեղի կունենա Microsoft էապես ազդել է բորսայում երկու հսկաների բաժնետոմսերի վրա։ Ի դեպ, դրանք նպաստել են այս ընկերությունների բաժնետոմսերի աճին նույնիսկ բաժնետոմսերի ֆոնին Apple. ChatGPT-ն սկսել է ակտիվորեն կիրառվել դպրոցի աշակերտների կողմից, նրանք շփվում են դրա հետ, ուսումնասիրում և հարցեր տալիս: Ամենակարևորն այն է, որ նա ինքնուրույն սովորելու, սխալներն ուղղելու կարողություն ունենա։ Արհեստական ​​ինտելեկտը նույնիսկ սկսում է աշխատել որոշ երկրների կառավարություններում։ Սա Ռումինիայի վարչապետ Նիկոլաե Չուկայի դեպքն է վարձել է վիրտուալ օգնական, որը նրան կտեղեկացնի հասարակության կարիքների մասին։ Այսինքն՝ արհեստական ​​ինտելեկտը գնալով ավելի կարևոր դեր է խաղում մեր կյանքում։

Հաշվի առնելով արհեստական ​​ինտելեկտի, մարդկանց և շրջակա միջավայրի միջև անընդհատ աճող փոխկապվածությունը՝ գիտնականներն անհրաժեշտ են համարում ստեղծել կառավարման մարմիններ և դրա զարգացման անկախ վերահսկողություն: Այս մարմինները կվերահսկեն արհեստական ​​ինտելեկտի ողջ կյանքի ցիկլը՝ գաղափարից մինչև մշակում և իրականացում: Իշխանությունները պատշաճ կերպով կսահմանեն արհեստական ​​ինտելեկտի տարբեր մոդելներ և կքննարկեն արհեստական ​​ինտելեկտի և սոցիալական կյանքի սուբյեկտների հետ կապված դեպքեր։ Այսինքն՝ արհեստական ​​ինտելեկտը կարող է դառնալ դատական ​​գործերի, ինչպես նաեւ դատական ​​գործերի առարկա։ Թեեւ, իհարկե, ոչ թե անձամբ ինքը, այլ նրա մշակողները։

Կարդացեք նաև. Ամեն ինչ Neuralink-ի մասին. Cyberpunk խելագարության սկիզբը:

Վեցերորդ օրենքը՝ մարդու և արհեստական ​​ինտելեկտի փոխազդեցությունը

Արհեստական ​​ինտելեկտի ծրագրերում յուրաքանչյուրը կարող է ինչ-որ բան գտնել իր համար՝ ստեղծել տեքստ, հայտնաբերել պատկերների բովանդակություն, պատասխանել հարցերին, ստեղծել պատկերներ, ճանաչել մարդկանց լուսանկարներում, վերլուծել տվյալները: Այս բազմակի օգտագործումը մտահոգում է ոչ միայն այն մարդկանց, ովքեր փորձում են արհեստական ​​ինտելեկտը հարմարեցնել իրավական և էթիկական չափանիշներին: Շատերը վախենում են, որ արհեստական ​​ինտելեկտի մոդելները կարող են տեղահանել աշխատաշուկայից: Որովհետև արհեստական ​​ինտելեկտի ալգորիթմները կկարողանան նույն բանն անել ավելի արագ, ավելի էժան և գուցե նույնիսկ ավելի լավ, քան մարդը: Միևնույն ժամանակ, կան մարդիկ, ովքեր իրենց աշխատանքում ապավինում են արհեստական ​​ինտելեկտին, այսինքն՝ արհեստական ​​ինտելեկտն այսօր արդեն նրանց համար անփոխարինելի օգնական է։

Բայց գիտնականների վկայակոչած ուսումնասիրություններից պարզ է դառնում, որ մարդկանց էժան արհեստական ​​աշխատուժով փոխարինելը դեռ բավականին հեռու է։ Չնայած դրան, նրանք արդեն պնդում են մարդկանց և արհեստական ​​ինտելեկտի միջև փոխգործակցության խիստ հիերարխիա սահմանելու անհրաժեշտությունը։ Նրանց կարծիքով՝ մարդկանց պետք է վեր դասել արհեստական ​​ինտելեկտից։ Արհեստական ​​ինտելեկտը պետք է ստեղծվի՝ հարգելով մարդու ճանաչողական կարողությունները՝ հաշվի առնելով նրա հույզերը, սոցիալական փոխազդեցությունները, գաղափարները, պլանավորումը և առարկաների հետ փոխազդեցությունը։ Այսինքն՝ բոլոր իրավիճակներում հենց մարդն է, որ պետք է կանգնի արհեստական ​​ինտելեկտի վրա, վերահսկի մոդելի ստեղծած վարքն ու բովանդակությունը, պատասխանատվություն կրի դրա համար։ Պարզ խոսքերով, նույնիսկ ամենաառաջադեմ արհեստական ​​ինտելեկտը պետք է ենթարկվի մարդուն և չանցնի թույլատրելիից այն կողմ, որպեսզի չվնասի իր ստեղծողին։

Կարդացեք նաև. Ինչպես է Ուկրաինան օգտագործում և հարմարեցնում Starlink-ը պատերազմի ժամանակ

Վիսնովկի

Այո, ինչ-որ մեկը կասի, որ գիտնականներն իրենց զեկույցում ոչ մի կարևոր և նոր բան չեն նշել։ Այս մասին բոլորը վաղուց էին խոսում։ Բայց արդեն հիմա պետք է AI-ը մտցնել օրենքների ինչ-որ շրջանակի մեջ։ GPT-4-ին հասնելը նման է դանակին կուրորեն ձեռք մեկնելուն: Նրանք մեզնից թաքցնում են հիմնական տեղեկությունները: Արհեստական ​​ինտելեկտի բոլոր զարգացումները և, մասնավորապես, Open AI-ի ChatGPT նախագիծը, հաճախ հիշեցնում են ինձ փոքր երեխա մեծացնելու մասին: Երբեմն թվում է, թե սա այլմոլորակային ծագում ունեցող երեխա է։ Այո, այլմոլորակային, բայց նա դեռ երեխա է, ով սովորում է, սխալվում է, երբեմն իրեն ոչ պատշաճ է պահում, դյուրագրգիռ է, վիճում է ծնողների հետ։ Չնայած այն շատ արագ է աճում ու զարգանում։

Մարդկությունը կարող է չհամապատասխանել իր զարգացմանը, և ամեն ինչ դուրս գա վերահսկողությունից: Ուստի մարդկությունն արդեն պետք է հասկանա, թե ինչու ենք մենք զարգացնում այս ամենը, իմանալ վերջնական նպատակները, լինել «պատասխանատու ծնողներ», քանի որ հակառակ դեպքում «երեխան» կարող է պարզապես ոչնչացնել իր «ծնողներին»։

Կարդացեք նաև. 

Կիսվել
Yuri Svitlyk

Կարպատյան լեռների որդի, մաթեմատիկայի չճանաչված հանճար, «փաստաբան».Microsoft, գործնական ալտրուիստ, ձախ-աջ

Թողնել գրառում

Ձեր էլփոստի հասցեն չի հրապարակվելու. Պահանջվող դաշտերը նշված են աստղանիշով*