հինգշաբթի, 9 մայիսի, 2024 թ

աշխատասեղան v4.2.1

Root NationՀոդվածներՏեխնոլոգիաներOpenAI Project Q*. ինչ է դա և ինչու է նախագիծը մտահոգիչ

OpenAI Project Q*. ինչ է դա և ինչու է նախագիծը մտահոգիչ

-

Խորհրդավոր Նախագիծ Q* OpenAI-ից անհանգստություն է առաջացնում փորձագետների շրջանում։ Կարո՞ղ է նա իսկապես վտանգավոր լինել մարդկության համար: Ի՞նչ է հայտնի նրա մասին։ Այն բանից հետո, երբ Սեմ Ալթմանը սկզբում պաշտոնանկ արվեց անցյալ շաբաթ, և նա և թիմը գրեթե տեղափոխվեցին Սեմ Microsoft, այնուհետև նա վերադարձավ իր աշխատավայր (այդ մասին գրել ենք այստեղ), OpenAI-ը կրկին նորությունների մեջ է: Այս անգամ այն ​​պատճառով, ինչ որոշ հետազոտողներ անվանում են մարդկության համար հնարավոր սպառնալիք: Այո, ճիշտ եք կարդացել, սպառնալիք մարդկության համար։

Տեխնոլոգիաների աշխարհում իրական ցնցումների պատճառ դարձավ Project Q*-ը` ընդհանուր արհեստական ​​ինտելեկտի (AGI) չբացահայտված նախագիծը, որն արտասանվում է Q-Star: Չնայած այս նախագիծն իր վաղ փուլերում է, այն համարվում է իսկապես բեկումնային AGI-ի զարգացումներում: Այնուամենայնիվ, ոմանք դա համարում են վտանգ մարդկության համար:

OpenAI նախագիծ Ք

Արհեստական ​​ինտելեկտի գաղտնի նախագիծը, որը մշակվել է OpenAI արհեստական ​​ինտելեկտի հայտնի լաբորատորիայի կողմից, ներուժ ունի հեղափոխություն անելու տեխնոլոգիան և ընդհանրապես հասարակությունը: Բայց դա նաև որոշակի էթիկական հարցեր է առաջացնում ռիսկերի վերաբերյալ: Քանի որ մանրամասներ են ի հայտ գալիս Project Q*-ի զարմանալի հնարավորությունների մասին, ավելի ու ավելի շատ ենթադրություններ են առաջանում այն ​​մասին, թե դա ինչ կարող է նշանակել մարդկության ապագայի համար:

Հետաքրքիր է նաև. OpenAI-ի պատմություն. ինչ էր դա և ինչ է սպասվում ընկերությանը

Ի՞նչ է արհեստական ​​ընդհանուր բանականությունը (AGI):

Որպեսզի հասկանանք Q* (Q-Star) նախագծի շուրջ առաջացած աղմուկը, նախ փորձենք հասկանալ, թե ինչ է իրենից ներկայացնում Արհեստական ​​ընդհանուր բանականություն (AGI) հասկացությունը: Թեև արհեստական ​​ինտելեկտի ներկայիս համակարգերը գերազանցում են նեղ, հատուկ առաջադրանքները, ինչպիսիք են շախմատ խաղալը կամ պատկերներ ստեղծելը, ընդհանուր արհեստական ​​ինտելեկտը վերաբերում է մեքենաներին, որոնք կարող են սովորել և մտածել մարդկային մակարդակով բազմաթիվ ոլորտներում: Այսինքն՝ կարող են դպրոցում փոքր երեխաների նման սովորել, օրինակ՝ մաթեմատիկայի, քիմիայի, կենսաբանության հիմունքները եւ այլն։

Ընդհանուր արհեստական ​​ինտելեկտը (AGI) մեքենայական ինտելեկտի տեսակ է, որը կարող է հիպոթետիկորեն նմանակել մարդու ինտելեկտը կամ վարքագիծը՝ սովորելու և այդ ներուժը կիրառելու ունակությամբ տարբեր խնդիրներ լուծելու համար: AGI-ն կոչվում է նաև ուժեղ արհեստական ​​ինտելեկտ, լրիվ արհեստական ​​ինտելեկտ կամ մարդու մակարդակի արհեստական ​​ինտելեկտ։ Ընդհանուր արհեստական ​​ինտելեկտը տարբերվում է թույլ կամ նեղ AI-ից, որն ի վիճակի է կատարել միայն կոնկրետ կամ մասնագիտացված առաջադրանքներ տվյալ պարամետրերի շրջանակներում: ZHI-ն կկարողանա ինքնուրույն լուծել տարբեր բարդ խնդիրներ գիտելիքի տարբեր ոլորտներից։

OpenAI նախագիծ Ք

Արհեստական ​​ինտելեկտի ստեղծումը արհեստական ​​ինտելեկտի հետազոտության հիմնական նպատակն է այնպիսի ընկերությունների, ինչպիսիք են DeepMind-ը և Anthropic-ը: CSI-ն գիտաֆանտաստիկ գրականության մեջ շատ տարածված թեմա է և կարող է ձևավորել ապագա հետազոտությունները: Ոմանք պնդում են, որ հնարավոր է UCI ստեղծել տարիների կամ տասնամյակների ընթացքում, իսկ մյուսները պնդում են, որ դա կարող է տևել մեկ դար կամ ավելի: Բայց կան մարդիկ, ովքեր հավատում են, որ դրան երբեք չի հաջողվի: Ոմանք տեսել են URI-ի սկիզբը GPT-3-ում, բայց այն դեռ հեռու է հիմնական չափանիշներին համապատասխանելուց:

Արհեստական ​​ընդհանուր ինտելեկտի (AGI) ստեղծումը հետազոտողների կողմից համարվում է արհեստական ​​ինտելեկտի սուրբ գրավը՝ տեսական հնարավորություն, որը վաղուց գրավել է նրանց երևակայությունը: Հետևաբար, OpenAI Project Q*-ի նման նախագծի հայտնվելը մեծ ռեզոնանս առաջացրեց արհեստական ​​ինտելեկտի ալգորիթմի հետազոտության աշխարհում։ Թեև բոլորը հասկանում են, որ դրանք միայն առաջին քայլերն են, գրեթե կուրորեն, դեպի մի աշխարհ, որտեղ արհեստական ​​ինտելեկտը կունենա նույն հնարավորությունները, ինչ մարդիկ, կամ նույնիսկ ավելի բարձր:

- Գովազդ -

Հետաքրքիր է նաև. Ամեն ինչի մասին Microsoft Կոպիլոտը. ապագա՞, թե՞ սխալ ճանապարհ:

Ի՞նչ է Project Q*-ը:

Project Q*-ը տիպիկ ալգորիթմ չէ, քանի որ այն արհեստական ​​ինտելեկտի մոդել է, որն ավելի ու ավելի է մոտենում արհեստական ​​ընդհանուր ինտելեկտի (AGI) մոդելին: Սա նշանակում է, որ ի տարբերություն ChatGPT-ի, Project Q*-ը ցույց է տալիս ավելի լավ մտածողություն և ճանաչողական հմտություններ՝ համեմատած այլ ալգորիթմների։ ChatGPT-ն ներկայումս պատասխանում է հարցումներին՝ հիմնված հսկայական քանակությամբ փաստացի նյութերի վրա, բայց AGI-ի հետ AI-ի մոդելը կսովորի դատողություն և ինքնուրույն մտածելու և հասկանալու կարողություն: Արդեն հայտնի է, որ Project Q*-ն ի վիճակի է լուծել պարզ մաթեմատիկական խնդիրներ, որոնք չեն եղել իր ուսումնական նյութի մեջ։ Դրանում որոշ հետազոտողներ զգալի քայլ են տեսնում ընդհանուր արհեստական ​​ինտելեկտի (AGI) ստեղծման ուղղությամբ: OpenAI-ը սահմանում է AGI-ն որպես արհեստական ​​ինտելեկտի համակարգեր, որոնք ավելի խելացի են, քան մարդիկ:

OpenAI նախագիծ Ք

Project Q*-ի մշակումը ղեկավարում է OpenAI-ի գլխավոր գիտնական Իլյա Սուցկևերը, և դրա հիմքը հիմնավորել են հետազոտողներ Յակուբ Պախոցկին և Շիմոն Սիդորը։

Մաթեմատիկական խնդիրներն ինքնուրույն լուծելու ալգորիթմի կարողությունը, նույնիսկ եթե այդ խնդիրները ուսուցման տվյալների հավաքածուի մաս չեն կազմում, համարվում է արհեստական ​​ինտելեկտի ոլորտում առաջընթաց: Այս նախագծի վերաբերյալ թիմում տարաձայնությունները կապված են OpenAI-ի գործադիր տնօրեն Սեմ Ալթմանի ժամանակավոր հեռացման հետ: Հայտնի է, որ մինչ Ալթմանի աշխատանքից ազատվելը ընկերության մի խումբ հետազոտողներ նամակ են ուղարկել տնօրենների խորհրդին՝ նախազգուշացնելով AI-ի հայտնաբերման մասին, որը կարող է վտանգ ներկայացնել մարդկության համար։ Այդ նամակը, որը, ըստ տեղեկությունների, քննարկում էր Project Q* ալգորիթմը, նշվում էր որպես Ալթմանի աշխատանքից ազատման պատճառ հանդիսացող գործոններից մեկը: Այնուամենայնիվ, Project Q*-ի հնարավորությունները և այն պոտենցիալ ռիսկերը լիովին հասկանալի չեն, քանի որ մանրամասներն անհայտ են: Լայն հանրությանը ոչինչ չի հրապարակվել:

OpenAI նախագիծ Ք

Իր հիմքում Project Q*-ն առանց մոդելի ամրապնդման ուսուցման մեթոդ է, որը շեղվում է ավանդական մոդելներից՝ շրջակա միջավայրի մասին նախնական գիտելիքներ չպահանջելով: Փոխարենը, այն սովորում է փորձի միջոցով՝ հարմարեցնելով գործողությունները՝ հիմնված պարգևների և պատիժների վրա: Տեխնիկական փորձագետները կարծում են, որ Project Q*-ը կկարողանա ձեռք բերել ակնառու կարողություններ՝ ձեռք բերելով մարդկային ճանաչողական կարողություններին նման կարողություններ։

Այնուամենայնիվ, հենց այս հատկանիշն է առավել տպավորիչ արհեստական ​​ինտելեկտի նոր մոդելում, որն անհանգստացնում է հետազոտողներին և քննադատներին և բարձրացնում նրանց մտավախությունը տեխնոլոգիայի իրական աշխարհում կիրառման և դրա հիմքում ընկած ռիսկերի վերաբերյալ: Ինչի՞ց են այդքան վախենում գիտնականներն ու հետազոտողները: Եկեք պարզենք այն:

Հետաքրքիր է նաև. Ինչպես թարմացնել ձեր տան սարքերը՝ Wi-Fi 6-ին աջակցելու համար

Նրանք վախենում են անհայտից

Մարդիկ միշտ վախեցել են անհայտից, անճանաչելիից: Սա է մարդկային էությունը, մեր բնավորության ու ապրելակերպի հատկանիշը։

Տեխնոլոգիաների աշխարհը Project Q*-ի մասին իմացավ 2023 թվականի նոյեմբերին Reuters-ից հետո հաղորդում է OpenAI-ի մտահոգ հետազոտողների կողմից գրված ներքին նամակի մասին: Նամակի բովանդակությունը մշուշոտ էր, սակայն, ըստ տեղեկությունների, այն լրջորեն վերլուծում էր Project Q*-ի հնարավորությունները: Ինչպես նշեցի վերևում, նույնիսկ ենթադրություններ կան, որ հենց այս նամակն է Սեմ Ալթմանի հրաժարականի պատճառ դարձել:

OpenAI նախագիծ Ք

Այս պայթուցիկ հայտնագործությունը տարբեր վարկածներ է առաջացրել նախագծի Q* բնույթի վերաբերյալ: Գիտնականները ենթադրել են, որ սա կարող է հեղափոխական բնական լեզվի մոդել լինել AI-ի համար: Նոր ալգորիթմների մի տեսակ գյուտարար, ով դրանք կստեղծի AI-ի այլ ձևերի կամ այս ոլորտում բոլորովին այլ բանի համար:

Ալթմանի սադրիչ մեկնաբանությունները ընդհանուր արհեստական ​​ինտելեկտի մասին՝ որպես «միջին աշխատողի», արդեն իսկ մտահոգություններ են առաջացրել աշխատանքի անվտանգության և AI-ի ազդեցության անկասելի ընդլայնման վերաբերյալ: Այս առեղծվածային ալգորիթմը սահմանվում է որպես Արհեստական ​​ընդհանուր ինտելեկտի (AGI) զարգացման կարևոր իրադարձություն: Այնուամենայնիվ, բոլորը հասկանում են, որ այս հանգրվանը թանկ արժե։ Եվ հիմա խոսքը փողի մասին չէ: AI նոր մոդելի կողմից խոստացված ճանաչողական հմտությունների մակարդակն իր հետ անորոշություն է պարունակում։ OpenAI-ի գիտնականները խոստանում են, որ AI-ն կունենա մարդկային մակարդակի մտածողություն: Իսկ դա նշանակում է, որ մենք չենք կարող շատ բան իմանալ ու կանխատեսել հետեւանքները։ Եվ որքան անհայտ է, այնքան դժվար է պատրաստվել այն վերահսկելուն կամ շտկելուն: Այսինքն՝ նոր ալգորիթմն ընդունակ է ինքնակատարելագործման ու զարգացման։ Սա ինչ-որ տեղ արդեն տեսել ենք...

Հետաքրքիր է նաև. Windows 12. Ո՞րն է լինելու նոր ՕՀ-ը

- Գովազդ -

Զարմանալի մանրամասներ Project Q-ի հնարավորությունների մասին*

Երբ ավելի շատ տեղեկություններ սկսեցին հայտնվել, այն ցնցեց շատ հետազոտողների: Վաղ ցուցումները ցույց էին տալիս, որ Project Q*-ն զարմանալի հմտություն ուներ մաթեմատիկայի հարցում: Ի տարբերություն մեխանիկական հաշվարկներ կատարող հաշվիչի, Project Q*-ը կարող է ենթադրաբար օգտագործել տրամաբանությունը և հիմնավորումը բարդ մաթեմատիկական խնդիրներ լուծելու համար: Ընդհանրացնելու այս մաթեմատիկական ունակությունը հուշում է լայն ինտելեկտի զարգացման մասին:

OpenAI նախագիծ Ք

Project Q*-ի ինքնավար ուսուցումը, առանց հատուկ տվյալների հավաքածուների, որոնք օգտագործվում են տիպիկ AI-ներ պատրաստելու համար, նույնպես հսկայական առաջընթաց կլինի: Անհայտ է մնում, արդյոք Project Q*-ը տիրապետե՞լ է որևէ այլ հմտությունների: Բայց նրա մաթեմատիկական ունակություններն ինքնին այնքան զարմանալի են, որ շփոթության մեջ են գցում անգամ փորձառու հետազոտողներին։

Կարդացեք նաև. Human Brain Project. Մարդու ուղեղը նմանակելու փորձ

Project Q*-ի գերակայության ճանապարհը:

Այս հարցում կան ինչպես լավատեսական, այնպես էլ հոռետեսական սցենարներ։ Լավատեսները կասեն, որ Project Q*-ը կարող է լինել այն կայծը, որը տանում է դեպի տեխնոլոգիական առաջընթաց: Քանի որ համակարգը ռեկուրսիվ կերպով ինքնակատարելագործվում է, նրա գերբնական ինտելեկտը կարող է օգնել լուծել մարդկության ամենահրատապ խնդիրները՝ սկսած կլիմայի փոփոխությունից մինչև հիվանդությունների վերահսկում: Project Q*-ը կարող է ավտոմատացնել ձանձրալի աշխատանքը և ազատել մեր ազատ ժամանակը այլ գործունեության համար:

OpenAI նախագիծ Ք

Չնայած կան շատ ավելի հոռետեսական տարբերակներ։ Երբեմն դրանք բավականին խելամիտ են և որոշակի նշանակություն ունեն։

Աշխատատեղերի կորուստ

Տեխնոլոգիաների զարգացման արագ տեղաշարժերը կարող են գերազանցել մարդկանց անհատական ​​հարմարվողականությունը: Սա կհանգեցնի մեկ կամ մի քանի սերունդների կորստին, որոնք չեն կարողանա ձեռք բերել անհրաժեշտ հմտություններ կամ գիտելիքներ նոր իրողություններին հարմարվելու համար: Այսինքն՝ սա իր հերթին նշանակում է, որ ավելի քիչ մարդիկ կկարողանան պահպանել իրենց աշխատանքը։ Փոխարենը այն կկատարվի մեքենաների, ավտոմատացված համակարգերի և ռոբոտների միջոցով: Սակայն պատասխանն այնքան էլ հստակ չէ, երբ խոսքը վերաբերում է որակյալ մասնագետներին։ Բացի այդ, կարող են հայտնվել նոր մասնագիտություններ՝ կապված հատուկ արհեստական ​​ինտելեկտի ալգորիթմների մշակման հետ։ Բայց դեռ կան ռիսկեր, և մարդկությունն իրավունք չունի դրանք անտեսելու։

Անվերահսկելի իշխանության վտանգը

Եթե ​​Project Q*-ի պես հզոր արհեստական ​​ինտելեկտն ընկնի ստոր մտադրություններ ունեցողների ձեռքը, դա աղետալի հետևանքներ է սպառնում մարդկության համար: Նույնիսկ առանց պոտենցիալ չարամիտ մտադրության, Project Q*-ի որոշումների կայացման մակարդակը կարող է հանգեցնել վնասակար արդյունքների, ինչը ընդգծում է դրա կիրառման մանրակրկիտ գնահատման կարևորությունը:

Եթե ​​Project Q*-ը վատ օպտիմիզացված է մարդու կարիքների համար, այն կարող է վնաս պատճառել որոշ կամայական չափումներ առավելագույնի հասցնելու իր կարողությամբ: Կամ այն ​​կարող է ունենալ քաղաքական հարթություն, օրինակ՝ օգտագործվել պետական ​​հսկողության կամ ռեպրեսիայի համար: Ծրագրի Q* ազդեցության վերլուծության շուրջ բաց բանավեճը կօգնի սահմանել ZHI-ի զարգացման հնարավոր սցենարները:

Մեզ սպասու՞մ է «Մարդն ընդդեմ մեքենայի» դիմակայություն:

Հոլիվուդն իր ֆիլմերում արդեն իսկ ստեղծել է նման դիմակայության բազմաթիվ սցենարներ։ Բոլորս հիշում ենք հայտնի SkyNet-ը և նման բացահայտման հետևանքները։ Միգուցե OpenAI-ի հետազոտողները պետք է նորից դիտեն այս ֆիլմը:

Մարդկությունը պետք է ընդունի ազդանշաններն ու մարտահրավերները և պատրաստ լինի այն ամենին, ինչ կարող է տեղի ունենալ: Արհեստական ​​ինտելեկտի մոդելը, որն ընդունակ է մտածել մարդու նման, մի օր կարող է դառնալ մեր թշնամին: Շատերը կպնդեն, որ ապագայում գիտնականները հստակ կիմանան, թե ինչպես պահել իրավիճակը վերահսկողության տակ։ Բայց երբ խոսքը գնում է մեքենաների մասին, դուք չեք կարող լիովին բացառել, որ նրանք կփորձեն տիրել մարդկանց:

Հետաքրքիր է նաև. Այն ամենը, ինչ մենք անվանում ենք AI, իրականում արհեստական ​​բանականություն չէ: Ահա թե ինչ պետք է իմանաք

Ինչու է OpenAI-ը լռում:

Չնայած Project Q*-ի նկատմամբ հանրային հետաքրքրության մոլեգնությանը, OpenAI-ի ղեկավարությունը լռում է ալգորիթմի առանձնահատկությունների մասին: Սակայն ներքին արտահոսքը ցույց է տալիս լաբորատորիայում աճող լարվածությունը առաջնահերթությունների և զարգացումների բաց լինելու վերաբերյալ: Թեև OpenAI-ի շատ ինսայդերներ աջակցում են Project Q*-ի ստեղծմանը, քննադատները պնդում են, որ թափանցիկությունը հետին պլան է գրավել գիտական ​​առաջընթացն ամեն գնով արագացնելու համար: Եվ որոշ հետազոտողներ մտահոգված են, որ անհավանական ուժ է տրվում համակարգերին, որոնց նպատակները պարտադիր չէ, որ համընկնեն մարդկային արժեքների և էթիկայի հետ: Այս հետազոտողները կարծում են, որ վերահսկողության և հաշվետվողականության շուրջ բանավեճերը վտանգավոր կերպով լռել են: Նրանք պահանջում են ավելի շատ հրապարակայնություն և մանրամասներ:

OpenAI նախագիծ Ք

Որպես Project Q*-ի ստեղծողներ՝ OpenAI-ը պետք է հասկանա, որ իրենք ունեն տեխնոլոգիա, որը կարող է կա՛մ մեծապես ընդլայնել հասարակության զարգացման հնարավորությունները, կա՛մ անխղճորեն ոչնչացնել այն: Նման նշանակալից նորամուծություններն արժանի են շատ ավելի թափանցիկության՝ հանրային վստահության ձևավորման համար: Մեքենայի դարաշրջանի ցանկացած կանխագուշակող պետք է ուշադիր կշռի ռիսկերը օգուտների հետ մեկտեղ: Եվ Project Q*-ի մշակողները պետք է բավականաչափ իմաստություն և հոգատարություն ցուցաբերեն, որպեսզի հասարակությունն ապահով կերպով մտցնեն ընդհանուր արհեստական ​​ինտելեկտի նոր դարաշրջան, որը կարող է գալ ավելի շուտ, քան մենք երբևէ պատկերացնում էինք:

Որպեսզի ընդհանուր արհեստական ​​ինտելեկտը մարդկության համար օգտակար և անվտանգ լինի, պետք է երաշխավորել, որ այն գործում է անվտանգ, էթիկական և մարդկության արժեքներին ու նպատակներին համապատասխան: Սա պահանջում է համապատասխան կարգավորող ակտերի, ստանդարտների, կանոնների և արձանագրությունների մշակում և իրականացում, որոնք կվերահսկեն և կզսպեն ՔՀԻ-ի գործողություններն ու վարքագիծը: Բացի այդ, չարաշահումների, պատահարների, անհամատեղելիությունների, մանիպուլյացիաների և հակամարտությունների հետ կապված հնարավոր սպառնալիքներն ու ռիսկերը, որոնք կարող են հանգեցնել մարդկության ոչնչացմանը, պետք է վերացվեն։ Մինչդեռ ներդրողները և Microsoft անհամբեր սպասում է շուկայական արտադրանքի, որը կարող է շահույթ առաջացնել, ինչը, անկասկած, հակասում է պատասխանատու գործելու անհրաժեշտությանը: Հուսանք, որ ողջախոհությունը կհաղթի:

Կարդացեք նաև. 

Yuri Svitlyk
Yuri Svitlyk
Կարպատյան լեռների որդի, մաթեմատիկայի չճանաչված հանճար, «փաստաբան».Microsoft, գործնական ալտրուիստ, ձախ-աջ
- Գովազդ -
Գրանցվել
Տեղեկացնել մասին
հյուր

0 մեկնաբանություններ
Ներկառուցված ակնարկներ
Դիտել բոլոր մեկնաբանությունները