Խորհրդավոր Նախագիծ Q* OpenAI-ից անհանգստություն է առաջացնում փորձագետների շրջանում։ Կարո՞ղ է նա իսկապես վտանգավոր լինել մարդկության համար: Ի՞նչ է հայտնի նրա մասին։ Այն բանից հետո, երբ Սեմ Ալթմանը սկզբում պաշտոնանկ արվեց անցյալ շաբաթ, և նա և թիմը գրեթե տեղափոխվեցին Սեմ Microsoft, այնուհետև նա վերադարձավ իր աշխատավայր (այդ մասին գրել ենք այստեղ), OpenAI-ը կրկին նորությունների մեջ է: Այս անգամ այն պատճառով, ինչ որոշ հետազոտողներ անվանում են մարդկության համար հնարավոր սպառնալիք: Այո, ճիշտ եք կարդացել, սպառնալիք մարդկության համար։
Տեխնոլոգիաների աշխարհում իրական ցնցումների պատճառ դարձավ Project Q*-ը` ընդհանուր արհեստական ինտելեկտի (AGI) չբացահայտված նախագիծը, որն արտասանվում է Q-Star: Չնայած այս նախագիծն իր վաղ փուլերում է, այն համարվում է իսկապես բեկումնային AGI-ի զարգացումներում: Այնուամենայնիվ, ոմանք դա համարում են վտանգ մարդկության համար:
Արհեստական ինտելեկտի գաղտնի նախագիծը, որը մշակվել է OpenAI արհեստական ինտելեկտի հայտնի լաբորատորիայի կողմից, ներուժ ունի հեղափոխություն անելու տեխնոլոգիան և ընդհանրապես հասարակությունը: Բայց դա նաև որոշակի էթիկական հարցեր է առաջացնում ռիսկերի վերաբերյալ: Քանի որ մանրամասներ են ի հայտ գալիս Project Q*-ի զարմանալի հնարավորությունների մասին, ավելի ու ավելի շատ ենթադրություններ են առաջանում այն մասին, թե դա ինչ կարող է նշանակել մարդկության ապագայի համար:
Հետաքրքիր է նաև. OpenAI-ի պատմություն. ինչ էր դա և ինչ է սպասվում ընկերությանը
Ի՞նչ է արհեստական ընդհանուր բանականությունը (AGI):
Որպեսզի հասկանանք Q* (Q-Star) նախագծի շուրջ առաջացած աղմուկը, նախ փորձենք հասկանալ, թե ինչ է իրենից ներկայացնում Արհեստական ընդհանուր բանականություն (AGI) հասկացությունը: Թեև արհեստական ինտելեկտի ներկայիս համակարգերը գերազանցում են նեղ, հատուկ առաջադրանքները, ինչպիսիք են շախմատ խաղալը կամ պատկերներ ստեղծելը, ընդհանուր արհեստական ինտելեկտը վերաբերում է մեքենաներին, որոնք կարող են սովորել և մտածել մարդկային մակարդակով բազմաթիվ ոլորտներում: Այսինքն՝ կարող են դպրոցում փոքր երեխաների նման սովորել, օրինակ՝ մաթեմատիկայի, քիմիայի, կենսաբանության հիմունքները եւ այլն։
Ընդհանուր արհեստական ինտելեկտը (AGI) մեքենայական ինտելեկտի տեսակ է, որը կարող է հիպոթետիկորեն նմանակել մարդու ինտելեկտը կամ վարքագիծը՝ սովորելու և այդ ներուժը կիրառելու ունակությամբ տարբեր խնդիրներ լուծելու համար: AGI-ն կոչվում է նաև ուժեղ արհեստական ինտելեկտ, լրիվ արհեստական ինտելեկտ կամ մարդու մակարդակի արհեստական ինտելեկտ։ Ընդհանուր արհեստական ինտելեկտը տարբերվում է թույլ կամ նեղ AI-ից, որն ի վիճակի է կատարել միայն կոնկրետ կամ մասնագիտացված առաջադրանքներ տվյալ պարամետրերի շրջանակներում: ZHI-ն կկարողանա ինքնուրույն լուծել տարբեր բարդ խնդիրներ գիտելիքի տարբեր ոլորտներից։
Արհեստական ինտելեկտի ստեղծումը արհեստական ինտելեկտի հետազոտության հիմնական նպատակն է այնպիսի ընկերությունների, ինչպիսիք են DeepMind-ը և Anthropic-ը: CSI-ն գիտաֆանտաստիկ գրականության մեջ շատ տարածված թեմա է և կարող է ձևավորել ապագա հետազոտությունները: Ոմանք պնդում են, որ հնարավոր է UCI ստեղծել տարիների կամ տասնամյակների ընթացքում, իսկ մյուսները պնդում են, որ դա կարող է տևել մեկ դար կամ ավելի: Բայց կան մարդիկ, ովքեր հավատում են, որ դրան երբեք չի հաջողվի: Ոմանք տեսել են URI-ի սկիզբը GPT-3-ում, բայց այն դեռ հեռու է հիմնական չափանիշներին համապատասխանելուց:
Արհեստական ընդհանուր ինտելեկտի (AGI) ստեղծումը հետազոտողների կողմից համարվում է արհեստական ինտելեկտի սուրբ գրավը՝ տեսական հնարավորություն, որը վաղուց գրավել է նրանց երևակայությունը: Հետևաբար, OpenAI Project Q*-ի նման նախագծի հայտնվելը մեծ ռեզոնանս առաջացրեց արհեստական ինտելեկտի ալգորիթմի հետազոտության աշխարհում։ Թեև բոլորը հասկանում են, որ դրանք միայն առաջին քայլերն են, գրեթե կուրորեն, դեպի մի աշխարհ, որտեղ արհեստական ինտելեկտը կունենա նույն հնարավորությունները, ինչ մարդիկ, կամ նույնիսկ ավելի բարձր:
Հետաքրքիր է նաև. Ամեն ինչի մասին Microsoft Կոպիլոտը. ապագա՞, թե՞ սխալ ճանապարհ:
Ի՞նչ է Project Q*-ը:
Project Q*-ը տիպիկ ալգորիթմ չէ, քանի որ այն արհեստական ինտելեկտի մոդել է, որն ավելի ու ավելի է մոտենում արհեստական ընդհանուր ինտելեկտի (AGI) մոդելին: Սա նշանակում է, որ ի տարբերություն ChatGPT-ի, Project Q*-ը ցույց է տալիս ավելի լավ մտածողություն և ճանաչողական հմտություններ՝ համեմատած այլ ալգորիթմների։ ChatGPT-ն ներկայումս պատասխանում է հարցումներին՝ հիմնված հսկայական քանակությամբ փաստացի նյութերի վրա, բայց AGI-ի հետ AI-ի մոդելը կսովորի դատողություն և ինքնուրույն մտածելու և հասկանալու կարողություն: Արդեն հայտնի է, որ Project Q*-ն ի վիճակի է լուծել պարզ մաթեմատիկական խնդիրներ, որոնք չեն եղել իր ուսումնական նյութի մեջ։ Դրանում որոշ հետազոտողներ զգալի քայլ են տեսնում ընդհանուր արհեստական ինտելեկտի (AGI) ստեղծման ուղղությամբ: OpenAI-ը սահմանում է AGI-ն որպես արհեստական ինտելեկտի համակարգեր, որոնք ավելի խելացի են, քան մարդիկ:
Project Q*-ի մշակումը ղեկավարում է OpenAI-ի գլխավոր գիտնական Իլյա Սուցկևերը, և դրա հիմքը հիմնավորել են հետազոտողներ Յակուբ Պախոցկին և Շիմոն Սիդորը։
Մաթեմատիկական խնդիրներն ինքնուրույն լուծելու ալգորիթմի կարողությունը, նույնիսկ եթե այդ խնդիրները ուսուցման տվյալների հավաքածուի մաս չեն կազմում, համարվում է արհեստական ինտելեկտի ոլորտում առաջընթաց: Այս նախագծի վերաբերյալ թիմում տարաձայնությունները կապված են OpenAI-ի գործադիր տնօրեն Սեմ Ալթմանի ժամանակավոր հեռացման հետ: Հայտնի է, որ մինչ Ալթմանի աշխատանքից ազատվելը ընկերության մի խումբ հետազոտողներ նամակ են ուղարկել տնօրենների խորհրդին՝ նախազգուշացնելով AI-ի հայտնաբերման մասին, որը կարող է վտանգ ներկայացնել մարդկության համար։ Այդ նամակը, որը, ըստ տեղեկությունների, քննարկում էր Project Q* ալգորիթմը, նշվում էր որպես Ալթմանի աշխատանքից ազատման պատճառ հանդիսացող գործոններից մեկը: Այնուամենայնիվ, Project Q*-ի հնարավորությունները և այն պոտենցիալ ռիսկերը լիովին հասկանալի չեն, քանի որ մանրամասներն անհայտ են: Լայն հանրությանը ոչինչ չի հրապարակվել:
Իր հիմքում Project Q*-ն առանց մոդելի ամրապնդման ուսուցման մեթոդ է, որը շեղվում է ավանդական մոդելներից՝ շրջակա միջավայրի մասին նախնական գիտելիքներ չպահանջելով: Փոխարենը, այն սովորում է փորձի միջոցով՝ հարմարեցնելով գործողությունները՝ հիմնված պարգևների և պատիժների վրա: Տեխնիկական փորձագետները կարծում են, որ Project Q*-ը կկարողանա ձեռք բերել ակնառու կարողություններ՝ ձեռք բերելով մարդկային ճանաչողական կարողություններին նման կարողություններ։
Այնուամենայնիվ, հենց այս հատկանիշն է առավել տպավորիչ արհեստական ինտելեկտի նոր մոդելում, որն անհանգստացնում է հետազոտողներին և քննադատներին և բարձրացնում նրանց մտավախությունը տեխնոլոգիայի իրական աշխարհում կիրառման և դրա հիմքում ընկած ռիսկերի վերաբերյալ: Ինչի՞ց են այդքան վախենում գիտնականներն ու հետազոտողները: Եկեք պարզենք այն:
Հետաքրքիր է նաև. Ինչպես թարմացնել ձեր տան սարքերը՝ Wi-Fi 6-ին աջակցելու համար
Նրանք վախենում են անհայտից
Մարդիկ միշտ վախեցել են անհայտից, անճանաչելիից: Սա է մարդկային էությունը, մեր բնավորության ու ապրելակերպի հատկանիշը։
Տեխնոլոգիաների աշխարհը Project Q*-ի մասին իմացավ 2023 թվականի նոյեմբերին Reuters-ից հետո հաղորդում է OpenAI-ի մտահոգ հետազոտողների կողմից գրված ներքին նամակի մասին: Նամակի բովանդակությունը մշուշոտ էր, սակայն, ըստ տեղեկությունների, այն լրջորեն վերլուծում էր Project Q*-ի հնարավորությունները: Ինչպես նշեցի վերևում, նույնիսկ ենթադրություններ կան, որ հենց այս նամակն է Սեմ Ալթմանի հրաժարականի պատճառ դարձել:
Այս պայթուցիկ հայտնագործությունը տարբեր վարկածներ է առաջացրել նախագծի Q* բնույթի վերաբերյալ: Գիտնականները ենթադրել են, որ սա կարող է հեղափոխական բնական լեզվի մոդել լինել AI-ի համար: Նոր ալգորիթմների մի տեսակ գյուտարար, ով դրանք կստեղծի AI-ի այլ ձևերի կամ այս ոլորտում բոլորովին այլ բանի համար:
Ալթմանի սադրիչ մեկնաբանությունները ընդհանուր արհեստական ինտելեկտի մասին՝ որպես «միջին աշխատողի», արդեն իսկ մտահոգություններ են առաջացրել աշխատանքի անվտանգության և AI-ի ազդեցության անկասելի ընդլայնման վերաբերյալ: Այս առեղծվածային ալգորիթմը սահմանվում է որպես Արհեստական ընդհանուր ինտելեկտի (AGI) զարգացման կարևոր իրադարձություն: Այնուամենայնիվ, բոլորը հասկանում են, որ այս հանգրվանը թանկ արժե։ Եվ հիմա խոսքը փողի մասին չէ: AI նոր մոդելի կողմից խոստացված ճանաչողական հմտությունների մակարդակն իր հետ անորոշություն է պարունակում։ OpenAI-ի գիտնականները խոստանում են, որ AI-ն կունենա մարդկային մակարդակի մտածողություն: Իսկ դա նշանակում է, որ մենք չենք կարող շատ բան իմանալ ու կանխատեսել հետեւանքները։ Եվ որքան անհայտ է, այնքան դժվար է պատրաստվել այն վերահսկելուն կամ շտկելուն: Այսինքն՝ նոր ալգորիթմն ընդունակ է ինքնակատարելագործման ու զարգացման։ Սա ինչ-որ տեղ արդեն տեսել ենք...
Հետաքրքիր է նաև. Windows 12. Ո՞րն է լինելու նոր ՕՀ-ը
Զարմանալի մանրամասներ Project Q-ի հնարավորությունների մասին*
Երբ ավելի շատ տեղեկություններ սկսեցին հայտնվել, այն ցնցեց շատ հետազոտողների: Վաղ ցուցումները ցույց էին տալիս, որ Project Q*-ն զարմանալի հմտություն ուներ մաթեմատիկայի հարցում: Ի տարբերություն մեխանիկական հաշվարկներ կատարող հաշվիչի, Project Q*-ը կարող է ենթադրաբար օգտագործել տրամաբանությունը և հիմնավորումը բարդ մաթեմատիկական խնդիրներ լուծելու համար: Ընդհանրացնելու այս մաթեմատիկական ունակությունը հուշում է լայն ինտելեկտի զարգացման մասին:
Project Q*-ի ինքնավար ուսուցումը, առանց հատուկ տվյալների հավաքածուների, որոնք օգտագործվում են տիպիկ AI-ներ պատրաստելու համար, նույնպես հսկայական առաջընթաց կլինի: Անհայտ է մնում, արդյոք Project Q*-ը տիրապետե՞լ է որևէ այլ հմտությունների: Բայց նրա մաթեմատիկական ունակություններն ինքնին այնքան զարմանալի են, որ շփոթության մեջ են գցում անգամ փորձառու հետազոտողներին։
Կարդացեք նաև. Human Brain Project. Մարդու ուղեղը նմանակելու փորձ
Project Q*-ի գերակայության ճանապարհը:
Այս հարցում կան ինչպես լավատեսական, այնպես էլ հոռետեսական սցենարներ։ Լավատեսները կասեն, որ Project Q*-ը կարող է լինել այն կայծը, որը տանում է դեպի տեխնոլոգիական առաջընթաց: Քանի որ համակարգը ռեկուրսիվ կերպով ինքնակատարելագործվում է, նրա գերբնական ինտելեկտը կարող է օգնել լուծել մարդկության ամենահրատապ խնդիրները՝ սկսած կլիմայի փոփոխությունից մինչև հիվանդությունների վերահսկում: Project Q*-ը կարող է ավտոմատացնել ձանձրալի աշխատանքը և ազատել մեր ազատ ժամանակը այլ գործունեության համար:
Չնայած կան շատ ավելի հոռետեսական տարբերակներ։ Երբեմն դրանք բավականին խելամիտ են և որոշակի նշանակություն ունեն։
Աշխատատեղերի կորուստ
Տեխնոլոգիաների զարգացման արագ տեղաշարժերը կարող են գերազանցել մարդկանց անհատական հարմարվողականությունը: Սա կհանգեցնի մեկ կամ մի քանի սերունդների կորստին, որոնք չեն կարողանա ձեռք բերել անհրաժեշտ հմտություններ կամ գիտելիքներ նոր իրողություններին հարմարվելու համար: Այսինքն՝ սա իր հերթին նշանակում է, որ ավելի քիչ մարդիկ կկարողանան պահպանել իրենց աշխատանքը։ Փոխարենը այն կկատարվի մեքենաների, ավտոմատացված համակարգերի և ռոբոտների միջոցով: Սակայն պատասխանն այնքան էլ հստակ չէ, երբ խոսքը վերաբերում է որակյալ մասնագետներին։ Բացի այդ, կարող են հայտնվել նոր մասնագիտություններ՝ կապված հատուկ արհեստական ինտելեկտի ալգորիթմների մշակման հետ։ Բայց դեռ կան ռիսկեր, և մարդկությունն իրավունք չունի դրանք անտեսելու։
Անվերահսկելի իշխանության վտանգը
Եթե Project Q*-ի պես հզոր արհեստական ինտելեկտն ընկնի ստոր մտադրություններ ունեցողների ձեռքը, դա աղետալի հետևանքներ է սպառնում մարդկության համար: Նույնիսկ առանց պոտենցիալ չարամիտ մտադրության, Project Q*-ի որոշումների կայացման մակարդակը կարող է հանգեցնել վնասակար արդյունքների, ինչը ընդգծում է դրա կիրառման մանրակրկիտ գնահատման կարևորությունը:
Եթե Project Q*-ը վատ օպտիմիզացված է մարդու կարիքների համար, այն կարող է վնաս պատճառել որոշ կամայական չափումներ առավելագույնի հասցնելու իր կարողությամբ: Կամ այն կարող է ունենալ քաղաքական հարթություն, օրինակ՝ օգտագործվել պետական հսկողության կամ ռեպրեսիայի համար: Ծրագրի Q* ազդեցության վերլուծության շուրջ բաց բանավեճը կօգնի սահմանել ZHI-ի զարգացման հնարավոր սցենարները:
Մեզ սպասու՞մ է «Մարդն ընդդեմ մեքենայի» դիմակայություն:
Հոլիվուդն իր ֆիլմերում արդեն իսկ ստեղծել է նման դիմակայության բազմաթիվ սցենարներ։ Բոլորս հիշում ենք հայտնի SkyNet-ը և նման բացահայտման հետևանքները։ Միգուցե OpenAI-ի հետազոտողները պետք է նորից դիտեն այս ֆիլմը:
Մարդկությունը պետք է ընդունի ազդանշաններն ու մարտահրավերները և պատրաստ լինի այն ամենին, ինչ կարող է տեղի ունենալ: Արհեստական ինտելեկտի մոդելը, որն ընդունակ է մտածել մարդու նման, մի օր կարող է դառնալ մեր թշնամին: Շատերը կպնդեն, որ ապագայում գիտնականները հստակ կիմանան, թե ինչպես պահել իրավիճակը վերահսկողության տակ։ Բայց երբ խոսքը գնում է մեքենաների մասին, դուք չեք կարող լիովին բացառել, որ նրանք կփորձեն տիրել մարդկանց:
Հետաքրքիր է նաև. Այն ամենը, ինչ մենք անվանում ենք AI, իրականում արհեստական բանականություն չէ: Ահա թե ինչ պետք է իմանաք
Ինչու է OpenAI-ը լռում:
Չնայած Project Q*-ի նկատմամբ հանրային հետաքրքրության մոլեգնությանը, OpenAI-ի ղեկավարությունը լռում է ալգորիթմի առանձնահատկությունների մասին: Սակայն ներքին արտահոսքը ցույց է տալիս լաբորատորիայում աճող լարվածությունը առաջնահերթությունների և զարգացումների բաց լինելու վերաբերյալ: Թեև OpenAI-ի շատ ինսայդերներ աջակցում են Project Q*-ի ստեղծմանը, քննադատները պնդում են, որ թափանցիկությունը հետին պլան է գրավել գիտական առաջընթացն ամեն գնով արագացնելու համար: Եվ որոշ հետազոտողներ մտահոգված են, որ անհավանական ուժ է տրվում համակարգերին, որոնց նպատակները պարտադիր չէ, որ համընկնեն մարդկային արժեքների և էթիկայի հետ: Այս հետազոտողները կարծում են, որ վերահսկողության և հաշվետվողականության շուրջ բանավեճերը վտանգավոր կերպով լռել են: Նրանք պահանջում են ավելի շատ հրապարակայնություն և մանրամասներ:
Որպես Project Q*-ի ստեղծողներ՝ OpenAI-ը պետք է հասկանա, որ իրենք ունեն տեխնոլոգիա, որը կարող է կա՛մ մեծապես ընդլայնել հասարակության զարգացման հնարավորությունները, կա՛մ անխղճորեն ոչնչացնել այն: Նման նշանակալից նորամուծություններն արժանի են շատ ավելի թափանցիկության՝ հանրային վստահության ձևավորման համար: Մեքենայի դարաշրջանի ցանկացած կանխագուշակող պետք է ուշադիր կշռի ռիսկերը օգուտների հետ մեկտեղ: Եվ Project Q*-ի մշակողները պետք է բավականաչափ իմաստություն և հոգատարություն ցուցաբերեն, որպեսզի հասարակությունն ապահով կերպով մտցնեն ընդհանուր արհեստական ինտելեկտի նոր դարաշրջան, որը կարող է գալ ավելի շուտ, քան մենք երբևէ պատկերացնում էինք:
Որպեսզի ընդհանուր արհեստական ինտելեկտը մարդկության համար օգտակար և անվտանգ լինի, պետք է երաշխավորել, որ այն գործում է անվտանգ, էթիկական և մարդկության արժեքներին ու նպատակներին համապատասխան: Սա պահանջում է համապատասխան կարգավորող ակտերի, ստանդարտների, կանոնների և արձանագրությունների մշակում և իրականացում, որոնք կվերահսկեն և կզսպեն ՔՀԻ-ի գործողություններն ու վարքագիծը: Բացի այդ, չարաշահումների, պատահարների, անհամատեղելիությունների, մանիպուլյացիաների և հակամարտությունների հետ կապված հնարավոր սպառնալիքներն ու ռիսկերը, որոնք կարող են հանգեցնել մարդկության ոչնչացմանը, պետք է վերացվեն։ Մինչդեռ ներդրողները և Microsoft անհամբեր սպասում է շուկայական արտադրանքի, որը կարող է շահույթ առաջացնել, ինչը, անկասկած, հակասում է պատասխանատու գործելու անհրաժեշտությանը: Հուսանք, որ ողջախոհությունը կհաղթի:
Կարդացեք նաև.