Ուրբաթ, 3 մայիսի, 2024 թ

աշխատասեղան v4.2.1

Root NationՆորություններՏՏ նորություններԱնհնար կլինի կառավարել գերխելացի արհեստական ​​ինտելեկտը

Անհնար կլինի կառավարել գերխելացի արհեստական ​​ինտելեկտը

-

Մարդկությանը տապալող արհեստական ​​ինտելեկտի գաղափարը քննարկվել է տասնամյակներ շարունակ, և 2021 թվականի հունվարին գիտնականները տվել են իրենց վճիռը, թե արդյոք մենք կարող ենք կառավարել բարձր մակարդակի համակարգչային գերհետախուզությունը: Պատասխանե՞լ Գրեթե հաստատ ոչ:

Խնդիրն այն է, որ գերմիտքի կառավարումը մարդկային հասկացողությունից շատ հեռու կպահանջի այդ գերմիտքի մոդելավորում, որը մենք կարող ենք վերլուծել: Բայց եթե մենք ի վիճակի չենք դա հասկանալ, ապա անհնար է նման սիմուլյացիա ստեղծել։

«Մարդկանց մի վնասիր»-ի նման կանոններ չեն կարող սահմանվել, քանի դեռ մենք չենք հասկանում, թե արհեստական ​​ինտելեկտի (AI) ինչ սցենարներ կառաջարկի, կարծում են 2021 թվականի հոդվածի հեղինակները։ Հենց որ համակարգչային համակարգը աշխատի այնպիսի մակարդակով, որը գերազանցում է մեր ծրագրավորողների հնարավորությունները, մենք այլևս չենք կարողանա սահմաններ դնել։

Արհեստական ​​բանականություն

«Գերհետախուզությունը սկզբունքորեն տարբեր խնդիր է, քան նրանք, որոնք սովորաբար ուսումնասիրվում են «ռոբոտների էթիկայի» դրոշի ներքո», - գրում են հետազոտողները: «Դա պայմանավորված է նրանով, որ գերմիտքը բազմակողմանի է և, հետևաբար, պոտենցիալ ի վիճակի է մոբիլիզացնել տարբեր ռեսուրսներ՝ մարդկանց համար պոտենցիալ անհասկանալի, առավել ևս կառավարելի նպատակներին հասնելու համար»:

Թիմի հիմնավորումների մի մասը գալիս է դադարեցման խնդիրներ, առաջարկել է Ալան Թյուրինգը 1936 թ. Խնդիրն այն է, որ պարզել, թե արդյոք համակարգչային ծրագիրը կգա եզրակացության և կպատասխանի (և կդադարեցնի), թե պարզապես ընդմիշտ կշրջվի՝ փորձելով գտնել պատասխանը:

Ինչպես Թյուրինգն ապացուցեց օգնությամբ խելացի մաթեմատիկա, թեև մենք դա կարող ենք իմանալ որոշ հատուկ ծրագրերի համար, տրամաբանորեն անհնար է գտնել մի միջոց, որը թույլ կտա մեզ իմանալ դա յուրաքանչյուր պոտենցիալ ծրագրի համար, որը երբևէ կարող է գրվել: Սա մեզ վերադարձնում է արհեստական ​​ինտելեկտին, որը գերխելացի վիճակում կարող էր միաժամանակ պահել իր հիշողության մեջ բոլոր հնարավոր համակարգչային ծրագրերը:

Հետաքրքիր է նաև.

Ցանկացած ծրագիր, որը գրված է, օրինակ, արգելելու արհեստական ​​ինտելեկտը վնասել մարդկանց և ոչնչացնել աշխարհը, կարող է կամ չի կարող հանգել եզրակացության (և կանգ առնել), մաթեմատիկորեն անհնար է լինել բացարձակապես որոշակի, ինչը նշանակում է, որ այն չի կարող զսպվել: «Դա հիմնականում անօգտագործելի է դարձնում զսպման ալգորիթմը», - հունվարին ասաց համակարգչային գիտնական Իյադ Ռահվանը Գերմանիայի Մաքս Պլանկի Մարդկային զարգացման ինստիտուտից:

AI-ի էթիկայի ուսուցման և աշխարհը ոչնչացնելու արգելքների ուսուցման այլընտրանքը, ինչում ոչ մի ալգորիթմ չի կարող լիովին վստահ լինել, ասում են հետազոտողները, գերմիտքի հնարավորությունները սահմանափակելն է: Օրինակ, այն կարող է կտրված լինել ինտերնետի մի մասից կամ որոշակի ցանցերից:

Վերջերս կատարած հետազոտության հեղինակները մերժում են նաև այս գաղափարը՝ կարծելով, որ այն կսահմանափակի արհեստական ​​ինտելեկտի շրջանակը. ասում են՝ եթե մենք չենք պատրաստվում օգտագործել այն մարդկային հնարավորություններից դուրս խնդիրներ լուծելու համար, ապա ինչո՞ւ ընդհանրապես ստեղծել այն։

Արհեստական ​​բանականություն

Եթե ​​մենք պատրաստվում ենք զարգացնել արհեստական ​​ինտելեկտը, մենք կարող ենք նույնիսկ չիմանալ, թե երբ կհայտնվի գերհետախուզություն՝ մեր վերահսկողությունից դուրս, այնքան անհասկանալի է: Սա նշանակում է, որ մենք պետք է սկսենք լուրջ հարցեր տալ, թե ուր ենք մենք գնում:

«Գերխելացի մեքենան, որը կառավարում է աշխարհը, հնչում է որպես գիտական ​​ֆանտաստիկա», - ասում է համակարգչային գիտնական Մանուել Քեբրյանը Մաքս Պլանկի Մարդկային զարգացման ինստիտուտից: Բայց արդեն կան մեքենաներ, որոնք ինքնուրույն կատարում են որոշ կարևոր առաջադրանքներ, մինչդեռ ծրագրավորողները լիովին չեն հասկանում, թե ինչպես են դա սովորել:

Ուստի հարց է առաջանում՝ արդյոք այն կարող է ինչ-որ պահի դառնալ անկառավարելի ու վտանգավոր մարդկության համար...

Կարդացեք նաև.

Աղբյուրգիտական
Գրանցվել
Տեղեկացնել մասին
հյուր

0 մեկնաբանություններ
Ներկառուցված ակնարկներ
Դիտել բոլոր մեկնաբանությունները
Բաժանորդագրվեք թարմացումների համար