Տեխնոլոգիաների առաջնորդները և AI-ի նշանավոր հետազոտողները ստորագրել են բաց նամակ, որը AI լաբորատորիաներին և ընկերություններին կոչ է անում «անհապաղ դադարեցնել» իրենց աշխատանքը։
Ստորագրողները, այդ թվում՝ Սթիվ Վոզնյակը և Իլոն Մասկը, համաձայն են, որ ռիսկերը պահանջում են առնվազն վեց ամիս ընդմիջում տեխնոլոգիաների արտադրությունից, որոնք դուրս են շրջանակներից։ GPT-4. Սա այն է, որ ուրախությունն ու գոհունակությունը հանեն AI-ի համակարգերից, որոնք այժմ կան, և թույլ տան մարդկանց հարմարվել դրանց և տեսնել, որ դրանք օգտակար են:
Նամակում հավելվում է, որ AI համակարգերի անվտանգությունն ապահովելու համար անհրաժեշտ է զգուշություն և նախախնամություն, սակայն դրանք անտեսվում են։ Հղումը GPT-4-ին՝ OpenAI-ի նոր մոդելին, որը կարող է տեքստով պատասխանել գրավոր կամ վիզուալ հաղորդագրություններին, գալիս է այն ժամանակ, երբ ընկերությունները մրցում են տեխնոլոգիայի օգտագործմամբ զրույցի բարդ համակարգեր ստեղծելու համար: Օրինակ, Microsoft Վերջերս հաստատեց, որ իր թարմացված Bing որոնման համակարգը աշխատում է GPT-4 մոդելի վրա ավելի քան 7 շաբաթ, և Google-ը վերջերս պաշտոնապես ներկայացրեց Բարդ – սեփական գեներատիվ արհեստական ինտելեկտի համակարգը՝ հիմնված LaMDA-ի վրա:
AI-ի հետ կապված մտահոգությունները վաղուց են եղել, բայց առավել առաջադեմ տեխնոլոգիան ընդունելու մրցավազքը ակնհայտ է. արհեստական բանականություն առաջինն արդեն տագնապալի է. «Վերջին ամիսներին արհեստական ինտելեկտի լաբորատորիաները ներքաշվել են անվերահսկելի մրցավազքի մեջ՝ զարգացնելու և ներդնելու ավելի հզոր թվային մտքեր, որոնք ոչ ոք, նույնիսկ դրանց հեղինակները, չեն կարող հասկանալ, կանխատեսել կամ հուսալիորեն կառավարել», - ասվում է նամակում:
Նամակը հրապարակել է Future of Life Institute (FLI) շահույթ չհետապնդող կազմակերպությունը, որն աշխատում է նվազագույնի հասցնել գլոբալ աղետալի և էկզիստենցիալ ռիսկերը և նոր տեխնոլոգիաների, մասնավորապես՝ արհեստական ինտելեկտի չարաշահումը: Նախկինում Մասկը 10 միլիոն դոլար է նվիրաբերել FLI-ին՝ AI անվտանգության հետազոտությունների համար: Բացի նրանից և Վոզնյակից, ստորագրողների թվում են արհեստական ինտելեկտի ոլորտում մի շարք համաշխարհային առաջնորդներ, ինչպիսիք են AI-ի և թվային քաղաքականության կենտրոնի նախագահ Մարկ Ռոտենբերգը, MIT-ի ֆիզիկոս և FLI-ի նախագահ Մաքս Թեգմարքը և հեղինակ Յուվալ Նոա Հարարին:
Հարարին նաև անցյալ շաբաթ New York Times-ում հեղինակել է մի հոդված, որը նախազգուշացրել է հետ կապված ռիսկերի մասին. արհեստական բանականություն, որի վրա նրա հետ աշխատել են Մարդկային տեխնոլոգիաների կենտրոնի հիմնադիրները և բաց նամակը ստորագրած այլ անձինք՝ Տրիստան Հարիսը և Ազա Ռասկինը։
Զանգը հետևում է անցած տարի մեքենայական ուսուցման ավելի քան 700 հետազոտողների անցկացրած հարցմանը, որտեղ գրեթե կեսն ասել է, որ AI-ի կողմից «չափազանց վատ հետևանքների» մոտ 10% հավանականություն կա, ներառյալ մարդկանց ոչնչացումը: Երբ հարցվել է AI-ի հետազոտության անվտանգության մասին, հարցվածների 68%-ը պատասխանել է, որ ավելին կամ շատ ավելին է պետք անել:
Կարդացեք նաև.
Թողնել գրառում