Պայքար ռոբոտներ. Արգելված չէ

Բովանդակություն:

Պայքար ռոբոտներ. Արգելված չէ
Պայքար ռոբոտներ. Արգելված չէ

Video: Պայքար ռոբոտներ. Արգելված չէ

Video: Պայքար ռոբոտներ. Արգելված չէ
Video: Ական փնտրող ռոբոտ 2024, Մայիս
Anonim

Փորձագետները հանդիպեցին Geneնևում, բայց համաձայնություն ձեռք չբերվեց. ԱՄՆ-ն և Ռուսաստանը արգելափակեցին բոլոր աշխատանքները: Թերեւս սա միակ դեպքն է, երբ հեգեմոններն աշխատում են այդքան ներդաշնակ:

Պայքար ռոբոտներ. Արգելված չէ
Պայքար ռոբոտներ. Արգելված չէ

Անմարդկային զենքի մասին կոնվենցիայի ձևաչափով փորձագետների հանդիպումներն ավարտվեցին vaնևում, որպեսզի որոշեն, այսպես կոչված, մարտական ռոբոտների `ինքնավար զենքերը, որոնք օգտագործում են արհեստական բանականություն թիրախները հաղթահարելու համար: Այնուամենայնիվ, որևէ պայմանավորվածություն ձեռք չի բերվել: ԱՄՆ-ը, Ռուսաստանը, Հարավային Կորեան, Իսրայելը և Ավստրալիան այն փոքրամասնությունների շարքում էին, որոնք կարողացան արգելափակել մարդասպան ռոբոտներին լիովին արգելելու տրամադրությունը:

Այսպիսով, չնայած աշխարհում դեռևս գործող ինքնավար զենք չկա, տեխնոլոգիան մնում է, այսպես ասած, մարդասիրական ՝ այն կարող է մշակվել և հետազոտվել: Հետաքրքիր է, որ ԱՄՆ-ը և Ռուսաստանը, ըստ Ստոկհոլմի Խաղաղության հետազոտությունների ինստիտուտի (SIPRI), գլխավորում են զենքի խոշորագույն արտահանողների ցուցակը: Հարավային Կորեան, Իսրայելը և Ավստրալիան նույնպես հետ չեն մնում այս վարկանիշից. Նրանք շուկայի լավագույն 20 դերակատարների շարքում են:

Եվ չնայած Չինաստանը (աշխարհում զենքի հինգերորդ արտահանողը, ՄԱԿ-ի Անվտանգության խորհրդի մշտական անդամը պաշտպանում է մարտական ռոբոտների արգելումը, հանդիպումների ընթացքում նրան չհաջողվեց փոխել կշեռքը: Այսօր 26 երկրներ բացահայտորեն աջակցում են պատերազմում արհեստական բանականության օգտագործման արգելք: Մյուսները խուսափում են հստակ դիրքորոշումից) Ֆրանսիան և Գերմանիան (զենքի երրորդ և չորրորդ արտահանողներ) առաջարկում են ստորագրել մի փաստաթուղթ, որը կհամախմբի մարդու առաջնությունը արհեստական բանականության նկատմամբ, բայց դրանք ավելի հավանական են նրանց կողմից, ովքեր ցանկանում են ինքնավար մարտական մեքենաներ մշակել:

«Իհարկե հիասթափեցուցիչ է, որ ռազմական հսկաների մի փոքր խումբ կարող է զսպել մեծամասնության կամքը», - մեկնաբանեց Kilնևի հանդիպումների արդյունքը Մարդասպան ռոբոտներին կանգնեցնելու արշավի համակարգող Մերի Վերհեմը:

Իրոք, իրավիճակը կարծես զինված մենաշնորհային մեծահարուստների դավադրություն լինի, հաշվի առնելով, որ Միացյալ Նահանգները և Ռուսաստանը սովորաբար չեն կարող գոնե ինչ-որ փոխզիջման հասնել կարևոր հարցերում: Վերցրեք սիրիականը. Այս գարնանը Սիրիայում քիմիական զենք կիրառելուց հետո Վաշինգտոնը և Մոսկվան փոխադարձաբար արգելափակեցին միմյանց բանաձևերը: Ի դեպ, ռազմական նպատակներով ասֆիքսացնող գազերը և այլ թունավոր նյութերը նախկինում արգելված էին Անմարդկային զենքի մասին կոնվենցիայով:

Մարդասպան ռոբոտների ճակատագրի վերաբերյալ հաջորդ հանդիպումը տեղի կունենա նոյեմբերին Geneնեւում:

Ինչու են նրանք ցանկանում արգելել ինքնավար զենքը

Ռոբոտների պատերազմի արգելքի կողմնակիցները պնդում են, որ ռազմի դաշտը արհեստական բանականության տեղ չէ: Նրանց կարծիքով, նման տեխնոլոգիաները հսկայական վտանգ են ներկայացնում: Համենայն դեպս, այսօր պարզ չէ, թե ինչպես է մեքենան տարբերակում մարտիկներից (նրանց, ովքեր ուղղակիորեն մասնակցում են մարտական գործողություններին) ոչ մարտիկներից (բանակի ծառայողներ, ովքեր զենք կարող են օգտագործել միայն ինքնապաշտպանության համար) և ընդհանրապես քաղաքացիական անձինք: Հնարավոր է, որ աշխատանքը կսպանի վիրավորներին և հանձնվողներին, ինչը արգելված է ներկայիս պատերազմական կանոններով:

Ի՞նչն է խանգարում աշխատանքին ընդհատել հակամարտության բոլոր կողմերին, անգամ այդպիսի զենքի տերերին: Արհեստական հետախուզության տարրերն արդեն հաջողությամբ օգտագործվում են ռազմական տեխնիկայի, հրթիռների մեջ; ռոբոտներին գրավում են հետախուզության համար, բայց վերջին խոսքը դեռ մնում է մարդկանց մոտ: Ինքնավար զենքը չի ենթարկվի հրամանատարի հրամաններին, այդ պատճառով դրանք ինքնավար են: Այդ պատճառով տարբեր երկրների ռազմական գեներալները թերահավատորեն են վերաբերվում մեքենաների անձնակազմի շարքերը մտցնելուն:

Եվ մեկ այլ բաց հարց էլ միջազգային ահաբեկչությունն է: Ինքնավար զենքի տեխնոլոգիան կարող է սխալ ձեռքեր ընկնել, և այն ի վերջո կարող է կոտրվել: Մեկ տարի առաջ Ռուսաստանի նախագահ Վլադիմիր Պուտինը ասաց, որ աշխարհի իշխողը կլինի նա, ով կդառնա արհեստական ինտելեկտի զարգացման առաջատարը:Ինքնավար զենքի դեպքում, այդպիսի տեխնոլոգիաներ հասանելիություն ստացողը կդառնա աշխարհի տիրակալ: Եվ դրա համար, փաստորեն, ձեզ հարկավոր է միայն համակարգիչ և դոդեր, որոնք կանցնեն անվտանգության համակարգերի միջով: Ի դեպ, Պենտագոնը մեկ անգամ չէ, որ ենթարկվել է կոտրման: Հետևաբար, ոչ ոք չի կարող երաշխիքներ տալ, որ ինքնավար զենքը անձեռնմխելի կմնա:

Անհասկանալի է նաև, թե ով է իրավական պատասխանատվություն կրելու, եթե ինքնավար զենքի համակարգի գործունեության արդյունքում ռազմական հանցագործություն կատարվի: «Usedենք օգտագործած ճարտարագետը, ծրագրավորողը, արտադրողը կամ հրամանատարը: Եթե միջազգային մարդասիրական իրավունքով սահմանված պատասխանատվությունը հնարավոր չէ սահմանել, կարո՞ղ է այդպիսի համակարգերի տեղակայումը ճանաչվել օրինական կամ էթիկապես արդարացված »: - նշում է Կարմիր խաչի միջազգային կոմիտեն:

Հետաքրքիր է, որ գիտնականները հանդես էին գալիս նաեւ մարտական ռոբոտների արգելման օգտին: Այս տարվա հուլիսին ավելի քան երկու հազար գիտնականներ, մասնավորապես Tesla- ի և SpaceX- ի ստեղծող Էլոն Մասկը և DeepMind- ի համահիմնադիրները, փաստաթուղթ ստորագրեցին, որ նրանք չեն մշակելու մահացու ինքնավար զենք: Google- ը նույնն արեց: Տեխնիկական հսկան հրաժարվել է աշխատանքից Պենտագոնի Maven նախագծի շուրջ: Իսկ 2017-ին մի շարք գիտնականներ արդեն կոչ են արել ՄԱԿ-ին ՝ արգելել մարդասպան ռոբոտների ստեղծումը:

Ի դեպ, պատերազմում արհեստական հետախուզության հարցը ՄԱԿ-ի օրակարգում էր հայտնվել 2013-ի վերջին, բայց դրանից հետո գործնականում ոչինչ չի փոխվել: Միայն այս տարի սկսվեցին փորձագիտական հանդիպումներ Անմարդկային զենքի մասին կոնվենցիայի ձևաչափով: Այսինքն ՝ ավելի քան չորս տարի պահանջվեց, որպեսզի գա մի քիչ թե շատ գործնական հարթություն:

Ինչու չեն ցանկանում արգելել ինքնավար զենքը

Անկախ նրանից, թե որքան պարզունակ է դա հնչում, սպառազինությունների մրցավազքը հիմնական պատճառն է, որ նրանք չեն ցանկանում արգելել մարդասպան ռոբոտներին: Պուտինը ճիշտ է. Ով առաջինը ստանում է ինքնավար զենք, նա գերիշխելու է աշխարհում: Պաշտոնապես այդ պատճառը բարձրաձայնվում է:

Արգելքի հակառակորդների հիմնական փաստարկը քաղաքացիական արհեստական ինտելեկտը բանակից տարանջատելու անհնարինությունն է: Մենք չենք արգելելու խոհանոցային դանակները միայն այն պատճառով, որ ահաբեկիչները կարող են օգտագործել դրանք: Իրոք, գործնականում անհնար է առանձնացնել արհեստական բանականության քաղաքացիական զարգացումը ռազմականից: Բայց հիմա մենք խոսում ենք այս զենքի արգելման մասին, որը կկարողանա ինքնուրույն որոշել թիրախները: Սա կարող է լինել Maven նախագիծը, որի վրա աշխատում է ԱՄՆ Պաշտպանության նախարարությունը Booz Allen Hamilton- ի հետ համատեղ (Google- ը հրաժարվեց պայմանագրից):

Maven- ի մշակողները ցանկանում են անօդաչու թռչող սարքերին սովորեցնել վերլուծել պատկերները, մասնավորապես արբանյակներից և, հնարավոր է, բացահայտել հարձակման թիրախները: Պենտագոնը նախագծի վրա սկսեց աշխատել դեռ 2017-ի ապրիլին և հույս ուներ մինչև տարեվերջ ստանալ առաջին աշխատանքային ալգորիթմները: Բայց Google- ի աշխատակիցների դեմարշի միջոցով զարգացումը հետաձգվեց: Այս տարվա հունիսի դրությամբ, ըստ Gizmodo- ի, համակարգը կարող էր տարբերակել տարրական օբյեկտները `մեքենաները, մարդիկ, բայց դժվար իրավիճակներում պարզվեց, որ դրանք բոլորովին աննշան են: Եթե ինքնավար զենքի արգելքը, այնուամենայնիվ, ընդունվի ՄԱԿ-ի մակարդակում, նախագիծը պետք է վերացվի, մինչդեռ Պենտագոնը պնդում է, որ դրանց մշակումը կարող է կյանքեր փրկել, քանի որ այն կարող է ծրագրավորվել, որպեսզի ավելի ճշգրիտ և հուսալի աշխատի, եթե համեմատվի մարդկանց հետ:

«Դուք պետք է հասկանաք, որ խոսքը տեխնոլոգիայի մասին է, որ այն չունի նմուշներ, որոնք կգործեն: Նման համակարգերի գաղափարը դեռ շատ մակերեսային է», - նշվեց Geneնևում Ռուսաստանի արտգործնախարարությունում կայացած հանդիպման նախօրեին: - Մեր կարծիքով, միջազգային իրավունքը, մասնավորապես, հումանիտար ոլորտը, կարող է կիրառվել ինքնավար զենքի նկատմամբ: Նրանք կարիք չունեն արդիականացման կամ հարմարվելու այն համակարգերի, որոնք դեռ գոյություն չունեն »:

Դե, և ևս մեկ իրական, բայց չբարձրաձայնված պատճառը փողն է: Այսօր ռազմական արհեստական հետախուզության տեխնոլոգիաների շուկան գնահատվում է ավելի քան վեց միլիարդ դոլար: Սակայն մինչև 2025 թվականը այդ ցուցանիշը եռապատկվելու է ՝ գրեթե 19 միլիարդ, կարծում են ամերիկյան MarketsandMarkets ընկերության վերլուծաբանները:Ամենամեծ զենք արտահանողների համար դա լավ շարժառիթ է արգելափակել մարդասպան ռոբոտների զարգացման ցանկացած սահմանափակում:

Առաջընթացը հնարավոր չէ կասեցնել

Ինքնավար զենքի արգելքի կողմնակիցները նշում են, որ տեխնոլոգիան շատ արագ է զարգանում, և արհեստական ինտելեկտը ի վերջո կդառնա զենք ՝ ժամանակի հարց: Նրանց խոսքերի մեջ տրամաբանություն կա: Արհեստական բանականությունը չորրորդ գիտատեխնիկական հեղափոխության բաղկացուցիչ մասն է, որը շարունակվում է նաև այժմ: Պետք է հիշել, որ տեխնիկական առաջընթացը այս կամ այն կերպ կապված է ռազմական գործողությունների հետ: Երրորդ գիտատեխնիկական հեղափոխությունը տևեց մինչև XX դարի 50-ականների կեսերը, այսինքն ՝ դրա գագաթնակետը ընկավ Երկրորդ համաշխարհային պատերազմի ժամանակաշրջանին:

1949 թվականին Geneնևն ընդունեց «Պատերազմի ժամանակ քաղաքացիական անձանց պաշտպանության մասին» կոնվենցիան: Հետպատերազմյան շրջանում նրանք լրացրեցին նաև Հաագայի 1907 թ. Կոնվենցիան, որով որոշվում էին պատերազմի վարման կանոնները: Այսինքն ՝ Երկրորդ համաշխարհային պատերազմի սարսափները խթան հանդիսացան այս գործընթացի համար: Այնպես որ, մարդու իրավունքների պաշտպանները չեն ցանկանում սպասել Երրորդ համաշխարհային պատերազմին ՝ մարդկությունը ինքնավար զենքից պաշտպանելու համար: Այդ պատճառով այժմ պնդում են, որ մարդասպան ռոբոտների ճակատագիրը որոշելն անհրաժեշտ է:

Ըստ Human Rights Watch- ի փորձագետների ՝ մարտական ռոբոտների օգտագործումը հակասում է Մարտենս հռչակագրին ՝ «Պատերազմի օրենքների և սովորույթների մասին» Հաագայի 1899 թ. Կոնվենցիայի նախաբանը: Այլ կերպ ասած, մարդասպան ռոբոտները խախտում են մարդկության օրենքները և հասարակության գիտակցության պահանջները (դիրքը հաստատվել է Հաագայի IV կոնվենցիայում):

«Մենք պետք է միասին աշխատենք կանխարգելիչ արգելք կիրառել այդպիսի զենքային համակարգերի համար, նախքան դրանք տարածվեն ամբողջ աշխարհում», - ասաց Բոննի Դոհերտին, Human Rights Watch- ի զենքի բաժնի ավագ հետազոտող:

Դե, այս անգամ չի հաջողվել արգելել մարդասպան ռոբոտներին: Կանխատեսելի է, որ նոյեմբեր ամսվա հանդիպումները նույնպես անպտուղ կլինեն: Ueիշտ է, գրեթե բոլոր երկրները համաձայն են. Տեխնոլոգիան չի կարող թույլատրվել հոսել ինքնահոսով, և մարտական ռոբոտներին այդպիսի կանգառային կռունկ է պետք: Բայց դեռ պարզ չէ ՝ արդյո՞ք մարդկությունը ժամանակ կունենա այն քաշելու համար, երբ անհրաժեշտություն առաջանա:

Խորհուրդ ենք տալիս: