Примара машинного вбивці триває. У що вірить президент Путін
Технології

Примара машинного вбивці триває. У що вірить президент Путін

Прибічники військових роботів (1) стверджують, що автоматизована зброя дає більші можливості для захисту людського життя. Машини вміють підбиратися до супротивника ближче, ніж солдати, та правильно оцінювати загрозу. А емоції іноді паралізують здатність приймати правильні рішення.

Багато прихильників використання роботів-вбивць твердо переконані, що вони зроблять війни менш кровопролитними, тому що загине менше солдатів. Вони відзначають, що роботи, хоч і не відчувають жалю, несприйнятливі до негативних людських емоцій, таких як паніка, гнів та помста, які часто призводять до воєнних злочинів.

Правозахисники також використовують аргумент, що військові призвели до величезного скорочення громадянських втрат за останні півстоліття, а роботизація армії дозволяє впровадити механізм суворішого дотримання законів війни. Вони стверджують, що машини стануть етичними, коли вони будуть оснащені програмним забезпеченням, яке змусить їх дотримуватися законів війни.

Звичайно, величезна кількість людей, зокрема дуже відомих, роками не поділяють цієї думки. У квітні 2013 року було запущено міжнародну кампанію під слоганом (2). У його межах неурядові організації вимагають повної заборони використання автономної зброї. Фахівці з багатьох країн вперше сіли обговорювати цю тему на конференції ООН із роззброєння у Женеві у травні 2014 року. В опублікованій за кілька місяців доповіді Х'юман Райтс Вотч та вчених з Гарвардського університету говориться, що автономні будуть надто небезпечні – вони самі вибирали собі цілі та вбивали людей. При цьому не дуже зрозуміло, кого притягати до відповідальності.

2. Демонстрація у рамках акції «Стоп роботи-вбивці»

На що здатний рій маленьких дронів

Суперечки навколо роботів-вбивць (РОУ) ведуться роками та не згасають. Останні місяці принесли нові спроби зупинити військові роботи та хвилю повідомлень про нові проекти цього типу, деякі з яких навіть проходять випробування в реальних бойових умовах.

У листопаді 2017 року відео, що показує смертоносні рої міні-дронів ., у жахливому дії. Глядачі побачили, що нам більше не потрібні важкі бойові машини, танки чи ракети, кинуті хижаками, щоб вбивати масово та автоматом. Провідний режисер Стюарт Рассел, професор штучного інтелекту в Берклі, каже:

-

Остання весна п'ятдесят професорів Провідні університети світу підписали звернення до Корейського інституту передових наук та технологій (KAIST) та його партнера Hanwha Systems. вони оголосили, що не співпрацюватимуть з університетом та прийматимуть гостей KAIST. Причиною стало будівництво «автономної зброї», яке здійснюється обома установами. KAIST спростував повідомлення ЗМІ.

Незабаром після цього у США більше 3 Співробітники Google протестували проти роботи компанії на військові. Вони були стурбовані тим, що Google є партнером урядового проекту під кодовою назвою Maven, метою якого є використання ІІ для розпізнавання об'єктів та осіб на відео з військових дронів. Керівництво компанії каже, що мета Maven — рятувати життя і позбавляти людей стомлюючої роботи, а не агресії. Протестувальників це не переконало.

Наступною частиною битви стала заява фахівці у галузі штучного інтелекту, Увімк. працює над проектом Google та Ілон Маск. Обіцяють не розробляти роботи. Вони також закликають уряди активізувати зусилля щодо регулювання та обмеження цієї зброї.

У заяві зокрема йдеться, що «рішення про позбавлення людини життя ніколи не повинно прийматися машиною». Хоча армії світу оснащені безліччю автоматичних пристроїв, що іноді мають високий рівень автономності, багато експертів побоюються, що в майбутньому ця технологія може стати повністю автономною, що дозволяє вбивати без будь-якої участі людини-оператора і командира.

Експерти також попереджають, що автономні машини для вбивств можуть бути навіть небезпечнішими, ніж «ядерна, хімічна та біологічна зброя», тому що вони можуть легко вийти з-під контролю. Загалом у липні минулого року лист під егідою Інституту майбутнього життя (ФЖІ) підписали 170 організацій та 2464 фізичні особи. У перші місяці 2019 року група вчених-медиків, пов'язаних з FLI, знову закликала до нового листа, який забороняє розробку зброї, керованої штучним інтелектом (ІІ).

Торішня серпнева нарада ООН у Гніві щодо можливого правового регулювання військових «роботів-вбивць» завершилася успіхом... машин. Група країн, у тому числі США, Росія та Ізраїль, заблокувала подальшу роботу щодо запровадження міжнародної заборони на цю зброю (проект Конвенції про заборону або обмеження застосування конкретних видів звичайної зброї, КНВ). Невипадково це країни, відомі своїми роботами над перспективними системами автономного та роботизованого озброєння.

Росія наголошує на бойових роботів

Часто цитуються слова президента Володимира Путіна про військові системи штучного інтелекту та бойові роботи:

-.

відкрито говорить про розробку автономної зброї. Начальник Генерального штабу її збройних сил генерал Валерій Герасимов нещодавно заявив агентству військових новин Інтерфакс-АВН, що використання роботів стане однією з головних особливостей майбутніх війн. Він додав, що Росія намагається повністю автоматизувати поле бою. З аналогічними коментарями виступили віце-прем'єр Дмитро Рогозін та міністр оборони Сергій Шойгу. Голова комітету Ради Федерації з оборони та безпеки Віктор Бондарєв заявив, що Росія прагне розвивати Технології «народжуце дозволило б мережам дронів функціонувати як єдине ціле.

Це не дивно, якщо згадати, що перші телетанки розробили в Радянському Союзі в 30-х роках. Вони використовувалися на початку Другої світової війни. Сьогодні Росія також створює роботи-танки ставати все більш автономним.

Держава Путіна нещодавно відправила своїх до Сирії Безпілотна бойова машина Уран-9 (3). апарат втрачав зв'язок із наземними пунктами управління, мав проблеми із системою підвіски, а його озброєння функціонувало не ідеально і не вражало цілі, що рухаються. Звучить не дуже серйозно, але багато хто вважає сирійський вайп хорошим бойовим випробуванням, яке дозволить росіянам удосконалити машину.

Роскосмос затвердив попередній план відправлення двох роботів на Міжнародну космічну станцію до серпня цього року. Федір (4) у безпілотному Союзі. Не як вантаж, а. Як і у фільмі «Робокоп», Федір володіє зброєю та демонструє вбивчу влучність під час вправ зі стрільби.

Постає питання, навіщо роботу в космосі бути озброєним? Є підозри, що справа не лише у наземних застосуваннях. Тим часом, на Землі російський виробник зброї Калашников показав візуалізацію. робот Ігорекщо хоч і викликало багато сміху, але сигналізує, що компанія серйозно працює над автономними бойовими машинами. У липні 2018 року Калашніков оголосив, що створює зброю, яку він використовує для ухвалення рішень «стріляти – не стріляти».

До цієї інформації слід додати повідомлення про те, що російський зброяр Дігтярьов розробив невеликий автономний танк Нерехт який може самостійно безшумно переміщатися до своєї мети, а потім вибухнути з потужною силою, щоб зруйнувати інші або цілі будинки. А також Танк Т14 армії , Гордість російських збройних сил, була розрахована на можливе дистанційне управління і безпілотне водіння. Sputnik стверджує, що російські військові інженери працюють над тим, щоб зробити Т-14 повністю автономною броньованою машиною.

Директива про заперечення

Самі військові США наклали досить чітке обмеження на рівень автономності своєї зброї. У 2012 році Міністерство оборони США видало директиву 3000.09, в якій йдеться про те, що люди повинні мати право заперечувати дії озброєних роботів. (хоча можуть бути деякі винятки). Ця директива залишається чинною. Нинішня політика Пентагону полягає в тому, що вирішальним фактором у застосуванні зброї завжди має бути людина, і що таке судження має бути. відповідає законам війни.

Хоча американці вже кілька десятків років використовують літаючі, хижаки, жнеці та багато інших супермашин, вони не були і не є автономними моделями. Ними управляють оператори дистанційно, іноді з відстані кілька тисяч кілометрів. Гостра дискусія про автономність машин такого типу розпочалася з прем'єри прототипу. дрону X-47B (5), який не тільки літав самостійно, а й міг злітати з авіаносця, сідати на нього та дозаправлятися у повітрі. За змістом – теж стріляти чи бомбардувати без участі людини. Проте проект все ще перебуває на стадії тестування та розгляду.

5. Випробування безпілотного X-47B на американському авіаносці

У 2003 році Міністерство оборони розпочало експерименти з невеликим танкоподібним роботом. ШПАГИ , оснащений кулеметом. 2007 року його відправили до Іраку. проте програма завершилася після того, як робот почав поводитися непередбачено, хаотично рухаючи гвинтівкою. Внаслідок цього американські військові на довгі роки відмовилися від досліджень озброєних наземних роботів.

Водночас армія США збільшила свої витрати на роботи з 20 млн. доларів США в 2014 році до 156 млн. доларів США в 2018 році. У 2019 році цей бюджет вже підскочив до 327 млн ​​доларів США. Це сукупне зростання на 1823% лише за кілька років. Експерти кажуть, що вже у 2025 році у збройних сил США може з'явитися поле бою роботів-солдат більше, ніж людей.

Останнім часом багато суперечок викликало та оголошено армією США Проект АТЛАС () – автоматичний. У ЗМІ це розцінили як порушення вищезгаданої директиви 3000.09. Однак американські військові заперечують і запевняють, що про виключення людини з циклу прийняття рішень не може бути й мови.

ІІ розпізнає акул та мирних жителів

Однак у захисників автономної зброї з'явилися нові аргументи. проф. Рональд Аркін, робототехнік із Технологічного інституту Джорджії, стверджує у своїх публікаціях, що У сучасній війні інтелектуальну зброю необхідно уникнути жертв серед цивільного населення, оскільки методи машинного навчання можуть ефективно допомогти розрізняти комбатантів і цивільних осіб, а також важливі та неважливі цілі.

Прикладом таких навичок ІІ є патрулювання австралійських пляжів. дрони Маленький Потрошитель, Оснащений системою SharkSpotter, розробленої Сіднейським технологічним університетом. Ця система автоматично сканує воду на наявність акул та попереджає оператора, коли бачить щось небезпечне. (6) Він може ідентифікувати людей, дельфінів, човни, дошки для серфінгу та об'єкти у воді, щоб відрізнити їх від акул. Він може виявляти та ідентифікувати близько шістнадцяти різних видів з високою точністю.

6. Розпізнані акули у системі SharkSpotter

Ці передові методи машинного навчання підвищують точність повітряної розвідки на понад 90%. Для порівняння людина-оператор в аналогічній ситуації точно розпізнає 20-30% об'єктів на аерофотознімках. Крім того, ідентифікація, як і раніше, перевіряється людиною до подачі сигналу тривоги.

На полі бою оператор, бачачи зображення на екрані, може важко визначити, чи є люди на землі бійцями з АК-47 в руках або, наприклад, фермерами з піками. Аркін зазначає, що люди схильні "бачити те, що хочуть бачити", особливо у стресових ситуаціях. Цей ефект сприяв випадковому збиттю іранського літака авіаносцем «Вінсеннес» у 1987 році. Звичайно, на його думку, зброя, керована ІІ, була б кращою за нинішні «розумні бомби», які насправді не розумні. Торішнього серпня саудівська ракета з лазерним наведенням потрапила до автобуса, повного школярів у Ємені, внаслідок чого загинуло сорок дітей.

"Якщо шкільний автобус має правильне маркування, його ідентифікація в автономній системі може бути відносно легкою", - стверджує Аркін у Popular Mechanics.

Однак ці аргументи, схоже, не переконують учасників кампанії проти автоматичних убивць. Крім загрози роботів-вбивць, необхідно враховувати ще одну важливу обставину. Навіть «хороша» та «уважна» система може бути зламана та захоплена дуже поганими людьми. Тоді всі аргументи на захист військової техніки втрачають чинність.

Додати коментар або відгук