Пентагону не хватает искусственного интеллекта

Чиновники из Пентагона попросили Совет по оборонным инновациям (DIB*) разработать набор этических принципов использования искусственного интеллекта (ИИ) в военных действиях. Предполагается, что ими будут руководствоваться военные, интерес которых к ИИ растет, а также они успокоят опасения потенциальных партнеров в Силиконовой долине, как будут использоваться их продукты.

На сегодня основным подобным этическим документом является доктрина 2012 года, в которой определяется, что человек должен иметь возможность заблокировать любые действия, которые может предпринять автономная система в бою. Это краткий (всего 4 страницы) документ не затрагивает ни одного из видов использования ИИ для поддержки принятия решений, прогнозной аналитики и т.д.

Джош Маркузе, исполнительный директор DIB, сказал, что разработка этих принципов поможет Пентагону «безопасно и ответственно» использовать новые технологии. «Важно продумать все последствия», — сказал он.

Совет директоров — группа корпоративных и аналитических лидеров Силиконовой долины, возглавляемая бывшим председателем Google и Alphabet Эриком Шмидтом, обнародует «этический список» на своем июньском заседании. Руководители оборонного ведомства примут его к рассмотрению.

Маркузе считает, что Пентагон может быть лидером не только в использовании ИИ, но и в разработке основных принципов его безопасного использования. «Министерство обороны должно возглавить работу в этой области, как мы это делали с другими технологиями в прошлом. Я хочу убедиться, что департамент не только лидирует в разработке ИИ для военных целей, но и в развитии этики использования ИИ в военных целях”, — говорит он.

Эти усилия, в частности, являются ответом произошедшее с проектом Maven — флагманским проектом Пентагона с Google по ИИ. В проекте искусственный интеллект был использован в работе с огромным хранилищем видеоматериалов и изображений, которые Министерство обороны собирает для управления авиаударами. Должностные лица МО неоднократно подчеркивали, что ИИ был предназначен только для уменьшения нагрузки на работников. Однако признавали (O, my God!), что конечной целью было помочь военным делать то, что они делают лучше всего — находить и убивать людей. Это возмутило нежные и чуткие души сотрудников Google, которые стали массово увольняться в знак протеста, после чего Google не стал продлевать контракт.

Чиновники МО надеются, что наличие списка этических принципов позволит компаниям, которые хотят работать с Пентагоном, делать это без ложных заявлений общественности и их сотрудникам.

Общей проблемой является систематическая предвзятость или появление алгоритмов, основанных на больших, но не обязательно точных наборах данных. Примером может быть скандал 2015 года, когда алгоритм поиска Google ошибочно называл негров гориллами. Американские военные, говорит Маркузе, не могут позволить себе роскошь развертывать и использовать новые технологические решения без полного понимания того, как они работают. Массовая ошибка в маркировке данных для военных — это не просто катастрофа в области связей с общественностью, но и потенциальная причина для множества смертей, особенно в сочетании с высоко автономным роботизированным оружием.

Эти рекомендации по форме не будут списком строгих заповедей, поскольку в реальности возможны различные сценарии. Это, скорее, будет рядом рекомендаций, как наиболее оптимально использовать ИИ в разных боевых ситуациях.

Руководители оборонного ведомства сами за закрытыми дверями будут решать, как применять эти принципы на практике. Маркузе говорит, что для них важно иметь возможность делать это вдали от глаз общественности.

Источник материала
Настоящий материал самостоятельно опубликован в нашем сообществе пользователем Proper на основании действующей редакции Пользовательского Соглашения. Если вы считаете, что такая публикация нарушает ваши авторские и/или смежные права, вам необходимо сообщить об этом администрации сайта на EMAIL abuse@newru.org с указанием адреса (URL) страницы, содержащей спорный материал. Нарушение будет в кратчайшие сроки устранено, виновные наказаны.

You may also like...

новее старее
Уведомление о
Ванёк26
Ванёк26

Кого Господь хочет наказать…

﹡Ոթ?թ∋চҿ﹡
﹡Ոթ?թ∋চҿ﹡

…тот появляется на свет в Виннице

alex_cr
alex_cr

Неужто Винница теперь — это самый последний форпост жопомiрья на краю Полей Безумия? ))

Gena
Gena

В Хацапетовке теперь родят монстров, им некогда…

Dimm_on
Dimm_on

Да ладна вам на Винницу наговаривать!!! Вон два ее сына, два эпических героя — Петро и Володька, героинчески несуть на себе (или себе?) примерно половину ВВП Незалежной! Прекрасных сынов дала Винница Украине!

Ванёк26
Ванёк26

Это кто это тут не извенившись заговаривает?

﹡Ոթ?թ∋চҿ﹡
﹡Ոթ?թ∋চҿ﹡

Напомне в чем моя вЕна?
Стар я , склеротичен, где удобно.

﹡Ոթ?թ∋চҿ﹡
﹡Ոթ?թ∋চҿ﹡

Но вообще я тока сейчас заметл, что написал тебе.
Подслеповат. ИзвЕни.

Ванёк26
Ванёк26

Извинившись
Извинившись
Извинившись
Ты сам помнишь. Не прикидывайся.

﹡Ոթ?թ∋চҿ﹡
﹡Ոթ?թ∋চҿ﹡

Я когда нибудь лгал?

Ոሉαዙҿτα ಭҿҝҿሉҿʓяҝα〄
Ոሉαዙҿτα ಭҿҝҿሉҿʓяҝα〄

Че витаки туд? Недопили?

﹡Ոթ?թ∋চҿ﹡
﹡Ոթ?թ∋চҿ﹡

Каго?

Ванёк26
Ванёк26

Так ты таки да или нет?

﹡Ոթ?թ∋চҿ﹡
﹡Ոթ?թ∋চҿ﹡

А в Питере принято вопросом на вопрсо?
А Питер — это где то на ближнем востоке?

Ванёк26
Ванёк26

А. Заелозили афедроном по синагоге…

﹡Ոթ?թ∋চҿ﹡
﹡Ոթ?թ∋চҿ﹡

Охохонюшки…

Базилевс
Базилевс

Главный принцип разработрк — ИИ не должен принести вреда человеку.
Азимов обобряэ.

Kokunov
Kokunov

А Нулевой закон?

alex_cr
alex_cr

«Чиновники из Пентагона попросили Совет по оборонным инновациям (DIB*) разработать набор этических принципов…» — это прекрасно, ящетайу. Когда об этике начинают говорить американские военные управленцы — можно сразу открывать две вкладки браузера: первая — с кадрами из «Терминатора», вторая — с фотографиями отдемокраченных Югославии, Ливии, Ирака эт цетера.

ЗЫ. Не помню, откуда: «Запомни, все изобретения в мире делаются ради всего двух вещей — убить побольше народу и заработать побольше денег».

ZIL.ok.130
ZIL.ok.130

Этические принципы? На войне? Хахахаха!
— Сэр, позвольте вас долго и мучительно убить!? Вы готовы?

Базилевс
Базилевс

Полагаю, сэр, речь — о позитивной дискриминации, сэр!
Чтобы вычислять и уничтожать в первую очередь самых умных врагов — белых и азиатов. Поэтому сперва мы проводим мгновенный тест на их IQ, а потом ликвидируем. Установка РЭБ подсвечивает в темноте, у командиров и хорошо обученных солдат — зеленая аура. Вот их-то и долбим!

千ㄥㄚ_丂ㄥ丨爪 フ尺.
千ㄥㄚ_丂ㄥ丨爪 フ尺.

Ска, мать твою, я ржал до слёз!!!! Этические принципы Пентагона!!!! Ыыыыыыы, чето Ливию Ирак восточную Европу вспомнил, этика там аж зашкаливала.

Gena
Gena

Прикинь, пентагоновские философы-генералы, размышляющие о гуманности и толерастии…

alex_cr
alex_cr

Они рождены, чтоб Кафку сделать былью… ))

Dimm_on
Dimm_on

Тю, шота они заморочились. Лучший (и очень-очень простой) этический принцип — убивай всех, Господь отберет своих… Думаю, именно на нем и остановятся, только размусолят на двадцать листов…

Gena
Gena

И на всех ста листах — «Мочи всех! Если есть сомнения — стреляй! А friendly fire — не проблема, страховка всё покроет! Стреляй, а то убьют! » .

Dimm_on
Dimm_on

Геннадий, побойтесь Бога! Хто ж такое пишет в офисияльном докУменте?!?
Напишут: «- в ситуации напряженного боестолкновения, в условиях ограниченной видимости и высокой вероятности поражения объекта, режим кругового обстрела максимальной интенсивности признан допустимым. Вероятность потерь от «дружественного огня» оценивается величинами от 0.015 до 0.25, что укладывается в норматив для конфликта высокой интенсивности… » и бла.. бла.. бла..

Sobolek
Sobolek

Блок-схемки им нарисовать
Сколько там «всегда верных»? Кто-то узнает об этом? Да — Нет — накрыть всех разом. А чо — приемлемые потери.
…….
Кстати, весьма неплохо у них получилось при штурме о.Кыски (операция «Коттедж»):
«…103 убитых, 230 раненых и заболевших, 191 пропавший безвести,
повреждён эсминец USS Abner Read (DD-526)»©
Потери японцев: 0.