Машины для убийства: почему нам нужно говорить об использовании ИИ в армии

Как исследователь, посвятивший годы изучению взаимосвязи технологий и конфликтов, я глубоко обеспокоен растущим использованием искусственного интеллекта (ИИ) в военных операциях. Трагическая история российского солдата на Украине, которого преследовал автономный дрон, является лишь одним из пугающих примеров того, как передовые технологии искусственного интеллекта используются в качестве оружия без надлежащих гарантий и правил.

После изнурительного дня боя одинокий усталый российский солдат выходит из траншеи. Эта траншея завалена павшими товарищами, погибшими во время российско-украинской войны. Пока он спотыкается и переступает через их тела, украинский дрон постоянно зависает над головой, издавая узнаваемый леденящий душу гул.

Подобно охотнику, играющему со своей добычей перед тем, как завершить убийство, дрон, управляемый ИИ, преследует солдата, а затем сбрасывает рядом взрывчатку, чтобы нанести ему раны. В конце концов, ослабев, солдат сдается, молясь, возложив руки перед дроном. Дрон на мгновение делает паузу, создавая впечатление задумчивости, прежде чем нанести смертельный удар солдату.

Испытайте поле битвы 21-го века, сочетание передовых технологий, таких как машинное обучение, искусственный интеллект и сложное оборудование, вызывающее разрушения в различных регионах, включая сельскую местность Украины и сектор Газа на Ближнем Востоке.

Поскольку технология искусственного интеллекта становится все более распространенной во всем мире, речь идет уже не только о наших смартфонах и кондиционерах. В последнее время искусственный интеллект стал использоваться военными, яркими примерами которых являются конфликты между Россией и Украиной и Израилем и ХАМАС. К сожалению, число жертв, достигающее тысяч, побудило многих правозащитников выразить обеспокоенность по поводу растущего использования ИИ в сомнительной слежке, манипулировании видео и сложных военных операциях.

Двухдневная конференция под названием «Ответственное использование искусственного интеллекта в вооруженных силах» (REAIM) проходит в Сеуле, Южная Корея, с 9 по 10 сентября. На этом собрании примут участие представители примерно 90 стран, включая США и Китай, а также влиятельные деятели оружейной промышленности. Эти участники примут участие в дискуссиях, направленных на поиск методов контроля над применением ИИ в военных операциях.

О чем саммит REAIM в Сеуле?

В основе двухдневного саммита REAIM лежит миссия по установлению мировых стандартов применения искусственного интеллекта в системах военной поддержки. Кроме того, он намерен создать дорожную карту, содержащую рекомендации по этичному использованию и управлению ИИ.

Саммит в Сеуле был организован совместно Сингапуром, Нидерландами, Кенией и Великобританией. Более девяноста стран, включая США и Китай, направили на этот саммит своих официальных делегатов. Кроме того, для участия зарегистрировалось более 2000 человек, что продемонстрировало важность и волнение, окружающее это событие.

Встреча в Сеуле стала вторым примером этого конкретного события; Первое мероприятие состоялось в Гааге, Нидерланды, еще в феврале 2023 года. Хотя первоначальная конференция в основном вращалась вокруг обсуждения военного применения ИИ, центральная тема саммита в Сеуле вместо этого была направлена ​​на изучение решений и мер.

На этом саммите наша главная цель — разработать новые руководящие принципы использования ИИ в конфликтах, способствовать размышлениям о международном контроле над военным ИИ и углубить наше понимание его влияния на мировое спокойствие и безопасность — как положительных, так и отрицательных аспектов.

Преимущества и опасности искусственного интеллекта в армии

Растущую важность искусственного интеллекта (ИИ) можно увидеть в военных функциях, учитывая его огромные возможности в таких областях, как контроль запасов, мониторинг, разведка, сбор разведывательной информации, стратегическое планирование на поле боя и организация логистики.

Военные силы во всем мире все больше понимают потенциал искусственного интеллекта (ИИ) и стратегически используют его в боевых ситуациях. Это включает в себя сбор данных с поля боя и их анализ, что впоследствии становится важным для их операций и помогает в принятии решений, повышении осведомленности о решении проблем, формулировании стратегий и минимизации ущерба гражданскому населению.

С моей точки зрения как аналитика, как у монеты есть голова и решка, искусственный интеллект (ИИ) таит в себе как преимущества, так и потенциальные опасности. Хотя преимущества ИИ неоспоримы, крайне важно осознавать риски и опасности, связанные с его использованием. Особое беспокойство вызывает неправильное применение ИИ в военных целях, которое может привести к пагубным последствиям для человеческой жизни.

Существуют некоторые серьезные проблемы, такие как использование ИИ в смертоносном автономном оружии, незаконное наблюдение, запугивание, военные роботы, использование ИИ для взлома и кибератаки, среди других. Помимо этого, у него есть проблемы с глобальной безопасностью, поскольку ИИ может привести к гонке вооружений и усилить глобальную напряженность.

От Украины до сектора Газа: реальные сценарии «Терминатора» в военном ИИ

Искусственный интеллект делает научную фантастику из голливудских фильмов более похожей на реальность, как показали недавние события в секторе Газа и на Украине. К сожалению, эти регионы стали первым полем битвы для конфликтов ИИ.

По сообщениям СМИ, похоже, что израильские военные используют искусственный интеллект (ИИ) в своих военных действиях в секторе Газа. Эти дроны с искусственным интеллектом используются в первую очередь для наблюдения за действиями и выявления вооруженных комбатантов в густонаселенном секторе Газа.

Израильское автономное оружие и системы наведения с искусственным интеллектом

Израиль использует системы вооружения с искусственным интеллектом под названием «Лаванда» и «Евангелие» для ударов по объектам сектора Газа. Работая автономно, эти системы привели к значительному ущербу и жертвам во время прошлогоднего конфликта в секторе Газа.

Помимо этого, Израиль интегрировал различные приложения искусственного интеллекта в свои военные конфликты, в том числе летальные автономные системы вооружения (LAW). Это автономное оружие вооружено пушками и ракетами и включает в себя такие технологии, как распознавание лиц, биометрический мониторинг и автономные системы идентификации целей.

Тем не менее, некоторые активисты утверждают, что использование такого оружия, управляемого искусственным интеллектом, нарушает права человека.

Украинские дроны-вампиры

Как и в случае с Израилем, в мае 2024 года было обнаружено, что украинские военные экспериментируют с дроном, смоделированным по образцу вампира, как сообщает Reuters. Этот дрон представляет собой устройство с усовершенствованным искусственным интеллектом, оснащенное вооружением и спроектированное так, чтобы для работы требовалось минимальное вмешательство человека. Примечательно, что эти автономные дроны уже использовались в боях против российской армии, о чем свидетельствуют многочисленные появившиеся в Интернете видеоролики.

Заключение

В своей роли аналитика я наблюдаю важную тенденцию: искусственный интеллект (ИИ) все больше интегрируется в военные операции, что вызывает опасения по поводу его потенциального неправильного использования. Случаи злоупотребления ИИ, например, те, которые наблюдаются в секторе Газа и на Украине, служат ярким напоминанием об этом риске. Поэтому крайне важно установить правила и нормы этического применения ИИ в войне, гарантируя, что его использование будет соответствовать глобальным стандартам поведения и способствовать миру, а не конфликту.

Смотрите также

2024-09-10 09:09