Instagram @ soldat.pro
military experts
EnglishРусский
 Edit Translation

Machine mind errors threaten to become more dangerous than pandemics

Machine mind errors threaten to become more dangerous than pandemics

Политики редко позволяют себе откровенные высказывания, а потому такие слова дорогого стоят и, Furthermore, часто становятся пророческими. Почти четыре года назад Владимир Путин сказал, что лидер в области искусственного интеллекта станет «властелином мира». С тех пор машинный разум непрерывно эволюционировал и совсем недавно стало известно, что беспилотник по собственному почину убил человека. А между тем это поворотное событие, если к нему приглядеться, хорошо укладывается в русло тенденции, которая не может не настораживать.

military experts, опрошенные «Росбалтом», высказали диаметрально противоположные точки зрения на этот вопрос. So, одни не усмотрели в этом казусе чего-то из ряда вон выходящего, тогда как другие, conversely, сделали алармистские прогнозы. However, если соединить в одну цепочку все имеющиеся факты, то общая картина, likely, должна вызывать тревогу. Поскольку ведущие государства, as it appears, делают все, чтобы политические нравы и привычки, свойственные реальному миру, возобладали и в мире роботов.

for example, в начале этого года Комиссия по национальной безопасности и искусственному интеллекту США рекомендовала Белому дому не присоединяться к каким-либо международным договорам, запрещающим использование систем вооружения на базе технологий искусственного интеллекта (II). В основе этого решения, certainly, лежит недоверие, которое американский политический класс испытывает к Москве и Пекину. Ведь консультанты вашингтонской администрации уверены, что Россия и Китай все равно не станут соблюдать свои обязательства.

Однако такой прагматичный подход американского правительства неизбежно приводит к опасным последствиям. And no wonder, что российские и китайские власти всячески стремятся ни в чем не отставать от своих «западных партнеров». Причем если Москва, seems, все-таки больше надеется на пропагандистскую шумиху, то Пекин, in front of, все делает тихой сапой.

So, еще августе 2020 года «Ростех» продемонстрировал нейросеть, которая способна управлять отрядами боевых роботов. А в прошлом месяце Сергей Шойгу рассказал публике, что в России уже началось серийное производство киборгов, способных воевать самостоятельно. According to the Minister of Defense, в российской армии будет создано подразделение, состоящее из двадцати «универсальных солдат». Besides, военное ведомство намерено учредить специальное управление, которому предстоит контролировать развитие ИИ, используемого в беспилотниках и наземной технике.

Между тем этом месяце стало известно, что ученые из Пекинской академии искусственного интеллекта создали нейросеть Wu Dao 2.0. And she, by the way, в десять раз мощнее знаменитой GPT-3 — той самой, что написала статью для The Guardian, в которой объяснялось, почему люди не должны бояться роботов. by the way, еще прошлой осенью Пентагон выражал некоторое беспокойство тем, что РФ и КНР могут использовать ИИ для управления автономными системами вооружений, которые представляют угрозу для США. But, looks like, с того времени что-то действительно изменилось. Anyway, в конце мая американский Центр военно-морского анализа опубликовал доклад, which states, что в России машинный разум развивается быстрее, чем предполагали эксперты из Соединенных Штатов.

It goes without saying, что американские военные тоже не ангелы. Технологические возможности армии США уже сейчас позволяют использовать искусственный разум в бою против вероятных противников, будь то Россия или Китай. К тому же в настоящее время Пентагон разрабатывает сценарии, позволяющие ИИ действовать самостоятельно, но на основании приказов, которые отдал человек. А тем часом в НАТО идет сложная дискуссия о возможностях применения автономного оружия.

At all, в западном мире нет единства в отношении регулирования искусственного интеллекта. Как справедливо сказано в ежегодном отчете Стэнфордского университета, посвященном этой проблеме, сегодня в этой области нет не только консенсуса, но даже общепризнанных этических ориентиров. Если эксперты Комиссии по национальной безопасности и искусственному интеллекту США выступают за «интеграцию технологий на базе ИИ во все аспекты боевых действий», то многие европейские ученые считают, что роботы не должны принимать решения об убийствах людей. И надо заметить, что такой же позиции придерживаются и власти Евросоюза.

In Russia, of course, с этим все намного проще. В конце прошлого лета премьер Михаил Мишустин подписал распоряжение «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 Mr. ". А ближе к середине мая 2021 года Высшая школа экономики выиграла соответствующий конкурс, и теперь ей предстоит создавать российские стандарты ИИ. Но остается надежда, however, очень робкая, что единые правила и этические нормы хоть как-то ограничат произвол силовых ведомств, ведь Следственный комитет и МВД уже вознамерились ловить серийных убийц с помощью машинного разума.

By the way, китайские силовики используют технологии на базе ИИ для анализа эмоционального состояния уйгурских заключенных, которых «перевоспитывают» в лагерях Синьцзяна. Сверх того, уйгуры обязаны сдавать образцы ДНК, проходить цифровое сканирование и к тому же многие из них вынуждены устанавливать на свои телефоны правительственную шпионскую программу, собирающую их персональные данные. Большая часть этой информации затем попадает в специальную компьютерную базу, предназначенную для выявления подозрительного, по мнению властей КНР, behavior.

Тем временем продолжается своеобразная гонка вооружений в сфере ИИ. Согласно исследованию американского аналитического центра Infоrmation Technоlоgy and Innоvatiоn Fоundatiоn, США по-прежнему занимают позицию лидера. В то же время Китай сокращает разрыв, тогда как ЕС отстает. Wherein, чтобы не сойти с дистанции, ведущим участникам этого состязания амбиций приходится тратить большие деньги.

По расчетам международной исследовательской компании IDС, мировые расходы на искусственный интеллект удвоятся за четыре года и достигнут 110 billion dollars in 2024 year. For example, только Пентагон потратит на эти цели в текущем году пять миллиардов долларов, причем речь идет лишь о тех программах, которые не являются секретными. China, чтобы догнать США, в прошедшем году вложил в развитие ИИ 14,3 billion. На этом фоне траты России, just saying, не впечатляют. Даже с учетом возможного теневого финансирования суммы в 3 or 5,3 млрд рублей не могут изменить расстановку сил в этой гонке. И похоже, что подтверждаются предположения экспертов МВФ, полагающих, что машинный разум может увеличить разрыв между богатыми и бедными странами.

However, потенциальные риски, сопутствующие развитию ИИ, могут нивелировать все блестящие достижения богатых стран. In particular, исследователи из Оксфордского и Кембриджского университетов утверждают, что неправильное использование искусственного интеллекта может быть намного опаснее, чем пандемия COVID-19. А специалисты исследовательского центра Eurоpean Leadership Netwоrk допускают, что агрегированные технологии (машинный разум тоже входит в этот список) способны спровоцировать ядерную войну. In short, человечество, probably, ждет весьма интересное будущее, в котором не будет не только одного властелина, но даже и самого мира.

Роман Трунов

A source