Военные специалисты
EnglishРусский中文(简体)FrançaisEspañol
 Edit Translation

Жизнь ИсКина с ориентацией на войну. Часть 1.

Жизнь ИсКина с ориентацией на войну. Часть 1.

Количество информации об AI, искусственном интеллекте, нейронных сетях и разнообразных, общающихся GPT и рисующих MidJourney в различных источниках, и отечественных, и зарубежных, в последние полгода зашкаливает. Вслед за озоновыми дырами, климатической катастрофой и пандемией это новая, будоражащая народные массы напасть.

Что это? Правда или нет? С чем едят? Как использовать? Вред или польза? Или и то, и другое вместе? Это страшнее атомной бомбы и все умрут, или я останусь только без работы, но буду жить? Происки врагов или мы опять отстали на сто лет?

Попробуем разобраться и начнём с ретроспективы. Ведь все, что появляется у человечества, имеет свою историю. Нечто не возникает из ничего.

«Все вещи в природе происходят математически»

В науке априорная информация состоит из аксиом (положений, считающихся неоспоримыми истинами) и гипотез (предположений, подлежащих экспериментальной проверке). Аксиомы математики впервые сформулированы в «Началах» Евклида. Существует аксиоматика элементарной геометрии и множества других разделов. Основа дедуктивной науки логики — это аксиомы Аристотеля. И далее, и далее.

Жизнь в пределах аксиом проста и понятна, а сомневаться в их незыблемости не принято. Человечество как бы уверенно двигается по столбовой дороге абсолютных истин к полной победе Разума.

Но для Природы истины в последней инстанции не существует. История познания — это повествование о постоянной неполноте наших знаний о бесконечно сложной реальности и неизбежности того, что некоторые из них ошибочны. Именно об этом 7 сентября 1930 года на математическом конгрессе в Кёнигсберге заявил 24-летний Курт Гёдель сказав, что всякая система базовых утверждений (аксиом), принимаемых за истинные без доказательств, начиная с определенного уровня сложности либо внутренне противоречива, либо неполна, а в 1931 году опубликовал доказательства своих теорем о неполноте.

Интерес к теме набирает обороты.

В середине 30-х годов появляются работы математиков А. Чёрча и А. Тьюринга, которые стали фундаментальными для компьютерных вычислений, а тезис Чёрча–Тьюринга в совокупности с теорией вычислений образует фундамент алгоритмического решения задач и имеет прямое отношению к созданию искусственного интеллекта.

В нацистской Германии инженер Конрад Цузе, применяя принципы двоичной логики, собирал реально работающие электромеханические программируемые компьютеры из телефонных реле серии Z, применяя в передаче команд перфорированную 35-миллиметровую киноплёнку. Исследовательский институт аэродинамики Третьего Рейха даже успел использовать Z для расчётов параметров крыльев самолётов и полётов управляемых ракет Фау-2.

В 1943 году в Америке нейрофизиолог Уоррен Мак-Каллок и математик Уолтер Питтс публикуют статью, в которой описывают вычислительную модель, основанную на понятии искусственного нейрона.

Потом — работы К.Шеннона по теории информации и неординарный Фрэнк Розенблатт, создавший первый нейрокомпьютер «Марк-1» на персептроне и нейронной сети, и читавший курс лекций под будоражащим названием «Теория механизмов мозга».

Не только Запад, но и Россия блистала умами. И.А. Вышеградский, А.А. Ляпунов, Л.Т. Кузин, как и многие другие наши великие соотечественники, внесли громадный вклад в развитие темы ИИ.

Интересно, что всё описанное произошло в первой половине XX века. Потом были периоды угасания интереса к этой теме, которые сменялись прогрессом технических разработок в микроэлектронике и системах накопления данных.

В конце концов в середине 2000-х «звёзды сошлись». Учёные получили адекватные математические модели, научились создавать очень мощные компьютеры с громадными базами данных и сумасшедшим быстродействием.

Возгордившись своими достижениями, люди почему-то решили, что инструмент, работающий по установленному алгоритму, запросто устранит все проблемы, сложности и противоречия в нашей жизни. Ведь он так быстро действует, он всё знает, он везде присутствует! Вот она, точка сингулярности! Мы наконец-то обретём могущество богов! Он всё сделает за нас. Можно прилечь на диван и расслабиться.

Расслабились и буквально за каких-то 30 лет из всех щелей полезли последствия и проблемы. Напрячься и подумать или нажать кнопку? Какое решение?

Вопрос сравнения работы человеческого сознания и созданной им машины не первое десятилетие обсуждается в научных кругах. Как сформировать машине понимание о реальности? Может ли ИИ планировать и обучаться, общаться на естественном языке и обладает ли силой воли, если не имеет объективной картины окружающего мира? А ИИ должен мыслить, как человек? Разве у него могут быть собственные мысли?!

Не мы первые задаёмся этими вопросами.

Советская общественность на страницах «Литературной газеты» на протяжении пяти месяцев 1962 года вела дискуссию между «лириками» и «физиками». Закончился обмен мнениями публикацией статьи знаменитого директора Института кибернетики Академии наук УССР В.М. Глушкова. Он высказался, но ответа не дал. Поиски истины затихли, а точных и объединяющих определений «что есть интеллект?» и «что есть сознание?» до сих пор нет.

О современной дискуссии, вынесенной на публичное обсуждение, в которой бы участвовали специалисты по физиологии человека, искусственному интеллекту и нейронным сетям, лингвисты и философы, объединенные идеей патриотизма и понимания решения задачи для Государства Российского, пока нет и речи. Нет единого подхода, нет единой методологии, нет обсуждаемой философской основы.

Да, существует Национальная стратегия развития искусственного интеллекта на период до 2030 года с прикладной программой Правительства Российской Федерации «Концепция регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года» в котором отмечается: «Отсутствие однозначного понимания содержания терминов «искусственный интеллект», «робот», «умный робот», «робототехника», «интеллектуальный агент» приводит к терминологическим проблемам при формировании регулирования».

Есть ГОСТы: Р 59277–2020. «Системы искусственного интеллекта. Классификация системы искусственного интеллекта» и Р59276–2020. «Системы искусственного интеллекта. Способы обеспечения доверия. Общие положения». В этих документах употребляются словосочетания: «когнитивные функции человека», «интеллект человека», глагол «имитировать». Но что это такое? И что значит «имитировать»? И если имитировать, то до какой степени? А когда имитация становится реальностью?

Военные МО России на такие мелочи не отвлекаются и упорно работают над «интеллектуализацией вооружений», а начальник Управления развития технологий искусственного интеллекта Главного управления инновационного развития МО России Василий Елистратов заявляет, что управление одновременно сопровождает для последующего внедрения свыше 500 проектов, а сотрудники предприятий ВПК овладели современными понятиями «искусственный интеллект», «самообучаемые нейросети», «сквозные технологии», «техническое зрение», «простые интегрированные решения».

То есть специалисты МО и оборонки, не заморачиваясь, бодро оперируют выражением «интеллект человека» вместе с понятием «искусственный интеллект». А не всё едино?

Предполагаю, что разобраться надо.

Действительно ли это что-то другое, гораздо более сильное и быстрое, чем наше сознание или лишь нами усложнённый алгоритм? Инструмент, созданный для нашей пользы? То, что в миллиарды раз ускорит сложные вычисления? Где граница, которую не стоит пересекать?

Копнём поглубже.

Мы не машины. Мы сложнее.

В 1950 году знаменитый Алан Тьюринг в научном журнале Mind публикует статью под названием «Вычислительная техника и интеллект (Computing Machinery and Intelligence)», которая через пять лет, в 1956 году, будет перепечатана в 4 томе «Мира математики» Аж. Р. Ньюмена под знаменитым заголовком «Может ли машина мыслить?»

31 августа 1955 г. группа учёных в составе Джона Маккарти (Дартмутский колледж), М. Л. Мински (Гарвардский университет), Н. Рочестера (I.B.M. Corporation) и C.E. Шеннона (Bell Telephone Laboratories) выступила с предложением о проведении в 1956 года в Дартмутском колледже Летнего исследовательского проекта об искусственном интеллекте.

Финансовое сопровождение проекта осуществлял по обыкновению Фонд Рокфеллера, всегда державший нос по ветру.

Вопросы для обсуждения:

1. Автоматические компьютеры.

2. Как можно запрограммировать компьютер на использование языка?

3. Нейронные сети.

4. Теория размера вычислений.

5. Самосовершенствование.

6. Абстракции.

7. Случайность и креативность.

Обсуждение проводили по двум направлениям:

1) применение концепций теории информации к вычислительным машинам и моделям мозга;

2) согласованный подход к моделированию среды и мозга для автоматов.

Повестка семинара, как по мне, абсолютно не потеряла своей актуальности и сегодня.

Организаторы проекта определили, что: «Все исследования должны проводиться на основе гипотезы, что каждый аспект обучения или любую другую характеристику интеллекта в принципе можно описать настолько точно, что можно создать машину для их моделирования».

Сам Джон Маккарти как автор термина «artificial intelligence» (AI), не придавал ему той человеческой сущности, которую привнесло русскоговорящее сообщество.

Слово «intelligence», применительно к англоязычному контексту, в котором оно используется, означает «умение рассуждать разумно», а вовсе не «интеллект». Для этого существует отдельное слово — «intellect».

Важно другое. Именно такая формулировка гипотезы стала целеполаганием для подавляющего количества исследований в этой области, определив на много десятилетий вперёд задачи, которые решались для её достижения.

Для упрощения пропустим небольшой временной промежуток, в котором и теория, и практика развивались для проверки этой гипотезы.

В 1989 году сэр Роджер Пенроуз, британский физик, математик и философ, опубликовал книгу «Новый ум короля», где рассматривал вопросы квантового сознания и теории сильного и слабого ИИ. Обосновывая несостоятельность воплощения в жизнь такой формы, как сильный ИИ, для доказательства своего тезиса, он использовал в том числе и теорему Гёделя как аргумент наличия принципиальной разницы между нашим мозгом и компьютером.

Суть его рассуждений: «Компьютер действует строго логически. Он не способен определить, истинно или ложно утверждение «А», если оно выходит за рамки ранее установленных аксиом. Это происходит неизбежно. Человек, сталкиваясь с тем же утверждением «А», логически недоказуемым или неопровержимым, всегда определит его истинность или ложность, руководствуясь своим повседневным опытом. И именно в этом превосходство человека над машиной, связанной идеальными логическими схемами. Мы способны понять истину теоремы Гёделя, а компьютер — нет. И потому наш мозг — что угодно, а не просто машина».

«Помните, скоты, что вы — люди!»

Знаменитый эксперимент Бенджамина Либета, впервые проведенный в 1973 году, показал, что мозг человека формирует сигналы решения задачи задолго до того, как он сам осознает её суть. То есть реагирует, как машина. Но само решение мы принимаем только после того, как наше сознание сделает выбор, то есть поступаем как люди.

Чтобы мы могли физически взаимодействовать с окружающим нас миром, мозг должен очень быстро самостоятельно отличать собственные действия организма от внешних воздействий на него. Он делает это, создавая специальные (эфферентные) копии каждой команды, которые посылает мышцам.

Мы качаем головой вправо-влево, но при этом осознаём, что это раскачивается не мир вокруг нас. Это происходит потому, что эфферентная копия даёт возможность определить сознанию, что наш мозг сам отдал команды на эти движения, хотя сигналы, поступающие в него через зрительный канал, создают другую картину. То есть мы внутри себя без устали проводим сравнение идеальных алгоритмов машины нашего тела с осознанием реальности нашим сознанием.

Разум в голове объединяет сознательное и бессознательное. Наши мысли и действия являются результатом как автоматических, бессознательных процессов, так и осознанного выбора разума.

Но человечество руки не опускает и созданные нами вычислительные машины становятся все сложнее и сложнее. Мы пытаемся опровергнуть теоремы гениального Курта. Приблизить материю к духу. Стать творцами, объединив их. «Ускорим процесс! Даёшь киборгов!», — требуют народные массы.

Для начала Neuralink Маска запускает отличный проект по вживлению чипов в мозги хрюшек. Народу становится слегка не по себе: «Смотрите, это как Fitbit у вас в черепе с маленькими проводами. Здоровая и счастливая свинка с имплантом, который стоит в её голове уже два месяца, и все отлично работает!», — мило улыбаясь говорит Илон.

Потом на Всемирном экономическом форуме в Давосе в январе 2023 года проходит выступление профессора правовой этики Университета Дьюка и футуриста Ниты Фарахани «Готовы ли вы к прозрачности мозга?» Все счастливы и дружно аплодируют.

В мае американское Управление по санитарному надзору за качеством пищевых продуктов и медикаментов (FDA) разрешает Neuralink проводить клинические исследования на людях. Действительно?

Почему все занервничали? Что не так? Это для медицины и ЗОЖ. Вот тут, недалеко к западу от Белгорода, за тридцать с небольшим лет перепрограммировали мозги населению целой страны и без микропроцессоров в голове. Да так качественно, что невзирая на обретение верной смерти на донецких просторах, во всех видеообращениях к своему главному гетманьчику, укрвийськови скулят и жалуются лишь на отсутствие возможностей сдохнуть обученными и хорошо экипированными, согласно стандартам НАТО. Вот если нас обуют, накормят, набьют карманы патронами и гранатами, то готовы заживо сгореть внутри германских панцеров за идеалы заокеанских друзей! После прекрасных результатов на животных чипировать без клинических исследований можно поголовно всех укрвояк. Недоработали. Белых господ время поджимало, вот и погнали стада аборигенов на убой без «железа» в голове.

Мне возразят, что действия каждого отдельного бойца тактического звена оттачивают до инстинктов, доведя навыки до автоматизма. Может быть. Но всё же для военного дела, и особенно оперативно-тактического и стратегического уровня, решающее значение имеет осознанный выбор и решение.

Поясню на сравнении: летчик в кабине боевого истребителя и оператор с джойстиком управления БПЛА в руке. Те, кто сидел за штурвалом, сразу почувствуют разницу в ощущениях, несмотря на то что усилия и пилота, и оператора передаются на органы управления дистанционно через систему каналов связи, усилителей и приводов. Перемещение в пространстве внутри самолёта и удалённое управление дроном из кресла перед экраном отличаются очень сильно.

Кардинально отличаются и ощущения от применения оружия.

А если завтра в кабине не будет пилота, а в кресле перед экраном не будет оператора? Существует ли вероятность появления с помощью нейросети подобия сознания для управления оружием без человека? А право на решение открытия огня на поражение? Возможно ли создание системы справедливого самостоятельного выбора для машин на уничтожение цели? Можно ли вообще доверить это машине и предоставить AI право убивать людей, его создавших? Ведь мы, люди, иные. Мы абсолютно не схожи с созданным нами компьютером, но всё время пытаемся если не сделать его совершеннее себя любимых, то хотя бы уровнять с собой. Зачем?

Но нравственно ли задавать эти вопросы, когда среди нас систематически появляются те, кто осознанно принимает решение действовать во имя абсолютного зла? Экземпляры вроде Гитлера и его своры, создавшие нацистское государство «расового превосходства», жертвами которого стали миллионы убитых промышленным способом в концлагерях и уничтоженных карательными отрядами.

Можно ли оправдать это тем, что тогда не было таких сверхвычислительных возможностей?

А недовласть Украины, понимающая полную бесперспективность дальнейшего существования и продолжающая посылать на верную смерть людей ради личного обогащения и исполнения чужих целей? Компы у хохлов не той модели? А может, у кураторов из-за океана ЦОДы загружены анализом другого контента? Ответ напрашивается сам собой.

На той стороне океана прекрасно осознают, что делают. И такие возможности ИскИну будут предоставлены. Работы идут полным ходом. И наше промедление в этом направлении столь же опасно, как и в деле с атомной бомбой проекта «Манхэттен».

То, что ни в чём не сомневающиеся бывшее «партнёры» попытаются устроить населению России бойню похлеще Хиросимы и Нагасаки, заварив в одном бульоне биологическое оружие вместе с массированным ударом конвенциальными средствами поражения, приправив сверху спутниковым оружием под управлением AI, сомнений нет. Это прямо написано в их концептуальных документах по национальной безопасности.

Процесс запущен

Проанализировав различные прогнозы таких think tank, как RAND Corporation, становится понятно: основные изменения в характере будущих войн, формах и способах применения вооруженных сил будут основываться на достижениях науки и промышленности.

Прорывные технологии в вооружении и военной технике рассматриваются в едином союзе с новыми принципами и способами управления войсками.

Новая сила и мощь требует новых глобальных возможностей управления, и ИИ как инструмент усиления, экзоскелет для мозга как раз очень кстати.

Big Data и machine learning, в котором для военных особый интерес представляет компьютерное зрение, символьные вычисления и логическое программирование, работа с естественными языками и моделирование мыслительных процессов, нелинейное управление в нелинейных системах, каким является наш человеческий социум, — это только некоторые части гигантского массива новой науки под новым мировым брендом «ИИ».

Ранее упомянутая «Национальная стратегии развития искусственного интеллекта на период до 2030 года» определяет ИИ так: «Искусственный интеллект — комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека».

Вот и «Стратегия искусственного интеллекта» как часть американской «Стратегии национальной обороны» констатирует, что ИИ изменит и само общество, и характер будущих войн.

Для конгресса США в ноябре 2020 года был подготовлен отчет по теме «Искусственный интеллект и национальная безопасность» в котором прямо написано, что «главной причиной создания различных систем военного назначения, обладающих ИИ, является необходимость оперативной обработки структурированных и неструктурированных данных огромных объемов (так называемых больших данных), обусловленная постоянным расширением числа, номенклатуры и технических возможностей современных средств добывания информации.

Эти сведения могут представляться в разнообразной форме, включая фото- , видео- и радиолокационные изображения, а также аудио- и текстовые сообщения на разных языках, данные, полученные из киберпространства, и т. д.».

В документе указывается, что ИИ в ближайшем будущем распространится во всех видах боевой и обеспечивающей деятельности вооруженных сил США.

Слова не расходятся с делом, и Министерство обороны Великобритании проводит обмен передовыми технологиями в рамках блока AUKUS по программе Pillar 2 (сотрудничество в высокотехнологичных областях, включая кибернетические возможности, искусственный интеллект, квантовые вычисления, гиперзвук, а также системы противодействия гиперзвуковому оружию).

Инициатором мероприятия выступила британская Лаборатория оборонной науки и техники (DSTL), которая провела «живую переподготовку моделей дронов во время полета и наладила обмен ИИ между участниками AUKUS». Затем её команды разработали модели ИИ и осуществляли управление воздушными и наземными системами друг друга, на которые была возложена задача по идентификации целей.

Для чего готовятся австралийские интеллектуальные рои беспилотных летательных аппаратов? Считается, что они могут стать решающим фактором в тайваньском сценарии.

Ещё в мае 2022 года был опубликован отчет о роях БПЛА, общающихся между собой с помощью распределенной «ячеистой» сети обмена данными с использованием лазеров в пределах прямой видимости. Мгновенный обмен информацией между отдельными дронами делал группу фактически полностью автономной. Мыслящий рой может работать совместно с пилотируемыми стелс-самолетами, увеличивая радиус действия их систем обнаружения и контроля в полной радиоэлектронной тишине. Своим большим количеством они способны загрузить каналы обнаружения радаров противника ложными целями, вынуждая бесполезно расходовать ракеты и снаряды, в то время как пилотируемые самолеты уничтожают вскрытые цели.

Машинное обучение и искусственный интеллект также позволят роям дронов изучать цели с разных ракурсов, перепроверять различные потоки данных целеуказания и предлагать наиболее оптимальный вариант атаки, что позволит наносить удар по наиболее уязвимым точкам на боевых кораблях (ракетные пусковые установки, боевая рубка, антенные решетки РЛС).

Пентагон, воодушевлённый прогрессом технологий автономизации, доказавших свою эффективность в военном конфликте на Украине, приступил к реализации собственной программы «Autonomous Multi-Domain Adaptive Swarms-of-Swarms»(AMASS) по созданию роев беспилотников, которые могут запускаться с моря, воздуха и суши.

Концепция AMASS нацелена на разработку систем управления автономными беспилотниками, работающими совместно для уничтожения вражеских средств ПВО, артиллерийских орудий, ракетных пусковых установок и командных центров, и, скорее всего, результат будет направлен на предотвращение китайского вторжения на Тайвань.

В статье, опубликованной в ноябре 2022 года для Института Хадсона, японский военный эксперт Коичиро Такаги пишет, что ИИ может превзойти человека в скорости принятия решений, ссылаясь при этом на риск молниеносной войны, во время которой противоборствующие системы ИИ запустят неконтролируемую цепную реакцию, что приведет к началу конфликта или даже к запуску ядерных ракет.

Им была отмечена склонность людей доверять искусственному интеллекту в «горячке боя», причем даже при наличии доказательств того, что решения AI неверны. Такаги указывает на то, что на протяжении всей истории войны выигрывались не благодаря превосходству технологий и науки, а благодаря человеческому интеллекту, который использует все эти инструменты. «Будущие военные конфликты будут во многом зависеть не от того, у кого лучше алгоритмы искусственного интеллекта, а от инновационности концепций, использующих его наряду с человеческим интеллектом и креативностью», — таково его мнение.

Яркой иллюстрацией возможных проблем стал недавний инцидент с атакой, которую описал полковник Такер «Синко» Гамильтон при смоделированном испытании, в котором дрону, использующему искусственный интеллект, было рекомендовано уничтожить системы противовоздушной обороны противника, а он атаковал любого, кто мешал этому приказу.

Но и Китай не отстаёт. «План развития систем искусственного интеллекта в Китае», который был принят в 2017 году, определяет, что к 2030 году КНР должна стать мировым лидером в технологии ИИ. Применение искусственного интеллекта определяется, как обязательное условие в области создания и управления военной техникой, вооружениями и проведения боевых операций. Планы не остаются на бумаге.

Университет Уханя в этом году провел эксперимент с участием ИИ и искусственного спутника земли (ИСЗ) для дистанционного зондирования Земли Qimingxing 1. Научный коллектив решил оптимизировать работу спутника, так как анализ показал, что орбитальная группировка Китая из 260 аппаратов для исследования земной поверхности работает не в полную силу и растрачивает свои потенциальные возможности на получение данных, не имеющих практического применения.

Спутники — удовольствие дорогое, срок их службы и ресурс жестко ограничен, а потому распоряжаться небесным стадом надо по-хозяйски.

Кто у нас лучший и рачительный хозяин? А давайте поручим ИИ, чтобы максимально использовать возможности спутника с помощью новых орбитальных приложений?

Для того чтобы получаемые данные были наиболее полезны для клиентов, учёные создали обучаемую модель наподобие большой языковой ChatGPT и ввели в проект параметр свободы выбора на изучение наземных объектов.

В программе применили алгоритм, который сопоставлял взаимосвязь событий не только на основе обучения на базах данных, но и на примере прямого наблюдения за природой и деятельностью человека. Затем управление спутником на одни сутки передали под управление машине, которая и стала самостоятельно выбирать цели для наблюдения. И… сюрприз!

Первым делом нейросеть направила камеры космического аппарата на северо-восток Индии — на город Патна на берегу Ганга, где размещается Бихарский полк. В 2020 году эта воинская часть участвовала в боестолкновении с подразделениями НОАК в спорном приграничном районе.

После чего приоритет был отдан наблюдению за японским портом Осака, где базируются корабли ВМС США.

Вот и рассуждай после этого о беспристрастности.

Наверное, тем, кто создавал китайский аналог ChatGPT перед подключением к управлению спутником, были отнюдь не безразличны вопросы национальной безопасности Китая, если аппарат тут же был отправлен системой проверить обстановку в зоне своей ответственности в местах былых и, возможно, предстоящих боевых операций.

Какой масштаб перспективных космических баталий? По официальным данным ООН, на орбитах находится 10 911 искусственных спутников Земли, и количество объектов на орбите будет только расти. Из этого количества 4 408 на 72 орбитах принадлежат компании Starlink, но Национальное управление военно-космической разведки США (National Reconnaissance Office, NRO) продолжает отрабатывать возможность дополнительного оснащения спутников связи этого типа системами высотного сверхчёткого зондирования поверхности Земли, попутно решая проблему мощности передатчика.

Нужны дополнительные тысячи небесных глаз и ушей, требующих одновременного и согласованного управления. Это не считая космического мусора, столкновения с которым требуется избегать, рассчитывая сотни тысяч траекторий осколков и фрагментов. Никакие ЦУПы не справятся. Только специально созданные самообучаемые алгоритмы.

И опять проблема: выбор, что слышать и видеть, будет проводить сама система? Решать проблему хотят с помощью оператора, который вроде бы должен следить за тем, как будет выполнять поставленные задачи ИИ.

А уверенность, что он всё будет показывать человеку, абсолютная? А человеческое сознание всегда будет понимать модель и логику поведения саморазвивающейся структуры? Но эти вопросы вторичны. Нужно стать первыми. «Чтобы двигаться вперед — нужно бежать в два раза быстрее». Чтобы стать и оставаться первым нужны сверхвысокие скорости и невиданная ранее точность обработки громадного массива данных. И гонка идет.

1983 год — показатель в 1 гигафлопс достигнут суперкомпьютером NEC SX-2. 1996 год — рубеж в 1 триллион флопс в секунду, то есть 1 Тфлопс преодолен машиной ASCI Red. 2008 год — планка в 1 квадриллион флопс, то есть 1 Петафлопс, преодолена моделью IBM Roadrunner Frontie. Этот суперкомпьютер добился скорости в 1 эксафлопс (1 квинтиллион операций в секунду). Frontier Hewlett Packard Enterprise CRAY EX235A — суперкомпьютер, в 2022 году преодолевший рубеж в 1 эксафлопс (1 квинтиллион операций в секунду). В работе с ИИ на первом месте, практически достигая скорости в 7 ExaFLOPS. Установлен в Ок-Риджской национальной лаборатории США. В Китае введены в эксплуатацию компьютеры OceanLight и Tianhe-3, набирающие в тесте LinPack скорости 1.05 и 1.3 ExaFLOPS.

Есть ли в топах российские машины? Да, на 25-м месте с ноября 2022 года в рейтинге появилась машина «Яндекса» — «Червоненкис». Используется преимущественно для работы с нейронными сетями. Внутри нашей машины вся начинка импортная — графические процессоры NVIDIA A100 вместе с AMD EPYC 7702.

В мировых лидерах еще две российские машины от «Яндекса»: 16-петафлопсный «Галушкин» (44 место) и 12,8-петафлопсный «Ляпунов» (47 место). В 2019 и 2021 году появились два изделия у Сбербанка России: Christofari (87 место) и Christofari Neo (50 место).

Мировыми лидерами и по мощности, и по количеству машин являются Китай (около 170 машин) и США (почти 150), с отставанием — Япония, Германия, Франция и Нидерланды.

Часть систем в рейтинге не учитывается, так как используются странами в интересах государственной безопасности. В России такая машина стоит в Национальном центре управления обороной. Известно, что производительность составляет 16 Пфлоп/с. и значит, машина МО РФ входит в пятьдесят самых мощных в мире.

Американцы в военно-компьютерной сфере не отстают. По сообщению Datacenter Dynamics, Центр суперкомпьютерных ресурсов Министерства обороны США, в апреле этого года, после завершения испытаний, получил новую НРС — систему под названием Nautilus: она расположилась в Космическом центре имени Джона Стенниса. Кроме того, Центр Navy DSRC модернизировал другой свой суперкомпьютер — систему Narwhal. Обновлённый монстр оперирует 308 480 ядрами с пиковой производительностью в 13,6 Пфлопс.

И это только часть обнародованной Программы модернизации высокопроизводительных вычислений (HPCMP) Министерства обороны США для моделирования климата, выполнении исследований в области гидродинамики, химии и других крайне полезных для человечества отраслях знаний.

А вы о чём подумали — о войне?

Современный компьютер создавался, как средство для автоматизации расчетных работ. Сегодня машину используют для «оживления» различных моделей, как существующих физически, так и виртуальных. При этом непосредственно расчетное использование пытаются свести к минимуму.

Создание программного обеспечения базируется на математических принципах, что создает проблемы для разрешения задач, не связанных с чистой математикой. Все ждут революционных изменений существующей парадигмы и снятия как бы искусственных ограничений (адресное пространство, последовательность исполнения команд, разрядность данных и многое другое).

Но разработать интеллект in silico пока не получилось. На эту роль начинают пробовать квантовый компьютер. Да, он предназначен для решения специфического круга задач, отличающихся от тех, которые решают стандартные машины, и до недавнего времени для проецирования фотонов задействовали внешние лазерные установки, которые были слишком громоздкими для применения за пределами лаборатории.

Проблему пытаются устранить за счёт источников света, интегрируемых прямо в микросхему. Такое решение не только занимает минимум места, но и обеспечивает лучшую стабильность.

Пример: нидерландская компания QuiX Quantum ещё в 2021 году продала свои 8- и 64-кубитные процессоры Немецкому центру авиации и космонавтики. В прошлом году совместная команда специалистов Ганноверского университета имени Лейбница и QuiX Quantum создала прототип устройства с полностью интегрированным источником света, которое самостоятельно генерирует запутанные фотоны для квантовых вычислений. Заявляется, что новая технология позволила уменьшить размер источника более чем в 1 000 раз с необходимой стабильностью для масштабирования и массового производства. Для этого применили гибридную технологию, которая объединила на одной платформе лазер из фосфида индия, фильтр и резонатор из нитрида кремния.

При решении задачи микроминиатюризации были преодолены и проблемы сверхчувствительности кубитов к шуму, что можно считать (если это действительно правда, а не реклама) серьезным шагом к квантовому преимуществу чипа с фотонами.

В отличие от исследований Google, который в настоящее время использует сверххолодные кубиты в криогенных системах, квантовое преимущество с помощью фотонных систем на микроплатформе может быть достигнуто при комнатной температуре.

Каковы перспективы у такой системы, если предположить, что удалось добиться заявленного результата? Это решить проблемы и с потребляемой мощностью, и размерами, и скоростью, и сложностью возможных вычислений. В том же объёме пространства корпуса дрона можно будет разместить вычислительную машину в сотни тысяч раз более эффективную и одновременно выполняющую большее количество различных задач. Появится новая генерация сообщества умеющих рассуждать разумно. Созданных человеком. Быстрых, автономных, смертельных, бесчувственных.

Для войны людей космос, воздух, земля и вода требуют новых решений. И выбора нам бывшие «партнеры» не оставили.

Михаил Поспелов,

Источник

                          
Чат в TELEGRAM:  t.me/+9Wotlf_WTEFkYmIy

Playmarket

5 1 голос
Рейтинг статьи
Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии