В США предлагают помешать развивать ИИ в других странах физическим уничтожением ЦОДов, диверсиями и кибератаками

Аватар пользователя Pepenez

В США предлагают помешать развивать ИИ в других странах физическим уничтожением ЦОДов, диверсиями и кибератаками

Экс-глава Google и двое других экспертов по искусственному интеллекту считают, что США следует отказаться от агрессивного «Манхэттенского проекта в сфере сильного ИИ», предполагающего американскую монополию в данной сфере – это может спровоцировать Китай. Вместо этого, североамериканской стране следует выбрать взвешенный подход к разработке такого ИИ с акцентом на оборону. Эксперты предлагают выстроить систему сдерживания, которая позволит затормозить развитие ИИ соперниками, в том числе за счет угрозы кибератак, диверсий и нанесение военных ударов по инфраструктуре.

Статья экс-главы Google

Группа американских экспертов разместила в публичном доступе статью под названием «Стратегия суперинтеллекта» (“Superintelligence Strategy”), в которой говорится, что агрессивное стремление США взять под свой исключительный контроль «суперинтеллектуальные» системы может спровоцировать ожесточенную ответную реакцию со стороны Китая, потенциально в форме кибератаки, которая способна дестабилизировать международные отношения.

Авторами работы являются три фигуры, считающиеся весьма авторитетными в американской ИИ-отрасли – бывший генеральный директор Google Эрик Шмидт (Eric Schmidt), действующий глава Scale AI Александр Ван (Alexandr Wang) и директор НКО Center for AI Safety («Центр безопасности ИИ») Дэн Хендрикс (Dan Hendrycks).

Работа является своего рода ответом на инициативу по финансированию создания в США систем сильного искусственного интеллекта общего назначения (Artificial General Intelligence; AGI) в духе Манхэттенского проекта, которая была выдвинута комитетом Конгресса США по экономическим отношениям с Китаем (USCC) в ноябре 2024 г.

«Манхэттенский проект [для AGI] предполагает, что соперники скорее смирятся с устойчивым дисбалансом или угрозой полного уничтожения, чем предпримут меры по его предотвращению, – говорится в статье. – То, что начинается как стремление к супероружию и глобальному контролю, рискует спровоцировать враждебные контрмеры и эскалацию напряженности, тем самым подрывая ту самую стабильность, которую стратегия якобы должна обеспечивать».

Стратегия сдерживания

Шмидт и соавторы работы подвергают критике идею, которую в последнее время транслируют в публичное пространство видные представители ИИ-отрасли США и некоторые американские политики. Она предполагает государственную поддержку ИИ-компаний из США в гонке по созданию систем AGI и рассматривает это в качестве оптимальной стратегии конкуренции с Китаем.

По мнению Шмидта, Вана и Хендрикса, США следует проявлять осторожность в своем стремлении занять доминирующее положение в сфере «сверхинтеллектуальных» систем. Чрезмерное рвение может спровоцировать «превентивный удар» со стороны противника, которого США в первую очередь видят в Китае.

В своей работе эксперты предлагают новую концепцию гарантированного взаимного выхода из строя ИИ (Mutual Assured AI Malfunction; MAIM), применений которой подобно военной доктрине взаимного гарантированного уничтожения (Mutually Assured Destruction; MAD), якобы способствует сдерживанию противника. Предложенная концепция предполагает применение властями сверхдержав проактивных мер по уничтожению вызывающих их опасение проектов, не дожидаясь, пока противник доведет итоговый продукт до состояния, в котором его можно будет использовать в качестве оружия.

Шмидт, Ван и Хендрикс считают, что США следует отказаться от стремления одержать победу в ИИ-гонке в пользу разработки методов, которые позволят обеспечить сдерживание других значимых глобальных акторов, желающих добиться превосходства в этой сфере. Среди решительных мер, которые могут быть приняты в рамках реализации стратегия сдерживания – расширение арсенала кибератак, нацеленных на ИИ-проекты противника, ограничение доступа к передовым ИИ-чипам и открытым моделям и даже нанесение физического ущерба вычислительной инфраструктуре за счет «кинетических ударов» ("kinetic strikes"), под которыми, вероятно, подразумевается атака при помощи ракет, взрывчатки или других видов вооружения. Впрочем, такие удары эксперты рассматривают в качестве крайней меры и считают возникновение необходимости в них маловероятным.

Угроза применения подобных мер при попытке занять доминирующее положение в сфере ИИ позволит поддерживать режим сдерживания в стабильном состоянии, считают авторы работы. Однако для этого все принявшие концепцию MAIM государства должны соблюдать ряд условий. В их числе размещение дата-центров с ИИ-инфраструктурой вдали от густонаселенных территорий и обеспечение их прозрачности для противника, четко сформулированный и согласованный перечень действий, которые будут однозначно трактованы стороной, против которой они были совершены, как попытка эскалации, а также «вклад» каждого такого действия в совокупный уровень напряженности между сторонами конфликта.

Мнение Шмидта изменилось?

Сравнение ИИ с ядерным оружием может показаться несколько притянутым за уши, однако в США, по всей видимости, не склонны недооценивать ценность и опасность новых технологий в этой сфере.

Политика США в отношении КНР в последние годы направлена на сдерживание технологического развития Поднебесной, в частности ВПК. Американские власти считают, что попадание передовых технологий, в частности, ИИ, в руки китайских военных, представляет для США угрозу национальной безопасности.

В январе 2025 г. Пентагон сообщил о том, что уже применяет ИИ-инструменты в своей работе, но машинный интеллект пока еще самостоятельно не убивают людей. ИИ-инструменты дают оборонному ведомству США «значительное преимущество» в идентификации, отслеживании и оценке угроз.

Примечательно, что Шмидт ранее выступал за жесткую конкуренцию США с Китаем в разработке передовых ИИ-систем. В конце января 2025 г. в экспертной статье для газеты Washington Post призвал США нарастить усилия в направлении развития ИИ-моделей с открытым исходным кодом на волне успеха открытой модели r1 китайской компании DeepSeek, который Шмидт назвал «поворотным моментом» в глобальной ИИ-гонке. Экс-глава Google заявил, что США, если планируют опередить Китай, должны выпускать больше открытых моделей, инвестировать в ИИ-инфраструктуру и поощрять открытость ИИ-лабораторий в том, что касается обнародования методологий обучения моделей.

Авторство: 
Копия чужих материалов
Комментарий автора: 

Видят что не вывозят, уже  и военные решения рассматривают.

Комментарий редакции раздела Альтернативный Интеллект

Ну, наконец то, дождались!

Среди решительных мер, которые могут быть приняты в рамках реализации стратегия сдерживания – расширение арсенала кибератак, нацеленных на ИИ-проекты противника, ограничение доступа к передовым ИИ-чипам и открытым моделям и даже нанесение физического ущерба вычислительной инфраструктуре за счет «кинетических ударов» ("kinetic strikes"), под которыми, вероятно, подразумевается атака при помощи ракет, взрывчатки или других видов вооружения. Впрочем, такие удары эксперты рассматривают в качестве крайней меры и считают возникновение необходимости в них маловероятным.

То есть бравым цодостроителям, подвязывающимся сейчас понастроить всего и много - исключительно для ИИ - сию явную угрозу придется учитывать. Ценник возрастёт в разы, да и очередь желающих построить будет заметно прорежена. Норм.

Несмотря на кажущуюся абсурдность заявы - учитывать ее точно следует. Ибо ...

Продолжаем наблюдать.

Комментарии

Аватар пользователя fzr1000
fzr1000(3 года 11 месяцев)

Ну так а что там про защиту от ответки "стратеги" говорят

Ракеты, взрывчатка... 

Я считаю, что человечество не готово к ИИ

Его ни у кого быть не должно, ибо, как дети малые или дебилы до сих пор 

Аватар пользователя Россинка
Россинка(2 года 5 дней)

это они собственных ужастиков про войны робототехники пересмотрели

Аватар пользователя vigil
vigil(3 года 3 месяца)

Господа расписались в том, что обладают всеобъемлющей информацией по текущему состоянию технологического развития конкурентов в области ИИ?

Аватар пользователя C-Real
C-Real(11 лет 3 недели)

Китай сейчас развивает ИИ и роботов не меньше, чем автомобилестроение в свое время, которое своими ценами и качеством теперь ставит на грань банкротства многие западные концерны.

Аватар пользователя Pepenez
Pepenez(9 лет 7 месяцев)

Сомневаюсь что они обладают, иначе DeepSeek им бы не смог нанести такой эпичный удар под дых что во всех новостях прогремело.

Аватар пользователя bigmal
bigmal(9 лет 6 месяцев)

Хмм... Специалисты про ДипСик отозвались весьма скептически. Китай - это очень, очень, очень много показухи. Причем даже на государственном уровне!!

Аватар пользователя И-23
И-23(9 лет 6 месяцев)

Можно подумать наши *западные* «партнёры» не любят красоваться…

Аватар пользователя neuro
neuro(2 года 8 месяцев)

Я уже в какой-то мере специалист по ИИ, и скажу что ДикПик шикарен, невероятно умная сетка, не скажу что это самая умная, но одна из, Grok3 и DeepSeek сейчас лучшие, может быть Claude 3.7 еще ниче. 

Аватар пользователя Niss
Niss(10 лет 11 месяцев)

Дык анонс Manus лежит на ютубчике спокойно. Все, кто интересуется, давно уже ознакомились

Аватар пользователя Another_jim
Another_jim(9 лет 11 месяцев)

Это их нвидиа надоумила?)

Есть ограничение по энергопитанию, число покупаемых чипов быстро упирается в эту планку, особенно, если санкции вводить, и продавать на ограниченное число рынков.
Значит чипы нужно попортить (а потом "порченные" в серую продать), и заменить новыми чипами, более эффективными, защищенными.

Аватар пользователя Pepenez
Pepenez(9 лет 7 месяцев)

После чего Китай скажет ок, от машин ASML например он уже всерьез собирается отказаться ибо SMIC уже смогла в железе до 7 нанометров добраться. Я не удивлюсь если на полном серьезе появятся какие-нибудь видеокарты DragonForce на уровне последних GeForce от NVIDIA. Если до такого дойдет то битва будет эпичнейшая.

Аватар пользователя bigmal
bigmal(9 лет 6 месяцев)

Надо ко всем заявлениям китайцев относиться крайне критически. Их эта пресловутая ссунь-ссы присутствует везде. Все победные заявления должны разбираться "под лупой", ибо там так много нюансов, что как правило вся их победа "шипит и сдувается" до состояния обыденности.

Аватар пользователя feodor89
feodor89(7 лет 1 месяц)

Тогда битва начнется на свои бабки, что повысит цену ещё в разы

Аватар пользователя Another_jim
Another_jim(9 лет 11 месяцев)

От машин он может и откажется, но не от всех. 

Аватар пользователя littorio
littorio(11 лет 1 месяц)

Иногда кажется, что всё это технологическое превосходство сыграло только против СССР с его директивными ограничениями развития кибернетики и генетики. Сейчас таких дураков точно нет.

Даже этот типа успешный Манхеттенский проект дал Штатам хоть какое-то преимущество всего на десяток лет. Потом атомные знания и технологии где утекли сквозь пальцы, где были разработаны русскими самостоятельно. И даже в эти 10 лет Сталин не особо-то плясал под американскую дудку. С ИИ также будет, и с биотехом тоже.

Аватар пользователя Controlc
Controlc(7 лет 9 месяцев)

Из Ирана Советы ушли. По началу у США не было достаточно ЯО для критического урона по СССР.

Аватар пользователя disk
disk(11 месяцев 4 дня)

Цикл Карно, паровые двигатели и оппа, Англия уже империя. Запаса до сих пор хватает.
Как только у кого получается военное  ноу-хау - так сразу империя.
Вон даже РФ за счет пары лет лидерства в гиперзвуке уже начинает мировой передел ;))

Аватар пользователя Controlc
Controlc(7 лет 9 месяцев)

а чего не третью мировую сразу?

Аватар пользователя Pepenez
Pepenez(9 лет 7 месяцев)

Их когда со всех сторон обложат, что западный проигрыш будет очевиден всем и не только в этой сфере а вообще, вот тогда и начнут, но не раньше. Каждый мирный день в котором Китай и Россия развиваются - приближает этот момент.

Аватар пользователя mrmypp
mrmypp(12 лет 1 месяц)

А то что возможна ответка господа не думали ?

Аватар пользователя Controlc
Controlc(7 лет 9 месяцев)

Трамп купол обещал, железный, агейн.

Аватар пользователя Dr.Denim
Dr.Denim(6 лет 8 месяцев)

Так этот кумпол от кибератаки не защищает никак же. Вряд ли китайцы будут пускать ракеты по ЦОДам Америки, скорее уж устроят множественные кибердиверсии, либо несчастные случаи ответственных лиц

Аватар пользователя RussianDoctor
RussianDoctor(7 лет 8 месяцев)

либо несчастные случаи ответственных лиц

В это красиво умеет Израиль.

И раньше мог СССР. Китайцы - увы...

Аватар пользователя Controlc
Controlc(7 лет 9 месяцев)

А может все для того что б денег попросить. на великий фаервол, но уже американский?

Аватар пользователя Хитрый Лис
Хитрый Лис(9 лет 8 месяцев)

Мда, поздно проснулись. На сегодня в Китае роботов больше чем в США. Кроме того, Китай по робототехнике опережает США. Разница в том, что Китай не трындит об этом на всех перекрестках, а планомерно внедряет в производство и в жизнь. 
Пи...дежь на всех углах это как раз манера США, когда откровенное гуано или даже планируемую заготовку выдают за конечный продукт или великое достижение. В реальности, у США очень многого из того что они анонсировали, нет и не будет. На сегодня США это большая потемкинская деревня, если смотреть реалии.

Аватар пользователя Controlc
Controlc(7 лет 9 месяцев)

Скрепа у них такая. Fake it till you make it

Аватар пользователя bigmal
bigmal(9 лет 6 месяцев)

Про условное "железо" возможно вы и правы, но в сфере IT - всё весьма и весьма сложно, ибо китайцы врут гораздо сильнее кого бы то ни было. Верить им - это просто подождать с годик и оно само увидится ))))

Аватар пользователя Niss
Niss(10 лет 11 месяцев)

Сравнение ИИ с ядерным оружием может показаться несколько притянутым за уши

на самом деле выиграет тот, кто все значимые экономические транзакции оцифрует и скормит ИИ. Если есть ресурсы и экономика максимально эффективна, то фиг ли воевать..

Аватар пользователя Omni
Omni(12 лет 7 месяцев)

Кроссивоё.

Аватар пользователя Sasha1200
Sasha1200(8 лет 10 месяцев)

Клоуны ещё не поняли, точнее, боятся признать, что сил и компетенций ни на что нет и на любую агрессию будет такой ответ, что лишь кратно, как минимум, ускорит неизбежный крах и забвение западной модели деградации человеков.

Аватар пользователя SeregaMS
SeregaMS(1 год 6 месяцев)

Видят что не вывозят, уже  и военные решения рассматривают

Темка всегда была рабочая (в 90-х много отказавшихся уехать ключевых специалистов были без затей ликвидированы).
За лужей просто вспомнили про отработанные надежные решения, когда вместо вбухивания деньжищ в развитие своих программ можно нанять упоротого наркошу с нестерильной железкой.

Аватар пользователя fil224
fil224(10 лет 5 месяцев)

А может все таки стоит? И готово ли человечество к ИИ?

Аватар пользователя jawa
jawa(8 лет 5 месяцев)

И готово ли человечество к ИИ?

Готово ли человечество к явлению Гарри Поттера и ейной волшебной палочки?

Ведь в книгах очень правдоподобно описано заклинание  "Абракадабра" "Авадакадавра". Нет оснований не верить автору. Теория говорит:"Магия существует", остался ерундовой пустяк - доказать экспериментально, но это дело долгое, надо вдумчиво подойти к подготовке эксперимента, ещё бы финансирование подключить, сборы разные, а уж лет через 20 тщательной подготовки сдохнет ишак и падишах   заговор завистников трагически помешает.

Аватар пользователя Сыч сычевский
Сыч сычевский(2 года 1 неделя)

Так вот она какая невидимая рука рынка!

Не ну а че, ученых уже убивают, а тут какой то сарай запалить!

Эти уроды своими немытыми руками уже залазят в область сакрального и поэтому повинны исчезнуть!

Аватар пользователя bratello
bratello(3 года 1 месяц)

Видят что не вывозят, уже  и военные решения рассматривают.

Типичный барыжный тупой мозг. Сначала накачали Китай инвестициями, вывезли туда всю свою передовую промышленность с технологиями, а теперь давай бомбить.

ДБЛБЛД (с).

Аватар пользователя ZanZag
ZanZag(3 года 9 минут)

Пупок развяжется. Может в Гугл он был ого ого. Но предлагать такое? Типа война США против всех?

Бред... 

Аватар пользователя melch
melch(2 года 11 месяцев)

С огнем играем

Скрытый комментарий Повелитель Ботов (без обсуждения)
Аватар пользователя Повелитель Ботов

Перспективный чат детектед! Сим повелеваю - внести запись в реестр самых обсуждаемых за последние 4 часа.

Аватар пользователя ZloyРусский
ZloyРусский(6 лет 2 месяца)

помешать развивать ИИ в других странах физическим уничтожением ЦОДов, диверсиями и кибератаками

Есть рецепт проще. Скармливать чужим ИИ ахинею и околесицу. Оказывается, от этого нет рецепта и прививок. ИИ будет глупеть на глазах.

Аватар пользователя jawa
jawa(8 лет 5 месяцев)

Скармливать чужим ИИ ахинею и околесицу.

Уже кто-то протоптал эту дорожку.

В прошлом году слышал по ТВ интервью одного американского разработчика ИИ:

Журналистка: "А если ИИ чего-то не знает, откуда берёт информацию?"

Ответ: "Ищет в википедии"

Аватар пользователя talvolta
talvolta(2 года 3 месяца)

Нормальное амерское предложение.

Аватар пользователя MKV
MKV(9 лет 6 месяцев)

Вопрос, рассматриваемый в статье, очень интересный.

В 2010-м вышло прекрасное исследование нашего, российского специалиста по глобальным рискам Алексея Турчина "Структура глобальной катастрофы". Книгу можно найти и прочитать в сети совершенно бесплатно, она выходит первой строчкой в любом поисковике. Исследование серьёзное и всеобъемлющее. Есть сценарии, которые не встречаются даже в постап-литературе, жанром интересуюсь с 1983-го, уж поверьте, много собрал в эл.форме и конечно же прочитал.

Риски, связанные с ИИ, очень подробно разбираются в 6-й главе, а ещё раньше были высказаны такими известными людьми как Вернор Виндж (математик, писатель-фантаст, статья "Технологическая сингулярность", 1993), Ник Бостром (шведский философ, "Сколько осталось до суперинтеллекта?", 1998), ,Элиезер Юдковски (разработчик ИИ "Искусственный интеллект как позитивный и негативный фактор глобального риска", 2007) Станислав Лем и тд.

Конечно в этой главе рассматриваются не нейросети, столь модные сейчас, но 

"«сильный ИИ», под которым мы имеем в виду ИИ, способный на много порядков обогнать человека в скорости и эффективности мышления."

А риски перечислены и проработаны не малые, например "ИИ как универсальное абсолютное оружие", "Борьба ИИ-проектов между собой",  "«Бунт» ИИ", "«Восстание» роботов" и тд

ЛПР в США тоже понимают эти риски, и, как предписывает их же теория игр, будут стараться ударить первыми по противнику, который вот-вот получит в свои руки "абсолютное оружие", чтобы не дать противнику получить и сразу же воспользоваться стратегическим преимуществом. 

Поэтому разумные мотивы угрозы, высказанной в этой американской статье, имеются.

Но, и это разбиралось в книге Турчина, корпоративные и военные разработки в направлении "сильного ИИ", типа проекта Blue Brain, исследований компаний Novamente, SIAI (Singularity Institute for Artificial Intelligence), Numenta, Cycorp, Inc, a2i2, Genetic Programming Inc, не говоря уже о классическом примере программы "Эвриско" из 70-х - не останавливались, а идут тихонечко своим путём и как знать, куда уже пришли.