AGI как новое супероружие: США готовят свой "Манхэттенский проект" в сфере ИИ

Аватар пользователя ИBАНЫЧ

Сегодня был опубликован любопытный документ (https://t.me/darpaandcia/390?comment=1702) - свежий отчет американской Комиссии по отношениям с Китаем. На первый взгляд - обычная бюрократическая рутина. Но стоит копнуть глубже, и картина вырисовывается интересная.

Начинается все громко - с предложения (https://t.me/darpaandcia/390?comment=1703) запустить программу разработки Искусственного Общего Интеллекта (AGI) в духе "Манхэттенского проекта". Того самого, в рамках которого США создали первую атомную бомбу. Само сравнение весьма красноречиво показывает, насколько серьезно американский истеблишмент относится к гонке за AGI*.

Комиссия, подготовившая отчет, - не просто очередной аналитический центр. Созданная в 2000 году, она напрямую работает на Конгресс США, минуя исполнительную власть. 12 человек, меняющиеся каждые два года, регулярно выдают рекомендации, которые потом часто превращаются в реальные законы.

Любопытно взглянуть на частоту упоминаний разных тем в отчете:

•  Россия - 493 раза
•  Искусственный интеллект (AI) - 548 раз
•  Война - 649 раз
•  Военные действия - 84 раза
•  Санкции - 299 раз
•  NVIDIA - 73 раза
•  AGI - 13 раз
•  "Манхэттенский проект" - 3 раза

Казалось бы, отчет про Китай, но Россия упоминается почти 500 раз - похоже, в Вашингтоне всерьез обеспокоены сближением Москвы и Пекина.
Особенно показательно сравнение частоты упоминаний NVIDIA (73 раза) и AGI (13 раз). При том, что создание AGI объявлено приоритетом уровня "Манхэттенского проекта", гораздо больше внимания уделяется контролю над конкретными технологиями и компаниями. Это может говорить о том, что реальной целью является не столько технологический прорыв, сколько сохранение технологического доминирования США через контроль ключевых компонентов.

В целом, документ демонстрирует, что американские элиты всерьез обеспокоены утратой технологического лидерства и готовы использовать весь спектр инструментов - от масштабных государственных программ до санкций - для сохранения своих позиций.


*AGI (Artificial General Intelligence), или Искусственный Общий Интеллект, — это гипотетическая форма искусственного интеллекта, способная выполнять практически любые интеллектуальные задачи на уровне человека или даже лучше. Современные системы ИИ хорошо справляются только со специфическими задачами, тогда как AGI сможет, подобно человеку, обучаться новым навыкам и применять свои знания в различных областях.
 

Авторство: 
Копия чужих материалов

Комментарии

Аватар пользователя amfoed
amfoed(9 лет 10 месяцев)

Skynet родится

Аватар пользователя tiriet
tiriet(11 лет 8 месяцев)

 Комиссии по отношениям с Китаем

картина вырисовывается интересная

запустить программу разработки Искусственного Общего Интеллекта (AGI) в духе "Манхэттенского проекта"

Вот я Вас поддерживаю в том, что картина вырисовывается крайне интересная. Комиссия по отношениям с Китаем- это какая-то экономическо-политическа тусовка гуманитариев. Манхэттенский проект-  это чисто инженерный проект с почти гарантированным результатом: деление ядра было известно, выброс энергии при этом был установлен экспериментально, цепная реакция была проверена экспериментально, суть проекта была в том, что нужно было наработать энное количество обогащенного урана и убедиться, что он рванет согласно имеющимся расчетам- согласно имеющимся надежным обоснованным расчетам и вполне себе удовлетворительному к тому времени пониманию процесса. Главная задача проекта- именно наработать необходимое количество изотопов и разделить их- чистая незамутненная инженерия и производство. И занимались этим делом (от предложения проекта и до полного его завершения) инженеры, ученые и военные, прекрасно понимавшие предметную область и суть поставленных перед ними задач.

Здесь же экономисты и юристы лезут в область математики и каких-то еще даже не имеющих внятного названия наук, вообще без понимания даже у специалистов, как этот AGI выродить, без каких-либо наметков на положительное завершение проекта и без какой-либо картинки в собственных башках, куда они вообще лезут и что там вообще искать и какой с этого в случае успеха будет выхлоп и практический результат. Это очень-очень интересная картина! это какой-то "Крестовый поход детей", только на новом витке развития общества.

P.S. состав комиссии указан в конце сабжевого документа. ни одного датасатаниста, ни одного AI/AGI developer'а, одни экономи анд трейд и внешние связи и безопасность.

Аватар пользователя Хитрый Лис
Хитрый Лис(9 лет 4 месяца)

А-ха, а как вы хотели, чтоб вам отчет дали ? Да еще детальный ? Уже то, что выложили предварительную экономическую оценку, вообще удивительно. Проекты такого рода обкладывают степенями секретности. И только по факту выдают доской по башке.
Это конечно, если они серьезно озаботились и реально поняли важность этого инструмента. Если нет, то документы по теме будут выползать регулярно и превратится все это в очередной попил бюджета без особого результата.

Аватар пользователя Прапор
Прапор(7 лет 5 месяцев)

Не согласен. То, что гуманитарии начали обсуждать данную тему, это головотяпство современной американской системы власти. Как известно, болтун - находка для шпиона...

Инженеры и военные молчат, потому что заняты и понимают слово "секретность"...

Вот если проект "взлетит" то это прямо Новый Манхэттенский Проект. Вообразите, что мы смеялись над нашим Байкалом. А по факту вся архитектура, построенная на основе Nvidia и AMD, окажется не просто проницаема, так и ещё полностью удаленно управляема. Сколько закладок на аппаратном уровне даже представить сложно...

Аватар пользователя qwweer
qwweer(9 лет 3 месяца)

Перед Манхэттенским проектом начали секретить все смежные разработки. Его и начали то во многом потому, что по отсутствию информации поняли, что у немцев что-то начало получаться. О разработках по ИИ кричат из каждого утюга, а часть проектов вообще опенсорсные и результаты там впоне на уровне коммерческих. Пока в этом деле больше хайпа и денег.

Нет, что-то, что разгрузит людей от рутины вполне может получиться (хотя мой опыт в использовании его в разработке ПО пока негативный), но AGI и сингулярность это всё же про то, что он сам себе начнёт придумывать новые чипы и алгоритмы, а попутно, походя, изобретёт холодный термояд, гиперпространственный двигатель и киберов-уборщиков.

Аватар пользователя aigo
aigo(5 лет 6 месяцев)

Раньше важная информация скрывалась через секретность, отсутствие информации.

Сейчас важная информация скрывается иначе - через избыток информации, причём не только мусорной, но и реальной, смешанной с дезой, ложными направлениями.

Работать в ит и не понимать этого - ну, мягко говоря, странно.

Аватар пользователя qwweer
qwweer(9 лет 3 месяца)

Мы, вообще-то, обсуждаем новость о том, что американцы прямым текстом говорят "давайте устроим новый Манхэттэнский проект для ИИ". Что именно можно скрыть таким образом? Что у них ИИ успешно создан ещё 5 лет назад и его зовут Джо? Как деза это имеет ценность только в том случае, если они точно уверены что общий ИИ - пустышка и пытаются заставить Китай впустую вбухать в его разработку кучу ресурсов. Вот в такое я вполне готов поверить.

Аватар пользователя Holzer
Holzer(8 лет 10 месяцев)

Перед Манхэттенским проектом начали секретить все смежные разработки. Его и начали то во многом потому, что по отсутствию информации поняли, что у немцев что-то начало получаться.

Вернер Гейзенберг сообщил о начале работы немецкого Uranverein Нильсу Бору. В своей автобиографии Гейзенберг пишет, что говорил на эту тему чуть ли не со всеми знакомыми физиками, призывая их не делать атомную бомбу в условиях мировой войны.

Так что американцы были в курсе начала работы. Но американские физики решили таки бомбу сделать. Про наших физиков Гейзенберг ничего не пишет, но, судя по отказу Капицы начать работы в этом направлении, они согласились с Гейзенбергом бомбу не делать. В эту пользу свидетельствует тот факт, что после войны, когда западные ученые подвергали Гейзенберга презрением, наши выказывали ему почтение и делали совместные работы.

Аватар пользователя Fvwm
Fvwm(12 лет 10 месяцев)

Манхэттенский проект-  это чисто инженерный проект с почти гарантированным результатом: деление ядра было известно, выброс энергии при этом был установлен экспериментально

ИИ это тоже инженерный проект с гарантированным результатом: технологии распознавания есть, технологии автоматического управления есть, игровые технологии есть

осталось всё соединить, отработать, поставить на вооружение, обучить военных и в конце варианта применить против противника, отставшего в развитии

а самой "новости" уж больше года точно, как минимум в прошлом октябре уже были заявления по реализации Манхэттена-2

Аватар пользователя Хитрый Лис
Хитрый Лис(9 лет 4 месяца)

На мой взгляд, важность псевдоИИ (псевдо, потому что о настоящем ИИ речь в принципе не может идти на данном этапе, для тех кто понимает ессно суть вопроса) недооценивают. Между тем, почти в любой области, основные затраты приходятся на рутинные, повторяющиеся операции в процессе которых появление ошибок - норма. Ошибки имеют свойство накапливаться, что приводит к критическому искажению или ошибочности конечного результата. Примеров масса, поэтому приводить не буду. Это человеческий фактор. Скорость обработки плюс исключение человеческого фактора позволит на порядки ускорить решение задач. Во всех областях. Это и  обработка разведывательной информации, сфера управления и контроля,  конструкторская работа, наука, производство и т.д. Даже банальная экономия на учете товаров позволит сэкономить миллиарды. "Кто владеет информацией, тот правит миром". Т.ч. на мой взгляд, это даже не Манхэттенский проект, это круче. К слову говоря, реализовать подобное, могут считанные единицы государств на Земле. Той-же Британии или Испании это уже не по силам, по ряду причин. Германия-Франция с трудом проходят по критериям, ессно если вовремя одумаются (что не наблюдается пока). Китай  точно проходит, Индия, с тормозами но пройдет скорее всего. Может еще Индонезия и Бразилия. Остальные под большим-большим вопросом.

Аватар пользователя qwweer
qwweer(9 лет 3 месяца)

Пока у ИИ есть собственный "фактор", как бы даже не более серьёзный чем у человека. Он ошибается, может, и реже, но к человеческим ошибкам мы более менее привыкли и примерно представляем как их искать. ИИшные гораздо коварнее - там где у человека арифметические ошибки или описки у ИИ может быть совершенно корректное и аккуратное решение построенное на абсолютно неверной логике. Что-то типа гениального, но безумного учёного, который идеально сформулировал теорию, аккуратно вывел доказательство, верно проделал все математические выкладки, но изначально исходил из того, что Гарри Поттер - документальное произведение и всё им выведенное - на самом деле теория магии.

Аватар пользователя Хитрый Лис
Хитрый Лис(9 лет 4 месяца)

Однако - да. Согласен. Есть такое. Поэтому псевдоИИ. И человек должен быть в качестве последней инстанции. Однако, отказываться от такого инструмента из-за возможных ошибок, тоже нельзя. В человеческой обработке их на порядок, а то и порядки больше. Я уж не говорю о факторе времени, который бывает критичнее всего остального. 

Аватар пользователя Holzer
Holzer(8 лет 10 месяцев)

Однако, отказываться от такого инструмента из-за возможных ошибок, тоже нельзя.

Возможно, мы открываем дверь тому, кто нас погубит.

Аватар пользователя Medved075
Medved075(6 лет 10 месяцев)

Какие еще "любые задачи"...

Очередное "Алиса, нагрей мне ведро воды!" :)

Аватар пользователя Fvwm
Fvwm(12 лет 10 месяцев)

Какие еще "любые задачи"...

вот такие:

дешифровка статических снимков (обычных фотографий, в ИК-диапазоне, с синтезированной аппретурой в СВЧ диапазоне, данных с радаров)

обнаружение движения по видео, по последовательности снимков

распознавание и идентификация целей

целеуказание, наведение и самонаведение

целераспределение (это уже сложнее)

дальше идёт весь список применения теории игр, работы идут с 1970-х, но теперь появился наконец годный инструмент для  их реализации, например как сбить самолёт, который выполняет манёвр уклонения очередью из двух ракет

всё вышеизложенное практически либо готово, либо скоро будет готово

Аватар пользователя mcflyker
mcflyker(12 лет 10 месяцев)

AGI это универсальное и очень мощное средство наблюдения, контроля и управления массами. Теми людьми, кто им пользуется. Поэтому очень перспективно.

Аватар пользователя ДК
ДК(12 лет 1 месяц)

амд теперь делает интегрированные процы с тремя компонентами (вместо двух cpu & gpu) cpu, gpu & npu (ai йадра)
гуглим AMD Ryzen™ AI 9 HX 370.

Аватар пользователя Хитрый Лис
Хитрый Лис(9 лет 4 месяца)

То о чем идет речь и то о чем вы упомянули, суть принципиально разные вещи. Это как сравнивать блок питания отдельного устройства и энергораспределительный узел как минимум областного уровня.

Аватар пользователя 0x31337
0x31337(2 года 7 месяцев)

Я бы отнесся к этому серьёзно, т.к. мы уже на примере Украины видим как старые средства 70х годов обретают новую мощь после модернизации на новых технологиях.

Просто фантазия:

Представьте ситуацию - вся движущаяся техника / дроны (любых годов) имеет связь всех-со-всеми в реальном времени + свой простенький AI достаточный для завершения простого задания в условиях прерванной связи (локальные РЭБ).

Что это значит:

1. Дроны поймавшие цель не остановит РЭБ

2. 1 юнит увидивший цель - сообщит всем, главный надмозг AI приоритизирует важность цели и примет решение за доли секунды

3. Расчет вероятностей на основе данных от всех юнитов на поле боя, т.е. в реальном времени можно расчитать куда каждый из юнитов врага может двинуться с учетом его скорости.

4. Идеальный и динамический баланс сил для каждой операции, можно высвободить на 20-30% больше ресурсов на важные направления тонко балансируя остальные с помощью реально картины на поле боя.

Ну т.е. AI может взять все старое барахло и в реальном времени расчитать идеальную тактику, что само по себе будет +20% если не больше к эффективности того-же расчитанного с задержкой человеком.