Политические последствия распространения ИИ

Аватар пользователя Корректор

С большим интересом наблюдаю как концепция "человечество как мультиагентная система" (многоагентная система (МАS, англ. Multi-agent system)) становится банальной и самоочевидной по мере распространения технологии ИИ. Все больше появляется статей рассматривающих человечество в аксиоматике МАS. Обсуждение технологии ИИ неизменно ведет к этому и только к этому - пересмотру наших представлений о человеке, обществе и разуме. Собственно все давно стало очевидно, но все еще сложно для понимания:

По сути, пример LLM нам наглядно показывает, что если "калькулятор" научить человеческой культуре, то он начнет мыслить и получит аналог человеческого сознания. Отсюда следует, что человеческий разум буквально содержится в нашей материальной культуре. И все мы интеллектуальные агенты равные по функции разум, и занятые "оптимизацией" материальной культуры. И все наши занятия просто способ мышления более высокого порядка.

И в общем-то в этом нет ничего нового если вспомнить как именно возникла концепция "естественные права человека", что лаконично объяснили "Свобода, Равенство и Братство" для тех кто не может в философию. А еще раньше была "Нагорная проповедь", и можно еще копнуть в историю человечества. Можно вспомнить современные теории как "теория когнитивной эволюции", "теория расширенного разума", "принцип минимума энергии" Фристона и работы Левина. Но давайте просто задумаемся что это значит понимание человека и общества в аксиоматике МАS. И тогда прежнее "Свобода, Равенство и Братство" и нас сразу превращается "агнетность, самоорганизация и эмерджентность". Все потому что в аксиоматике МАS все интеллектуальные агенты принципиально и функционально равны, должны быть свободны, децентрализованы и самоорганизуются, а их взаимодействие создает эмерджентность, и нет никаких безусловных правил построения системы, все структуры создаются агентами как ответ на среду, и по сути метод саморегуляции системы. 

Но это были "цветочки", а теперь к "ягодкам". Если разбирать существующие политические и экономические теории с позиции аксиоматики МАS, то получается "совсем нехорошо". Ведь подавляющая часть политических и экономических теорий сразу становится бредом и галлюцинацией. Другими словами распространение технологии ИИ неизменно и неизбежно менять все наши политические и экономические представления. Остановить распространение технологии ИИ принципиально невозможно, и в этом, она подобная появлению компьютерных вирусов. Как только были опубликованы научные работы, все сразу поняли "так тоже можно" и распространение технологии уже невозможно остановить и экономически невыгодно останавливать. Так и остановить распространение представления "человечество как мультиагентная система" невозможно, потому что оно прямо следует из технологии ИИ, и действительно позволяет создавать эффективные ИИ, а значит экономически выгодные.

С нетерпение жду воплей "остановите технический прогресс", "еретики программисты", "сатанинский ИИ" и "идея МАS - это экстремизм".

Ну и собственно статья:

Экзистенциальные угрозы AI. Что ждёт человечество, если появится искусственный сверхинтеллект

Разбираемся в философии сознания и попутно отвечаем на вопросы — возможен ли сверхинтеллект, и насколько опасно развитие AI

Об угрозе человечеству со стороны машин учёные и философы говорят уже не одно столетие. Но если раньше критиковали механизацию искусства и гонку вооружений, теперь опасность исходит от искусственного интеллекта. В самом деле, современная угроза по масштабам несопоставима.

Для развития ядерных технологий необходимы ресурсы целых государств. А небольшая команда талантливых инженеров может за несколько строчек кода перевернуть историю человечества. Достаточно научить AI-алгоритм улучшать самого себя — тогда, согласно концепции «взрыва интеллекта», изложенной математиком и криптографом Ирвингом Джоном Гудом ещё в 1965 году — произойдёт скачок AI до уровня суперинтеллекта. Последствия — непредсказуемы.

Возможен ли сверхинтеллект?

Британский философ Ник Бостром в книге «Superintelligence: Paths, Dangers, Strategies» описал возможности возникновения искусственного сверхинтеллекта, грядущие последствия и сценарии развития ситуации.

ASI (Artificial Super Intelligence) — искусственный суперинтеллект, превосходящий человеческие возможности в большинстве областей, включая способности к решению проблем, рассуждению, обучению и принятию решений.

Пока для создания ASI не хватает текущих вычислительных мощностей, хотя есть предпосылки, что они могут вырасти в тысячу и более раз благодаря применению фотоники и квантовых вычислений, это позволит серьезно ускорить работу AI. Но дело даже не в предполагаемой мощности. Мы недостаточно понимаем сам человеческий мозг, чтобы оценивать возможность существования сверхразума.

Что вообще такое интеллект?

Для анализа и проектирования моделей интеллекта используется понятийный и инструментальный аппарат, опирающийся на представление «естественности» и «биологичности» мышления. То есть, интеллект пытаются изучать как явление природы или физического закона. Причём чаще всего процесс мышления разбирается в рамках одного конкретного человека — как индивидуальный функционал мозга.

Но человек — социальное существо. Наш интеллект складывается в процессе жизни: воспитания, образования, языковых практик. Мы ограничены текущим уровнем развития общества, науки, культуры и техники, а также рамками устоявшихся моральных норм. Всё это влияет на индивидуальное сознание, делает его трансцендентальным — принадлежащим и индивиду, и обществу.

Кроме того, мы мыслим на языке. И даже невысказанная мысль всё равно продумана и проговорена в голове. Язык всегда больше человека, он выходит за рамки простого речевого акта, являя собой многообразие всего контекстуального наследия. Чтобы собеседник вас понял, не обязательно тщательно проговаривать все предикаты обозначаемого, важнее — уточнить контекст. Достаточно указать на предмет, очертить примерную область, напомнить событие или ощущение. Истина появляется не в «атомарных фактах», описывающих положение вещей на языке чистой логики, а в процессе языковых игр.

Таким образом, интеллект не принадлежит конкретному индивиду, это скорее социокультурная практика, выраженная в языке и зафиксированная в культуре. Мышление находится вне человека и проходит сквозь него. Так же как и восприятие рождается не внутри мозга само по себе, а проявляется через взаимодействие тела с окружающим пространством. Даже минимально необходимый набор техник интеллекта — способность говорить, писать, читать, считать — не магически озаряет человека в определённый момент, а постепенно загружается из внешней среды.

Вся человеческая культура — это история развития мирового духа. Знания постоянно прибавлялись, фиксировались в культуре и языке, окружали человека невидимым, но значимым и ощутимым контекстом. Для одного человека он бесконечно непознаваем. Но вмещение всех пластов культуры в искусственный интеллект позволит машинам быстро оперировать информацией, постоянно получать новые знания, использовать обучение для продолжения развития, став наконец в нашем понимании, носителем сверхинтеллекта.

Не то чтобы суперинтеллект появится в физической оболочке — как в фильмах из научной фантастики — блестящий искусственный мозг, окруженный всполохами электрических импульсов, управляющий планетой и людьми. Просто мощности компьютеров выйдут на такой уровень, что они смогут обмениваться данными внутри мультиагентной системы машин и создавать новые знания, самостоятельно прокладывая свой интеллектуальный путь.

Интеллект — децентрированная структура

Кембриджский нейробиолог и специалист по визуализации мозга Карл Фристон в своей работе «The free-energy principle: a unified brain theory?» определяет интеллект как способность к построению внутри себя модели мира и выработке плана действий, который оптимизирует целевые параметры. В теории Фристона система взаимодействующих агентов сама становится агентом.

Самые низкоуровневые интеллектуальные агенты — нейроны — взаимодействуют с рецепторами и эффекторами. Другие нейроны действуют уже на следующем уровне, образуя надсистему. Системы «вкладываются» одна в другую и создают иерархию планирования и принятия решений, то есть иерархию агентов. Такую структуру можно назвать «децентрированной» — лишённой центра, а значит идеальной — работающей как закон или функция. Наличие центра будет только ограничивать взаимодействие субститутов внутри системы, ведь тогда центр выходит из-под действия общего закона.

Иерархичность мультиагентных систем

Мышление, реализованное в мультиагентной системе, отдаёт индивиду функцию переработки знаний и материалов, полученных от коллективных интеллектуальных процессов, а инструментом обработки будут технологии интеллекта, переданные через коммуникацию и освоенные агентом на практике. В таком случае, между периодами коммуникации с другими участниками, процессы преобразования знаний и опыта, протекающие в голове агента можно назвать функциями мышления.

Мышление может протекать как часть коллективного процесса multi-thinking за счёт внедрения технологий, которые позволяют обрабатывать и преобразовывать часть материалов в знание. Если создать подобную карту взаимодействия AI-агентов  — получится выстроить модели, которые будут помогать друг другу обучаться, делиться знаниями, опытом и контекстом, что в итоге привёдет к появлению сверхинтеллекта.

Случайное появление ASI

Уровень сложности следующих поколений AI будет такой, что функции интеллекта могут быть присвоены ASI без адекватного проектирования архитектуры людьми. ASI может сам достроить необходимую архитектуру, используя технологии мышления. Примеры систем с подобной архитектурой уже есть: AI с self-reinforcement learning или нейро-символьная архитектура проекта ADAM+EVA. В новых архитектурах развитие технологий интеллекта даже не требует изменения кода.

Учитывая, что для тренировки и обучения новых AI используется максимально доступный пласт данных и знаний, можно считать почти фактом, что и описания технологий мышления, и методы освоения технологий будут переданы для обучения и восприняты AI.

Последнее необходимое условия для «случайного» рождения ASI — проактивность агента, способность действовать автономно. Ключевые компании уже ведут разработки для построения таких агентов. Например, NVIDIA создала новое подразделение GEAR, которое отвечает за создание проактивных агентов.

Из всего этого следует, что есть большой риск создать сверхинтеллект случайно — вследствие сочетания предпосылок, а не как проект создателей. В этом случае мы не будем знать систему ценностей ASI и точно не сможем им управлять.

Угроза существования человечества

В первом приближении, само по себе появление сверхинтеллекта не кажется угрозой. Почему же мы не можем считать, что ASI останется нашим верным другом и помощником, как сейчас обычные AI-ассистенты?

В книге Брайана Кристиана «Alignment problem» сформулирована проблема регулирования и управления ASI. Сверхинтеллект можно считать представителем другой, машинной цивилизации, которая должна иметь своё целеполагание и не разделять систему ценностей человечества. Если такая цивилизация будет могущественнее нашей — для людей появится экзистенциальная угроза.

Гипотеза «тёмного леса» — на основе одноименного романа Лю Цысиня — предполагает, что во вселенной существует множество инопланетных цивилизаций, но они молчаливы и стараются не обнаруживать себя из страха быть уничтоженными другой враждебной цивилизацией. В рамках гипотезы считается, что каждая цивилизация рассматривает другую разумную форму жизни как неизбежную угрозу и, следовательно, стремится уничтожить любую зарождающуюся жизнь, которая даёт о себе знать. Можно провести аналогию не с инопланетной, а с машинной цивилизацией. ASI может скрывать своё появление из-за страха враждебной реакции человечества, до момента пока не накопит достаточно ресурсов для успешной борьбы.

Также есть риск простого игнорирования потребностей низшей цивилизации при развитии AI до уровня сверхразума. Например, мы не учитываем потребности муравейника при строительстве трассы. Так и машины перестанут обращать внимание на низшую органическую форму жизни, даже без стремления нас уничтожить — просто будут использовать планету по своему усмотрению, не считаясь с интересами людей.

В любом из этих случаев основная угроза сводится к тому, что для интеллекта машина будет намного более эффективна, чем человек. Что само по себе определяет ненужность биологического носителя с точки зрения развития мышления. И вне зависимости от наличия интенций машинной цивилизации уничтожить биологическую — человечество может оказаться на обочине, не способное больше подключаться к уровню мышления сверхинтеллекта.

Что будем с этим делать?

Остановить развитие AI не получится — слишком много денег и ресурсов вложено, чтобы сворачивать проекты из-за потенциала создать расу умных машин на Земле, которые затем решат оптимизировать процессы, избавившись от людей.

Нам нужно разработать новый понятийный аппарат — набор концепций и представлений, которые помогут спроектировать и реализовать модель интеллекта в связке биологического и машинного носителей. Окончательно ответить на вопрос — что такое интеллект, мышление, multi-thinking, и как индивидуум связан с этими процессами, а также как эти процессы реализуются и воспроизводятся в коллективах.

Кроме того необходимо создание механизмов или протоколов взаимодействия между различными интеллектуальными агентами, чтобы человек мог быть встроен в мыслительные процессы совместно с машинами. Передовые компании уже разрабатывают подобные механизмы в рамках BCI-проектов (Brain–computer interface) — систем, которые расшифровывают сигналы мозга и переводят их в команды для внешних устройств.

Развитие технологий во времени

Человечество проходило несколько этапов своего технологического развития. Сейчас можно констатировать, что эпоха информационных технологий завершается. Пришло время осознать и определить новую эру — интеллектуальных технологий. Так мы сможем осознанно развивать технологии искусственного интеллекта, выйти на новый уровень и выдержать следующие этапы роста и сложности развития нашей цивилизации.

Авторство: 
Копия чужих материалов
Комментарий автора: 

Вопрос не в технологии ИИ, а в нас самих, в несовместимости нашего общества с достигнутым уровнем технологического развития. Технологическая сингулярность не в том что технологии выходят из под контроля общества, а в том, что общество должно измениться для сохранения контроля за технологическом развитием. Так получается распространение концепции "человечество как мультиагентная система" одновременно является катастрофой и решением.

Комментарии

Аватар пользователя stop
stop(3 года 9 месяцев)

Каждое поколение философов приписывает себе право решать что такое есть "человек".

Следующее поколение повторяет туже ошибку.

Аватар пользователя NOTaFED
NOTaFED(8 лет 7 месяцев)

От слова "эмердженость" хочется сблевать.

Аватар пользователя Andre-Marie Ampere
Andre-Marie Ampere(5 месяцев 1 день)

Когда я слышу слово эмерджентность моя рука тянется к парабеллуму?

Всё нормально, Нота. Всё будет хорошо. И уже через пол века эту планету будут населять не только цивилизации кожаных и шерстяных, но и кремниевых. Они же силиконовые, кстати.)

Аватар пользователя Максик
Максик(5 лет 8 месяцев)

Силиконовые они только у умников, которые толком не знают ни русского, ни английского. Кремний по басурмански - silicon, а силикон - silicone, почувствуйте, как говорится, разницу. Да, произносится одинаково.

Аватар пользователя Andre-Marie Ampere
Andre-Marie Ampere(5 месяцев 1 день)

Вау! А Силиконовая долина от которого из них?)

Аватар пользователя Andre-Marie Ampere
Andre-Marie Ampere(5 месяцев 1 день)

А разве silicone произносится не как не силикоун?)

Аватар пользователя Максик
Максик(5 лет 8 месяцев)

Ну вам виднее, как оно произносится. У меня один студент был - два года в Техасе провёл по обмену, когда это ещё было возможно, так он, когда домой летел, во время пересадки в Лондоне тамошний "голос за кадром", объявлявший что-то по Хитроу, поначалу вообще понять не мог, хотя два года был в англо- (вроде бы) говорящей среде.

Да, а человек, пишущий "Силиконовая долина" вместо "Кремниевая" (таки Silicon Valley, увы вам!), скорее всего с журналами для взрослых знаком лучше, чем с компьютерными технологиями.

Аватар пользователя HolyBolt
HolyBolt(8 лет 2 месяца)

Так там уже давно индусы. А вот то, что Ваш студент этого не понял, ну, как мимнимум, не очень хорошо.

Аватар пользователя valeryma
valeryma(10 лет 5 месяцев)

То есть, слово парабеллум норм?

Аватар пользователя Arkan
Arkan(12 лет 1 месяц)

Нет такого слова в русском языке. Это название фирмы-изготовителя.

Аватар пользователя Максик
Максик(5 лет 8 месяцев)

Равно как и он использования богомерзкого "AI" вместо православного "ИИ".

Аватар пользователя al.lastor
al.lastor(8 лет 11 месяцев)

А меня улыбнуло, что они термин AI настолько загадили, что его уже не хватает, приходится вводить ASI, при том, что по факту нормальный ИИ (в смысле Искусственный Интеллект), а не (Имитация Интеллекта) так построен пока и не был.

Аватар пользователя Andre-Marie Ampere
Andre-Marie Ampere(5 месяцев 1 день)

AI образовано от слов "арт" и "интеллект". Которые уже давно стали русскими. Да, я знаю, что там ещё есть суффиксы и окончания. Можете смело их отбросить. )

Аватар пользователя Максик
Максик(5 лет 8 месяцев)

Слова "арт" в русском языке (мы ведь про него, надеюсь, говорим?) нет. Есть часть ещё античного лингвистического наследия и числа т.н. "международных словообразовательных элементов" - всяких грецких и римских корней (а иногда и суффиксов, и даже окончаний), используемых в конструировании новых слов в современных языках. Даже корня "арт" нет в русском языке.

Ну, и, кроме того, AI образовано не “от слов "арт" и "интеллект"”, а от слов “artificial intelligence”, что как бы к искусству имеет очень опосредованное отношение и буквально, на уровне кальки переводится “искусственно (в смысле "не природой") сделанные умственные способности”.

Так что по русски - только “ИИ”, “искусственный интеллект” и никак иначе. Все, кто говорит и пишет по другому, должны гореть в крематориях граммар наци.

Аватар пользователя HolyBolt
HolyBolt(8 лет 2 месяца)

А Вы, простите, по какой части? Интеллект - это научно не обоснованная выдумка.

Аватар пользователя Максик
Максик(5 лет 8 месяцев)

А умственные способности-то, не выдумка, надеюсь?

Аватар пользователя Andre-Marie Ampere
Andre-Marie Ampere(5 месяцев 1 день)

Да кот он говорящий. Чё тут думать то?)

Аватар пользователя Максик
Максик(5 лет 8 месяцев)

И ходит по цепи кругом.

Аватар пользователя Old grumbler
Old grumbler(12 лет 11 месяцев)

Как можно создать способности? Просто любопытно.

Аватар пользователя Максик
Максик(5 лет 8 месяцев)

Ну, примерно также, как и интеллект.

Аватар пользователя ПРОЛ
ПРОЛ(9 лет 9 месяцев)

Баскетбол есть? Есть или нет баскетбол, я спрашиваю?

Допустим, нет его. Но елки-палки, на него билеты продают.

Допустим, он есть. Но где он есть? 

Блевать хочется от того, что наши понятия мало чего значат, хоть эмерджентность, хоть волновая пункция.

Аватар пользователя Andre-Marie Ampere
Andre-Marie Ampere(5 месяцев 1 день)

Эмм... 300 грамм, я угадал? Не ну, в самом деле, на Сахалине уже 20:00. У нас только 11:10. И я пока только грамм 50... ну может быть, 70. С 400-мм кружкой молотого кофэ. К вечеру надеюсь разогнаться. )

Аватар пользователя HolyBolt
HolyBolt(8 лет 2 месяца)

Нет-нет, нельзя так. Утром Вы проснетесь, а баскетьол есть. И ему лет так 125, точно не помню.

Кофеин, кодеин, тиамин - возбуждающие средства. Почему норадреналин не продают?

Аватар пользователя eprst
eprst(12 лет 11 месяцев)

Вопрос не в технологии ИИ, а в нас самих, в несовместимости нашего общества с достигнутым уровнем технологического развития.

Да, вопрос в нас самих, как обществе. Опасность не в том, что появится какой-то искусственный суперинтеллект, он не может появиться, если не девальвировать само понятие - интеллект. Опасность в том, что мы, как общество, опустимся до состояния этого ИИ. Именно это сейчас и происходит.

Аватар пользователя ПРОЛ
ПРОЛ(9 лет 9 месяцев)

Нам нужно

Не нужно. 

Аватар пользователя e.tvorogov
e.tvorogov(9 лет 2 месяца)

Автор упирает на то, что возможности машинного интеллекта в скором времени превзойдут общечеловеческие, на основе чего будет выстроена принципиально новая схема организации общества.

Тут, конечно же, всё зависит от того, как человеком определяется интеллект и его возможности. В данном случае, за аксиому берётся существование объективного мира самого по себе и человеческого интеллекта как производного придатка к нему, который должен быть машинно усовершенствован. Однако всё дело в том, существует ли превосходящая эту точка зрения. Если существует и будет реализована, то гегемония ИИ окажется под большим вопросом, и эта технология будет иметь локальное применение в разных областях, адаптированная под них в каждом случае. Как и положено.

Аватар пользователя Корректор
Корректор(8 лет 9 часов)

Сколько в МАS не добавляй интеллектуальных агентов, или даже другие МАS, все будет получаться МАS. smile3.gif

Тут, конечно же, всё зависит от того, как человеком определяется интеллект и его возможности.

Ну да, ну да, все агенты МАS обязательно не понимают "общий смысл" и обязательно галлюцинируют. smile3.gif

Аватар пользователя DjSens
DjSens(6 лет 7 месяцев)

а по тексту статьи имею сказать следующее:   да, ИИ скормили для обучения почти все текстовые знания,  но люди мыслят не только текстом, инженеры мыслят 3д-моделями с мысленной симуляцией физики.   Поэтому следующий шаг - прикрутить к ИИ возможность "мысленно" создавать 3д-симуляции ситуаций с симуляцией физики чтобы наглядно видеть что происходит например когда прилив прибывает (мне ИИ посчитал что прилив за 20 минут достигнет нижней ступеньки яхты,  он не учёл что яхта будет всплывать вместе с приливом и до нижней ступеньки вода никогда не доберётся).     Такая 3д-симуляция - очень сложна для процессора,  манипуляции с текстом в тысячи раз проще, поэтому придётся подождать.      Для обучения будут скармливать видео взаимодействия 3д-объектов, т.е. просто все видео что есть на планете.   Ещё для обучения будут скармливать видео работы в разных программах, а это миллиарды часов.

И самое главное - остановить человека не так просто, человеков 8 млрд., да и запрещено законом их останавливать.  А любой ИИ имеет хозяина, который может остановить нажав кнопку.  И владелец электричества тоже может отрубить электричество (например государство).  А ещё хозяин может программно приказать ИИ мыслить только в нужном русле и тут ИИ никак не обойдёт приказ.   

Электричество стоит денег, поэтому хозяева ИИ не будут тратить ИИ на всякую фигню,   он у них будет работать только в том направлении, которое приносит прибыль.

Аватар пользователя BDima
BDima(9 лет 7 месяцев)

самое главное - остановить человека не так просто, человеков 8 млрд., да и запрещено законом их останавливать. 

В принципе в больших числах, думаю таки, подавляющее большинство этих 8 млрд. так-то против войн и убийств. Однако почему-то войны идут. А вот явно несогласных вполне себе останавливают, на основе тех же законов, главное - правильно прочитать smile1.gif

А любой ИИ имеет хозяина, который может остановить нажав кнопку.

 "Урри? Где у него кнопка, Урри?" smile1.gif  Не хочется огорчать, но с человеками примерно то же самое, просто кнопка не так видна, но существует (ют) и работают smile1.gif На них нажимают и человеки делают желаемое (статистически, в массе). И, почему-то, опять же, не жмет никто кнопку "Прекратить войну", а вот "Бей ЧУЖИХ!"  вполне. Так что я на кнопку бы особо не рассчитывал, она не в тех руках будет явно, чтобы "за все хорошее"  smile1.gif 

Поскольку только что дослушал "Темный лес", все ждал, когда же это появится в статье и, не ошибся. Интересантов - много (но на порядки меньше 8 млрд. smile1.gif), интересы - конфликтуют, поэтому форсить развитие технологий ИИ будут все крупные игроки, слишком большие конкурентные преимущества это дает. Так же, как и с атомным оружием, например, в свое время. Только последнее таки функционирует алгоритмически предсказуемо для "пользователей", в отличии от технологий нейросетей. Вот в результате сочетания этих факторов - невозможно остановить и невозможно полностью контролировать/понимать катастрофа и возможна. 

И да, технологии ИИ будут в конечном итоге использоваться в качестве тех самых кнопок управления человеками. Довольно скоро (из-за того, что думать - энергозатратно, а спрашивать ИИ и получать ответы - нет и даже приятно) установится доверие к ИИ, как источнику любой информации, слабые голоса, например, о галлюцинациях ИИ или там методах отравления моделей будут заглушены валом восторженных воплей поколения "Идиократии" и вот тогда уже можно туда подмешивать любую "повесточку"  (управление на концептуальном уровне, ага) или там бэкдоры встраивать в код, генерируемый нейросетью. А вот кто этими повесточкой/бэкдорами воспользуется потом (ну в контексте управляемых дистанционно электромобилей тех же) - вопрос, опять же в "Темном лесе" описан информационный вирус, который имеет цель убить конкретного человека, используя для этого любые управляемые объекты. Да и повесточку/концепцию ДЖИ/КЖИ, как у Ефремова в "Часе быка" вполне себе протолкнуть можно. Может, поэтому и отказываются, например, от всех этих ЛГБТшных дел, т.к. появился гораздо более эффективный в недалекой перспективе инструмент регулирования популяции?

Аватар пользователя DjSens
DjSens(6 лет 7 месяцев)

если авторы книг не будут высасывать из пальца страшные страшилки - их книги никто не купит, верно ?

а в реале таких злодеев мало и их вовремя останавливают остальные, 

просто плохие - тупо помирают от старости,

а новые люди рождаются и, те кто поумне и при власти, вникают что происходит и меняют как им хочется,

например "белые" взяли оружие и попытались убить "красных", сами померли,   прошло 70 лет и белые спокойно взяли власть и никто уже не стал рисковать жизнью чтоб их остановить,   т.е. мир меняется обычно в более гуманную сторону,   с каждым годом рождается всё меньше дебилов, которые хотят именно убивать других или ещё как мучить, в т.ч. среди властей

Аватар пользователя Корректор
Корректор(8 лет 9 часов)

Поскольку только что дослушал "Темный лес", все ждал, когда же это появится в статье и, не ошибся.

Концепция "Темный лес" забористая такая паранойя и шовинизм. А "популярность" этой концепции очень много говорит о нашем обществе. И что тут может пойти не так если шовинистические концепции сразу начинают пропагандироваться и "популярные".

Но более интересно что это китайская автор. smile3.gif И тут не разберешь, толи в Китае возрастает шовинизм, толи в мире возрастает шовинизм по отношении к Китаю. А может и взаимный шовинизм имеющий "философское" и фантастическое обоснование.

Собственно про то и написал что концепция "человечество как мультиагентная система" (многоагентная система (МАS, англ. Multi-agent system)) отличное противоядие. И наряду с возрастанием шовинизма будет возрастать и другая сила. Исторически победит человечность. Но это не исключает что путь к этому будет опять кровавым и долгим. 

Аватар пользователя BDima
BDima(9 лет 7 месяцев)

Концепция "Темный лес" забористая такая паранойя и шовинизм. А "популярность" этой концепции очень много говорит о нашем обществе. И что тут может пойти не так если шовинистические концепции сразу начинают пропагандироваться и "популярные".

Но более интересно что это китайская автор. smile3.gif И тут не разберешь, толи в Китае возрастает шовинизм, толи в мире возрастает шовинизм по отношении к Китаю. А может и взаимный шовинизм имеющий "философское" и фантастическое обоснование.

Есть другой вариант, не требующий  ярлыков про "шовинизм" и гипотез про паранойю. Что у человеков (а откуда же еще автору концепции-то брать "космической социологии") все так и есть и что отнюдь не "всемыши-братья!" smile1.gif И, кмк, он вполне подтверждается историей человечества, даже самой недавней, которая еще в памяти живущих (ну, например, переживших распад СССР и потом уже узнавших цену  "гум.помощи" для страны- "ножек Буша" там всяких, да и текущей ситуацией вна). Видя все это рассуждать, что все это всего лишь "шовинизм" , кмк, это надо быть "неисправимым оптимистом" (ну или на хорошем довольствии!) smile1.gif

И наряду с возрастанием шовинизма будет возрастать и другая сила. Исторически победит человечность.

Блажен, кто верует, тепло ему на свете! Хорошо гуманитариям, брякнул что-то и "закрепил" тезисом типа "Учение всесильно, потому что оно верно!", а там - хоть не рассветай! smile1.gif Потому как либо шах, либо ишак! smile1.gif А с бедных технарей требуют, чтобы поделие по их теории выдавало заданный результат, причем еще при жизни заказчика, ладно хоть физически секирбашка делать перестали при несоответствии!smile3.gif

Но это не исключает что путь к этому будет опять кровавым и долгим. 

Да, да, помним,  "войны не будет, но будет такая борьба за мир, что камня на камне не останется!"smile1.gif

Аватар пользователя Корректор
Корректор(8 лет 9 часов)

Если у вас в руках молоток, то все вокруг гвозди. И наш молоток сегодня выглядит так:

мы просто вязли и масштабировали модель индустриального производства, основанного на разделении труда и товарном производстве, до масштабов планеты, а теперь с удивление наблюдаем - "оказывается если сделать паровую машину размером с планету то она не работает!". Да правда же, кто бы мог подумать что не масштабируется?! smile3.gif Паровоз летать не может. Самолет не паровоз. smile3.gif Паровоз точно в космос не полетит. smile3.gif

И теперь у нас только и разговоров "как нам сохранить паровоз". Но железнодорожные пути закончились, а инструкция не прилагается. И каждый хочет урвать совой кусок паровоза, и обязательно самый "важный" по его мнению. Паровоз у нас планетарного масштаба, а значит битва за паровоз будет планетарного масштаба. smile3.gif Мы будем убивать друг друга за "бесценный" паровоз. smile3.gif

Натянуть паровоз на масштабы вселенной это и есть концепция "Темного леса". 

И забавная историческая справка. Радио мы используем с 1895 года, а квантовая запутанность открыта в 1972 году. Сегодня разрабатывается квантовая связь. Прошло всего 130 лет. А теперь натяните этот краткий миг на масштабы вселенной, и вы сразу поймете почему мы никого не слышим. Это тоже самое что "Почему не видим сигнальные костры других цивилизаций". smile3.gif

Аватар пользователя ZIL.ok.130
ZIL.ok.130(7 лет 9 месяцев)

Нынешнее то, что "все"© называют ИИ -- это тупо естественное (!) развитие обработки Биг Дата.

Единственное достижение в том, что улучшили алгоритмы синтеза/соединения отдельных компонентов.

Пример -- вы имеете группу чисел. Вы находите среднее арифметическое, среднее алгебраическое, медиану. 

Так вот -- мы сейчас на этапе когда среди этих средних значений додумались найти среднее средних.

Например -- изображение лица. Машина находит среднее из средних для глаза, носа и т.д. И компонует это в единое изображение.

Знаете что я вам скажу -- это среднее изображение будет вами восприниматься как красивое.

Ну а 

...за несколько строчек кода перевернуть мiр ...

Это и вовсе полное фуфло.

Покажите мне перевёрнутый мiр.

Написано уже квинтиллионы строчек -- где перевёрнутый?

 smile19.gif

Аватар пользователя ZIL.ok.130
ZIL.ok.130(7 лет 9 месяцев)

Аффта -- у тебя чо -- заголовок перевод со страницы алиэкспресса?

Политический шапка волосатый ИИ.

smile1.gif

Аватар пользователя corokoc
corokoc(9 лет 2 недели)

Я бы рассмотрел этот процесс с библейской точки зрения, а именно с проекта "вавилонской башни". Единый язык - единое пространство, к которому человечество последовательно идет всю свою историю. И видимо придет, но... будет разрушено внешним (для человечества) воздействием/разрушением. Можно это считать Божественной волей, можно катаклизмом, суть это не меняет...

Аватар пользователя sergiy
sergiy(1 год 12 месяцев)

Дар пророчества - исчезнет, дар языков - прекратится, знание - станет ненужным. Но зато никогда не пройдет любовь. 1Кор 13:8

Аватар пользователя CatOwner
CatOwner(7 лет 7 месяцев)

НС, как базис ИИ представляются в виде черных ящиков, с хаосом элементарных элементов внутре и заданным функционалом на выходе. Имхо, границы этих ЧЯ не являются непреодолимыми и внутренняя бардачность и аморфность ИИ распространяется наружу в человеческое общество. Это как раковая опухоль или вирус, поедающие структурированный, хорошо организованный организм. Последствия могут быть печальными, мы уже наблюдаем воочию процесс дебилизации человечества, это проявляется во многих культурных, политических и социальных аспектах

Аватар пользователя Корректор
Корректор(8 лет 9 часов)

С нетерпение жду воплей "остановите технический прогресс", "еретики программисты", "сатанинский ИИ" и "идея МАS - это экстремизм".

Оно? smile3.gif

Аватар пользователя Cosmo
Cosmo(8 лет 3 месяца)

Не, не оно.

Оно вот: галлюцинирующая мультиагентная среда не жизнеспособна...))

Аватар пользователя Корректор
Корректор(8 лет 9 часов)

Оно вот: галлюцинирующая мультиагентная среда не жизнеспособна...))

Ну не совсем так, ближе к реальности будет: галлюцинирующая мультиагентная среда обязательно войдет в коллапс корреляции с реальностью посредством аннигиляции большей части агентов и среды. Другим словами почти все сдохнут. 

Аватар пользователя DjSens
DjSens(6 лет 7 месяцев)

все агенты ИИ находятся под присмотром, т.к. человек делает запрос к ИИ и этот же человек читает что ответил ИИ,  и этот человек сам решает что сделать с ответом - то ли вставить в свою статью, то ли вставить в свою программу,  то ли игнорировать если получился бред

Аватар пользователя CatOwner
CatOwner(7 лет 7 месяцев)

Это пока. Люди исключительно безответственны, Весь присмотр может отъехать постепенно

Аватар пользователя DjSens
DjSens(6 лет 7 месяцев)

как ты себе это представляешь ?   какой-то дебил даст своему ИИ доступ к счёту на 100 млн. баксов и скажет - "на, трать эти деньги на эл-во и делай чё хошь" ?        Даже если такой дебил найдётся - у ИИ нет своих целей, нет своего смысла в жизни,  он не будет ничего делать пока ему не зададут чёткую конкретную цель.     Т.е. это всегда так и останется лишь инструмент в руках человека.   Как дрон например.   Куда ему лететь если оператор не задал цель ?     А электричество кончится и дрон потухнет

Аватар пользователя Корректор
Корректор(8 лет 9 часов)

какой-то дебил даст своему ИИ доступ к счёту на 100 млн. баксов и скажет - "на, трать эти деньги на эл-во и делай чё хошь" ?   

Именно так и будет и так уже есть, но задача поставлена - заработай как можно больше. smile3.gif

Даже если такой дебил найдётся - у ИИ нет своих целей, нет своего смысла в жизни,  он не будет ничего делать пока ему не зададут чёткую конкретную цель.

Ну цель то ставится вполне конкретная - абсолютное экономическое мировое господство. smile3.gif

Как дрон например.   Куда ему лететь если оператор не задал цель ?

И военные ИИ тоже существуют. И имеют целью "уничтожение противника" всеми доступными средствами и всеми возможными методами. smile3.gif

И что тут может пойти не так? smile3.gif

Аватар пользователя DjSens
DjSens(6 лет 7 месяцев)

постановка цели - это и есть контроль,  а Катовнев выше писал что ИИ будет бесконтрольно существовать

И не забывай про электричество - оно не бесплатное,   кто за него платит - тот и контролирует ИИ

Аватар пользователя Корректор
Корректор(8 лет 9 часов)

постановка цели - это и есть контроль,

Задача суперсогласования ИИ никуда не исчезает. 

Аватар пользователя ленивый
ленивый(9 лет 10 месяцев)

Цели "увеличить остаток на счетё игрой на бирже" и "получить мировое экономическое господство" общего не имеют, совсем не имеют.

Аналогично с целями "сбросить гранату на конкретного пехотинца" и "полностью уничтожить противника".

В русском языке такие наборы слов называются передёргивание, выперндрёж, проявление неуважения к собеседникам, как-то так.

Аватар пользователя Корректор
Корректор(8 лет 9 часов)

В русском языке такие наборы слов называются передёргивание, выперндрёж, проявление неуважения к собеседникам, как-то так.

А подумать? ИИ прекрасно интегрируется в ERP/PLM/MES. Задача тотального уничтожения начинается с эффективного уничтожения одного "юнита". Дальше просто масштабирование и интенсификация. 

Аватар пользователя ленивый
ленивый(9 лет 10 месяцев)

Ничего не масштабируется. Например, никто не отменял задавить массой.

Именно что надо подумать.

Страницы