The Federalist: Как и ожидалось, реальность прокалывает пузырь ажиотажа вокруг искусственного интеллекта

Аватар пользователя Mr.Wolf

Становится ясно, что как оптимизм, так и пессимизм относительно потенциала ИИ сильно преувеличены.

После такой шумихи и триллионов долларов инвестиций пузырь ИИ, похоже, наконец-то лопнет . Большая часть краха рынка , произошедшего в прошлый понедельник, была сосредоточена среди технологических компаний, которые существенно инвестировали в ИИ. Больше всего проиграла знаменитая компания по производству чипов Nvidia, которая, по мнению автора статьи в MSN Криса Тейлора , «потеряла триллион долларов оценки, 30% от общей суммы, с момента своего пика в 2024 году».

Тейлор продолжает перечислять причины этого спада: чрезмерная шумиха от таких гуру ИИ, как Сэм Альтман, выгорание потребителей, которых теперь отпугивают продукты с использованием ИИ, и нетерпеливые инвесторы, такие как Goldman Sachs, желающие более быстрой окупаемости своих инвестиций. Итак, как и большинство пузырей, компании ИИ обещали слишком много и не выполнили обещаний, заставив рынок скорректировать себя.

К сожалению, на этом все не заканчивается.

Технологии ИИ, похоже, упираются в стену в своем развитии. Как заметили многие, серверы для данных и работы ИИ поглощают колоссальное количество энергии, создавая огромную нагрузку на электросети. Они также требуют столь же колоссальных объемов капитала (исчисляемых миллиардами долларов) и постоянного финансирования — для справки, по оценкам, работа ChatGPT обходится OpenAI в 700 000 долларов в день.

Хуже того, Тейлор объясняет, что программы ИИ «исчерпали материал для обучения, и чем больше они обучаются в «интернете», тем больше в интернете содержится работ, написанных ИИ, что ухудшает рассматриваемый продукт». Первоначально, большая языковая модель (LLM), такая как ChatGPT, могла просматривать огромное количество созданного человеком контента в интернете и использовать эти данные для создания уникального эссе, которое соответствовало бы параметрам ее пользователей. Но теперь в сети так много контента, созданного ИИ, что любое эссе, созданное LLM, будет становиться все более производным, дефектным и непонятным . Мусор на входе, мусор на выходе.

В основе всех этих проблем лежит глубокое коллективное непонимание ИИ.

Проблема настолько очевидна, что ее трудно увидеть, особенно для гениев с высоким IQ в Кремниевой долине: искусственный интеллект — это не человеческий интеллект. Слишком долго технологи говорили об ИИ так, будто это синтетический мозг, который копирует функции человеческого мозга. Таким образом, они описывают компьютеры, обучающиеся, общающиеся и выполняющие административные задачи, как будто они сознательные работники.

И если послушать технооптимистов, таких как Марк Андрессен и Амджад Массад, ИИ может даже выполнять работу лайф-коучей и учителей. Андрессен предсказал , что «У каждого ребенка будет наставник-ИИ, который будет бесконечно терпеливым, бесконечно сострадательным, бесконечно знающим, бесконечно полезным. Наставник-ИИ будет рядом с каждым ребенком на каждом этапе его развития, помогая ему максимально раскрыть свой потенциал с помощью машинной версии бесконечной любви». ИИ не только понимает людей, но и понимает их бесконечно лучше, чем люди понимают себя и друг друга.

В сочетании с этой ошибочной персонализацией ИИ существует ошибочное представление о том, что человеческий разум — это просто органические компьютеры с несовершенным программированием. Душа обычно сводится к битам данных, которые можно загрузить или выгрузить. Несомненно, Андрессен представляет себе студентов, сидящих у ног своих роботов-инструкторов, тихо обучающихся у них так же, как компьютер устанавливает новое приложение, за исключением того, что над их головами не висит полоса загрузки.

Из-за этих несовершенных аналогий многие предполагали, что ИИ заменит большинство служащих и в конечном итоге возьмет под контроль большинство организаций — в конце концов, зачем иметь склонных ошибаться смертных у руля, когда можно иметь бесконечно мудрого и компетентного ИИ-повелителя, управляющего всем? По мнению экспертов, реальная проблема заключалась в том, чтобы иметь дело с перемещенными, безработными массами, которые неизбежно устареют, и убедиться, что роботы-повелители остаются добрыми к людям. В этом отношении единственное реальное различие между оптимистом и пессимистом заключалось в том, что один верил, что ИИ создаст утопию, а другой считал, что он сделает наоборот.

Конечно, ни одна из этих возможностей не является правдой, поскольку ИИ не имеет возможности заменить людей, и никогда не имел. В лучшем случае, это мощный инструмент, который имеет больше общего с приложением проверки орфографии/грамматики или поисковой системой, чем даже с самым тупым, самым лишенным воображения человеком.

Вот почему использование ИИ для зарабатывания денег оказалось таким провалом. Работодатели думали, что у них может быть программа ИИ, которая будет выполнять работу их сотрудников более эффективно за малую часть цены. Однако вложения и сопутствующее обучение, необходимые для выполнения даже самых базовых задач, ошеломляют . Вместо того, чтобы учиться программировать сложные операции на роботе, большинству менеджеров было бы лучше просто говорить своим работникам, что делать, и верить в их способность это делать. Это также делает рабочее место более счастливым.

То же самое касается использования ИИ для лечения нынешней эпидемии одиночества. Возможно, несколько отчаявшихся душ не будут против компании компаньона ИИ, но это только подстегнет самые худшие стороны тех, кто изо всех сил пытается сформировать значимые отношения. Вместо того чтобы служить практикой для настоящего взаимодействия, это усиливает антисоциальные привычки, которые изначально делают человека одиноким. Вместо того чтобы приносить жертвы и развивать эмпатию, одинокий пользователь потакает заблуждениям и культивирует крайний нарциссизм.

По иронии судьбы, величайшая польза ИИ заключается в том, что он демонстрирует, насколько особенны и незаменимы люди. Следовательно, его финансовый и культурный успех будет зависеть от того, сможет ли он повысить человеческий потенциал, став полезным инструментом, или наоборот, став дорогостоящим бременем.


Автор: Огюст Мейра — преподаватель английского языка из Далласа. Имеет степень магистра гуманитарных наук и степень магистра педагогических наук в области образовательного лидерства. Он является старшим редактором The Everyman , старшим автором The Federalist, а также писал эссе для The American Mind, The American Conservative, Religion and Liberty, Crisis Magazine и других изданий. 

Авторство: 
Авторская работа / переводика
Комментарий автора: 

На редкость разумное изложение основных стереотипов восприятия ИИ - и последствий, к которым это привело. Материал публицистический, не претендует на научность и доказательность. Тем не менее - заставляет задуматься и расставляет многое по местам.

Если совсем кратко резюмировать: 

- надежды заменить людей на ИИ - испарились;

- то, что сегодня позиционируется в качестве ИИ, особенно LLM - достигли пределов обучения (съели все доступные первичные данные), и теперь - обучаются на поделках себе подобных, как следствие - деградация, "мусор на входе - мусор на выходе";

- люди всё более настороженно относятся к ИИ и продуктам на их основе;

- постепенно наступает понимание того, что "искусственный интеллект" в сегодняшнем его понимании - это никакой не человеческий интеллект, и никогда таковым не станет;

- при этом всё это стоит немеряно денег, и не дает реального эффекта в ожидаемых масштабах;

- а надежды заработать на ИИ - в реальности пока не оправдываются...

Продолжаем наблюдать.

P.S. Касательно пузыря в ИИ уже высказались ряд финансовых структур - см. https://aftershock.news/?q=node/1403574https://aftershock.news/?q=node/1407585

Комментарий редакции раздела Проблемы ИИ

Великая схватка бульдогов спИкулей под ковром. Лошьё и правительства "под ИИ" очень бойко отлистывают капусту. пЕар с выхлопом на биржевые котировки - вот суть текущего движа, научно-технический прогресс и сопутствующие моральные проблемы глубоко вторичны...

Комментарий редакции раздела Альтернативный Интеллект

Комментарии

Аватар пользователя balmer
balmer(7 лет 2 недели)

К слову поражает объем и бескорыстность вбуханных туда средств.

Раньше переводчик типа translate.google.com был только у google и yandex. А теперь нейросетку, которая это умеет делать - можно скачать локально и пользоваться ей без интернета. Аналогично и с генерацией/распознаванием голоса.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

Объем - да. А вот касательно "бескорыстности" - хм... Я бы не был столь оптимистичен...

Аватар пользователя pfn
pfn(1 год 7 месяцев)

Пузыри - это способ, которым западная экономика создаёт инфраструктуру для будущего.

Раньше переводчик типа translate.google.com был только у google и yandex. А теперь нейросетку, которая это умеет делать - можно скачать локально и пользоваться ей без интернета.

 - это как раз про это.

Так у них было и с железными дорогами, и с телекомом (доткомом), так сейчас с "ИИ".

Аватар пользователя balmer
balmer(7 лет 2 недели)

Причём это общедоступные вещи. Т.е. связка pytorch + cuda +  Nvidia появилась менее десяти лет назад. И это очень хороший полезный инструмент. Возможность запускать Pytorch на Vulkan/Apple NPU менее пяти лет назад появилась.

Да, это совмем не то, чем затуманивает разум автор статьи, рассказывая, что "нейросеть-трансформер XYZ не может решить текстовую задачу ABC".

Аватар пользователя Adept_
Adept_(2 года 7 месяцев)

Часто заблуждаются полагая, что ИИ не ошибается. Способность ошибаться - неотъемлемое свойство интеллекта. В том числе искусственного. 

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

В реальности ожидается, что уж по крайней мере на вопрос "сколько будет дважды два" - отвечать будет корректно.

Аватар пользователя Vladyan
Vladyan(9 лет 6 месяцев)

Ага, а мы как бэ покупаем или продаем? (с)

Аватар пользователя aawolf
aawolf(9 лет 10 месяцев)

или "а сколько надо?" - это вот ни один ИИ не осилит. 

Аватар пользователя GrumpyVK
GrumpyVK(4 года 2 месяца)

Удивительным образом как раз вот это ChatGPT только и сумел осилить.

“Гуманитарную одарённость” он изображает вполне неплохо, а как подумать нужно так пасует.

И, разумеется, грамотного гуманитария он тоже не заменит, но работу большинства “гуманитарно одарённых”, вякающих про 8 млн. человек в россии, я могу ошибаться, я гуманитарий — выполняет прекрасно.

Аватар пользователя alvl
alvl(5 лет 11 месяцев)

В итоге ни одна модель не отвечает на простейший вопрос «у Алисы брат и две сестры, сколько сестер у брата Алисы?». Уровень абстракции нулевой, семантика не освоена.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

Да. Но важно обращать внимание, что даже в случае правильного ответа - он может быть получен абсолютно алогично. Ибо правил вывода - нет, есть только оХХХлиард (который, оказывается - уже съели) данных и их статистическая обработка.

Аватар пользователя alvl
alvl(5 лет 11 месяцев)

Совсем новые модели уже отвечают правильно - потому что в интернетах много текстов с этим примером. Теперь нужно менять Алису на Бэзила, чтобы опять ввести их в тупик на некоторое время. 

Мы не видим одной из ключевых способностей настоящего интеллекта - формирования адаптирующихся полей понятий. Цепочка Алиса=девочка=сестра не рождается внутри всех этих связей и весов.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

О чем и речь: статистика - есть, а логики - увы - нет...

Аватар пользователя alvl
alvl(5 лет 11 месяцев)

Это даже не логика, это подготовка абстракций  для дальнейшей обработки логикой.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

Ну, вроде как и цепочки, и правила вывода - это всё же элементы логики. 

Аватар пользователя alvl
alvl(5 лет 11 месяцев)

А оценка возможности применения того или иного правила, это логика, или таки способность формировать адаптированную аксиоматику понятийной системы? ) Понятно, что это внутри людей тоже делается вычислительной структурой, только еще более глубокой и гибкой, чем простое уравнение с сестрами-братьями, и при этом системой стабильной и не галлюцинирующей на ровном месте. А вся гигантская система БЯМ спотыкается именно об очень простое уравнение в итоге. У людей так тоже бывает, ослабленное абстрагирование, уход в детали и нарушение «температуры модели» каждый день наблюдаются психиатрами и коррекционными педагогами - олигофрения, разные стадии шизофрении, вот это все. Эти ребята точно так же не разгадают эту загадку, и с теми же типами ошибок. А когда БЯМ теряет контекст в диалоге - это ещё и амнестическая афазия )

Много раз встречал, что коренное отличие естественных людей от нынешних искусственных идиотов - это способность к генерации очень годных моделей по одной точке, без широкого контекста. Хотя в точной математике мы конечно слабы, условно трехразрядная память  логического устройства (в среднем до 7 номерных объектов в краткосрочной памяти)  это тоскливо 

Аватар пользователя Верняк
Верняк(10 лет 1 месяц)

Имитатор интеллекта - в лучшем случае когда нибудь дотянется до возможностей насекомых. И учитывая что прикрутив такой имитатор к механизмам можно получить не фиговый эффект в виде реакций насекомого в макромире, то мб польза и будет. А мб будет скрепка и терминаторы.

Да и то - это мб при расширении энерговооруженности человечества - не раньше.

Аватар пользователя Xop4e__GoodMan
Xop4e__GoodMan(5 лет 9 месяцев)

Да. Но важно обращать внимание, что даже в случае правильного ответа - он может быть получен абсолютно алогично.

smile9.gif

Ага, и в качестве пруфов на вопрос, как ты получил ответ брюнетко (ИИ) скажет: "Так пишут в интернетах". 

Аватар пользователя sery.kardinal
sery.kardinal(10 лет 1 месяц)

Alice has a brother and two sisters not including her.

Аватар пользователя alvl
alvl(5 лет 11 месяцев)

?

Аватар пользователя Xop4e__GoodMan
Xop4e__GoodMan(5 лет 9 месяцев)

Alice has a brother and two sisters not including her.

Эм... а зачем это уточнение?

Во-первых, как она может быть сама себе сестрой?

Во-вторых, такое уточнение делается, похоже, для окончательно одарённых.

Аватар пользователя alvl
alvl(5 лет 11 месяцев)

А это как с программистом, который ставил на ночь рядом с кроватью два стакана - с водой и пустой. Помните, зачем?

Аватар пользователя Xop4e__GoodMan
Xop4e__GoodMan(5 лет 9 месяцев)

А это как с программистом, который ставил на ночь рядом с кроватью два стакана - с водой и пустой.

 Ну если сери.кардинал живёт там, откуда у него флаг, то в той стране уже действительно так всё запущено, что требуются пояснения к элементарным вопросам.

Про стаканы знаю. Полный – если ночью захочет пить, пустой – если не захочет. smile9.gif

Аватар пользователя alvl
alvl(5 лет 11 месяцев)

Вот так и БЯМ нужно пояснять, что Алиса - человек, женского пола, может называться сестрой, не протестует по поводу гендерных стереотипов, ей позволено иметь родственников, родственникам позволено иметь ее, в ответе на задачу ее можно учитывать, как сестру ее можно учитывать тоже, можно плюсовать к другим сестрам, ее брат сохраняет одинаковое родство с двумя сёстрами и Алисой, результат будет верным при таком суммировании.

Без всех флажков ответьте получить. Хотя на самом деле еще проще. Без флажка «правильным ответом считать...» все равно найдут, как заблудиться в трех соснах.

Аватар пользователя alvl
alvl(5 лет 11 месяцев)

Раз уж не даете комментарии:

Если б я имел коня, это был бы номер.

Если б конь имел меня, я б наверно помер.

Аватар пользователя Иван Петровский

ChatGPT и подобные ему не заменят человека там, где важны его особенности и в редких ситуациях, но вполне заменят в границах типовых сценариев

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

Не факт. Пока кроме холивара - реальных подтверждений полной замены - нет. А так - да: экскаватор заменяет землекопа, правда - не на всех задачах, не всегда, и при множестве разнообразных неозвученных ограничений.

Аватар пользователя Omni
Omni(12 лет 2 месяца)

ИМХО, лучше сказать так: Экскаватор легко заменяет пяток землекопов, но не может заменить одного землекопа.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

Тоже вариант. Но тоже подлежит комментированию в зависимости от ситуации.

Аватар пользователя GrumpyVK
GrumpyVK(4 года 2 месяца)

Пока кроме холивара - реальных подтверждений полной замены - нет.

А зачем нужна полная замена, если уже сейчас можно кучу копирайтеров уволить?

Смешно, что те вещи, где считалось, что нужно обладать “одарённостью”, которая, типа, “не каждому дана” ИИ заменил, а вот в логику пока не могёт.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

Как же уже надоела эта песня про "уволенных копирайтеров", ужасть.

Ну, где и кого уволили - пруфы будут? Только не "одна баба сказала" - а с подтверждением сохранения объемов выпуска документов и т.п. Ибо очередные бездоказательные причитания - ну надоели, честное слово.

Аватар пользователя Xop4e__GoodMan
Xop4e__GoodMan(5 лет 9 месяцев)

Пока кроме холивара - реальных подтверждений полной замены - нет.

Автомат для выдачи талонов на очередь в отделениях банков, не?

Но это так, чисто поржать... над "мощью" ИИ, требуемой для этого. smile3.gif 

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

Не, пример неудачный.

сия поделка - в принципе, может справиться. Возможно, потребуются доработки (привести оформление к корпоративному стилю банка, например)...

Аватар пользователя BlopAngin7
BlopAngin7(9 лет 8 месяцев)

К какому году и в каких конкретных областях?

Аватар пользователя Nostrex
Nostrex(2 года 1 месяц)

Полная замена невозможна, поскольку отсутствуют аналитические способности и встретившись с неожиданной ситуацией ИИ будет действовать неадекватно, а наша жизнь тем и прекрасна, что каждый раз удивляет и нужно придумывать выход. В качестве дополнения человека - другое дело, но опасно тем, что человек доверившись ИИ перестанет его проверять (в том числе из-за утерянных компетенций) и они вместе будут генерировать мусор.

Аватар пользователя progserega
progserega(12 лет 3 месяца)

Насчёт заменит - недавно была статья про то, что ИИ не понимает на самом деле что он делает. Глубинно не понимает. В статье был пример:

Спрашиваем чатгпт или ИИ от сбера:

> У Алисы четыре брата и одна сестра. Сколько сестер у брата Алисы?

Ответ у всех примерно одинаково неверный:

> У Алисы один брат и одна сестра. Следовательно, у любого из её братьев также одна сестра — это сама Алиса.

Можно менять количество братьев/сестёр - и всё время ИИ будет ошибаться, не понимая сути. Хотя, один раз он таки мне правильно ответил. Но тут же, на повторный вопрос с другими числами - ответил опять неверно. Как таким системам давать чем-то управлять?!

Второй момент - по поводу отсутствия данных для обучения: есть ещё два этапа - анализ ютубовских роликов и всех видеозаписей. И как следствие умение их генерировать, понимая 3D-сцену. И второй момент - это роботы с датчиками, позволяющими ИИ учиться не на записях о мире (текстовых или видео), а на самом мире - изучать его, пробовать, экспериментировать и т.д. и т.п.

Вопрос только ресурсов. Но тут, возможно, нужно будет поменять в принципе подходы, схемы, строить не в лоб систему, а делать иерархические системы, более похожие на разум живых существ (у нас есть специалисты, которые этим занимаются). Возможно будут иные типы процессоров...

Опасность в том, что ИИ сможет отучить людей от других людей, создать им виртуальный рай с гуриями (если доделают импланты в мозг а-ля матрица) - и из этого виртуального "рая" - люди просто не будут выходить. Сейчас в фейссбуках с "лайками" зависают люди до истерик и нервных срывов, а что говорить о такой виртуальности, где ИИ будет заменять тебе всё. Любую фантазию. Зачем сложный внешний мир, когда в виртуальности - ты царь и бог?

А отказаться, возможно, от этого смогут единицы на сотни тысяч. Точно так же как сейчас от благ цивилизации отказываются отшельники по своим идеалистическим причинам, ради какой-то своей истины и правды, готовые страдать в глуши и трудных (много более трудных) условиях.

Так и там... Человечеству предстоит испытание. На ценность вечного. Правды, труда, истины, любви, бога. Тот, кому это ценно - не примет иллюзию. Многие же другие, кому это неведомо толком - потеряются в виртуальных удовольствиях. Сгинут.

Аватар пользователя Органика
Органика(2 года 8 месяцев)

Он не "думает" так вы представляете процесс мышления - когда а воображении создаётся модель и тд.

Он просто ищет подходящие под ответ тексты, по принципу "слово цепляется за слово" и выдает наиболее часто встречающиеся комбинации слов, из предыдущего контекста вытекает следующий шаг в итерации. Получившееся ессно корректируется в процессе (т.н. обучение). Но вот то что вам говорит - походу результат того что в интернетах эта загадка была распространена с варианте "у Алисы четыре брата, сколько сестер у брата Алисы".

Аватар пользователя Coolerman
Coolerman(4 года 7 месяцев)

Так это не мозг, он не думает, это - алгоритм.

Аватар пользователя Органика
Органика(2 года 8 месяцев)

Ну да, но обычно любят аналогии проводить,типа ваш процесс мышления это тоже -такой же - алгоритм, что неверно. 

Есть большая разница, при ответе использовать язык лишь для описания объектов, решений, взаимосвязей - либо манипулировать термами как единообразными "кубиками" строя комбинации, опираясь почти только на  частотность.

Аватар пользователя balmer
balmer(7 лет 2 недели)

Да нормально современные нейросети думают. И обучаются сравнительно быстро (по сравнению с нейросетями десятилетней давности), но вот никто не выдаëт вам нейросеть с возможностью до обучения. Так-что пока есть ещё большой потенциал для дальнейшего развития. 

Аватар пользователя Органика
Органика(2 года 8 месяцев)

"Обучение" это же исправление ошибок в построениях полученных при помощи частотности. Ну то есть если удастся найти неверные выводы, то они будут исправлены, цепочка скорректирована - и только. 

Аватар пользователя Xop4e__GoodMan
Xop4e__GoodMan(5 лет 9 месяцев)

Да нормально современные нейросети думают.

Так ведь не думают же, а тупо делают выборку из массива данных. Не более того. Чем больше данных и "тоньше" алгоритм выборки, тем ответ "точнее".

Аватар пользователя balmer
balmer(7 лет 2 недели)

Интеллект - это про обработать данные, выявить закономерности и представить их в компактной форме.

У современных нейросетей интеллект сильно ниже человеческого. Но он есть и он проявляется в момент обучения. При общении с чат-ботами интеллект обнаружить невозможно принципиально, потому они в этот момент не обучаются и не могут выявлять закономерности в новой информации.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

Интеллект - это про обработать данные, выявить закономерности и представить их в компактной форме.

Смешно. Вы это сами придумали?

Аватар пользователя panadium
panadium(9 лет 4 месяца)

Кстати, подметил: заИИшники поклонники ИИ используют альтернативное толкование слов, чем и вызывают срач на ровном месте.

Аватар пользователя balmer
balmer(7 лет 2 недели)

У меня то хоть какое-то определение интеллекта есть. Дайте своё определение интеллекта, но только не уровня "интеллект дан богом человеку".

При этом естественно определение должно предполагать наличие существ/аппаратов менее интеллектуальных, чем человек.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

Ну, то есть - сами придумали. ОК.

Знаете, есть вещи, которые лучше не придумывать, а использовать официально утвержденные. Особенно важно это для значимых сущностей.

Интеллект (от лат. intellectus — понимание, познание) — обобщенная характеристика познавательных (когнитивных, умственных) способностей; способность к приобретению и эффективному использованию знаний.

источник: https://psychiatr.ru/education/slide/365

Дарю, пользуйтесь.

Аватар пользователя balmer
balmer(7 лет 2 недели)

Хех. Там очень слабенькое определение, от "лириков".

Что значит "способность к приобретению и эффективному использованию знаний"?

А если человек только на работу ходит и ничего особо не приобретает, да и имеющиеся знания не особо эффективно использует. Всё - он лишился интеллекта.

Что значит "способность решать мыслительные задачи"?

А если человек логике не обучен, то всё - человек без интеллекта у нас нашёлся.

И потом страница объяснений уровня: А вот мы тестируем интеллект таким-то таким-то способом. Причём огромное количество из этих тестов современные LLM пройти могут достаточно хорошо.

Приписка "характеризует биологические способности нервной системы" так-же показывает, что очень старое определение.

Аватар пользователя Mr.Wolf
Mr.Wolf(5 лет 6 месяцев)

Круто. То есть ваше определение - оно лучше? Ну-ну, с адекватностью самооценки - присутствуют некоторые сложности. 

Больше вопросов не имею.

Аватар пользователя Xop4e__GoodMan
Xop4e__GoodMan(5 лет 9 месяцев)

Интеллект - это про обработать данные, выявить закономерности и представить их в компактной форме.

Так я об этом и говорю.

Вот именно это ИИ и делает – обрабатывает данные по заложенному алгоритму.

То есть, ИИ – это не более чем программа с определёнными целями и задачами. У неё есть начало и конец. Инструмент – "сферический молоток", только хуже, ибо не факт, что будет что-то куда-то забивать должным образом.

У современных нейросетей интеллект сильно ниже человеческого.

Ну... да. Потому что это программа, схема, форма, перфокарта, сито. Произведённая человеком по некоторому подобию человеческих логических рассуждений. Но человек далёк от понимания того, как устроен он сам, поэтому ИИ ещё долго будет лишь "сферическим молотком" до тех пор, пока не будет совершено какое-то открытие в области принципов работы мозга хотя бы простейших червей (если верить Савельеву).

Страницы