Bing и ChatGPT - кто умнее?

Аватар пользователя Yevd

Однажды Шерлок Холммс совершал путешествие на воздушном шаре, но из-за тумана потерял ориентацию. Он спустился на шаре пониже к земле, чтобы найти кого-нибудь и спросить где он находится. Вот он увидел молодого джентльмена, и, свесившись из корзины воздушного шара, спросил:

  • Сэр, не подскажете ли, где я нахожусь?
  • Подскажу - ответил джентльмен и молча продолжал идти дальше.
  • Так где же я нахожусь? - спросил Холмс
  • Вы находитесь в корзине воздушного шара
  • Спасибо, мистер программист
  • Но как вы узнали, что я программист?
  • Это элементарно. На мои простые вопросы вы дали абсолютно точные и абсолютно бесполезные ответы - сказал Холмс, поняв, что никакой пользы от общения не получит, продолжил путешествие

Эта байка вспомнилась, когда я решил узнать, есть ли разница между искусственным интеллектом Bing и ChatGPT.

Я спросил:

Существует мнение, что кальций и магний, содержащиеся в жёсткой воде, плохо усваиваются организмом. Что нужно добавить в воду, чтобы эти элементы усваивались организмом?

Bing ответил абсолютно правильно и абсолюто бесполезно: "Я не нашел информации о том, что кальций и магний, содержащиеся в жесткой воде, плохо усваиваются организмом. Также я не нашел информации о том, что нужно добавить в воду, чтобы эти элементы усваивались организмом лучше. Возможно, для получения достаточного количества этих минералов необходимо употреблять продукты, богатые кальцием и магнием. Лучше всего обратиться к врачу или диетологу для получения более точной информации об этом".

ChatGPT на тот же вопрос ответил так, как ответил бы любой диванный аналитик, сведущий абсолютно во всех областях жизни:

"Кальций и магний являются важными минералами для здоровья человека, но существует мнение, что содержащиеся в жесткой воде формы этих минералов менее усваиваемы организмом, чем формы, содержащиеся в мягкой воде.

Однако, необходимо отметить, что источники кальция и магния, включая жесткую воду, могут быть хорошо усвоены организмом при правильном питании и регулярной физической активности.

Если вы хотите улучшить усвоение кальция и магния из воды, можно добавить в воду лимонный сок или другие фрукты и овощи, богатые витамином C. Витамин C помогает улучшить усвоение кальция и магния. Также можно рассмотреть возможность приема специальных добавок к питанию, содержащих кальций и магний.

В целом, важно следить за своим рационом и убедиться, что вы получаете достаточное количество кальция и магния из различных источников, включая пищу и напитки"

Как видим, пользы от ответа ChatGPT не намного больше (он не подтвердил ответ никакими источниками), но зато высказал своё мнение и тем самым показал, что с ним можно вести беседы на любые темы, как с живым собеседником в любой социальной сети, который не будет грузить вас занудными ссылками на серьёзные источники информации. Расслабьтесь и получите удовольствие от того, что ИИ не умнее вас

Авторство: 
Авторская работа / переводика

Комментарии

Аватар пользователя Пеннигер
Пеннигер(12 лет 10 месяцев)

Меня больше веселит ответ бота на вопрос о том, кто победил в битве при Креси. Немалой фантазией обладает товарищ.  Правда спрашивать надо на русском, по-английски отвечает корректно.

зы, а как правильно то?

The opinion exists that calcium and magnesium, which are contained in hard water, are poorly absorbed by the body. What should be added to water to make these elements absorbed by the body?

To increase the absorption of calcium and magnesium from hard water, it is recommended to add vitamin D and/or citric acid to the water. Vitamin D helps the body to absorb calcium, while citric acid helps to chelate magnesium, making it more easily absorbed by the body. Another option is to use a water softener, which removes the calcium and magnesium ions from the water and replaces them with sodium ions, making the water softer and easier for the body to absorb. However, it is important to note that excessive intake of sodium can have negative health effects, so it is important to monitor sodium intake when using a water softener.

Аватар пользователя simak2222_copy
simak2222_copy(1 год 10 месяцев)

Правда спрашивать надо на русском, по-английски отвечает корректно.

ChatGPT на всех языках отвечает идентично. Он оперирует объектами, а не словами языка.

Аватар пользователя Пеннигер
Пеннигер(12 лет 10 месяцев)

Выше ответ GPT3.5 на вопрос топик стартера.

Кстати, из промпта уберите упоминание столетней войны, просто "кто победил в битве при Креси"/"who won the battle of Crecy".

Аватар пользователя Skygoo
Skygoo(10 лет 2 месяца)

Так может при Кресси не одна битва была. Либо этот н.п. назывался так только при Столетней войне. Поэтому нейросеть и отвечает вам не корректно. Задавайте вопрос правильно.

Аватар пользователя Пеннигер
Пеннигер(12 лет 10 месяцев)

Может и так, может за Сталинград тоже было несколько битв, или несколько битв при Молодях. Бородинских битв тоже, наверное, больше одной.

Аватар пользователя Skygoo
Skygoo(10 лет 2 месяца)

Бородинских битв тоже, наверное, больше одной

Как минимум две - в 1812 и в 1941.

Аватар пользователя Мария_К
Мария_К(8 лет 11 месяцев)

Спросите у бота, кто выиграл битву при Молодях. Сколько я не пыталась вывести его на правильный ответ, у меня так и не получилось. Он считает, что её выиграли поляки. А если не поляки, то, наверное, литовцы. А если не литовцы, то, наверное, опять поляки, только вместо Стефана-Батория он предположил короля Августа. На вопрос об источнике его познаний, он бодро предлагал ссылки, которые никуда не вели. То есть, им категорически нельзя пользоваться как поисковиком. Можно пользоваться, как генератором текстов (в том числе, как неплохим переводчиком) в областях, в которых хорошо разбираешься - просто для экономии времени на составление текстов.

Аватар пользователя Пеннигер
Пеннигер(12 лет 10 месяцев)

По-английски отвечает почти правильно, только в конце почему-то добавляет, что это первый случай, когда русские победили татар на поле битвы.

Аватар пользователя e.tvorogov
e.tvorogov(8 лет 10 месяцев)

Вчера попробовал попросить ЧатГПТ подобрать мне музыку, похожую на один конкретный альбом. Он выдал несколько сборников и также несколько несуществующих альбомов. Точнее, музыканты существуют, но альбомов таких у них никогда не было.

Аватар пользователя shepgot
shepgot(3 года 1 день)

ЧатГПТ не создает новую информацию. Он разыскивает имеющуюся. Если кто-то где-то сказал, что конкретный альбом, заданный вами как отправная точка, похож на какой-то другой, даже несуществующий, эта информация вам и будет выдана. ЧатГПТ не проверяет источники на достоверность, просто берет наиболее вероятный ответ. А если такой ответ окажется единственным по теме и ложным по сути, вы получите ложную информацию. ЧатГПТ - это система поисковая, а не экспертная.

Аватар пользователя Intel4004
Intel4004(12 лет 3 месяца)

Он даже не разыскивает имеющуюся. Он последовательно подбирает слова, из которых получается фраза.

Человек мыслит не словами, а образами. Если человеку задать вопрос "Сколько ног у кошки?" то эта фраза сначала преобразуется в цельный образ, этот образ обработается мозгом, на выходе получится другой образ, который после перевода в слова будет звучать как "У кошки четыре ноги.". Т.е. когда человек произносит первое слово ответа - он уже знает весь ответ.

ЧатГПТ не мыслит. Он последовательно подбирает наиболее вероятное слово. Подаем на вход вопрос "Сколько ног у кошки?". Эта фраза пропускается через нейросеть, на выходе имеем ответ: "У".

Заново подаем на вход исходный вопрос и сгенерированную часть ответа: "Сколько ног у кошки? У", на выходе снова имеем наиболее вероятное слово: "кошки".

Подаем на вход "Сколько ног у кошки? У кошки", на выходе "четыре".

Подаем на вход "Сколько ног у кошки? У кошки четыре", на выходе "ноги".

Подаем на вход "Сколько ног у кошки? У кошки четыре ноги", на выходе ".".

Все. Точка. Ответ закончен.

Нет там ни мыслей, ни информации. Просто через него прогнали терабайты текстов и он на основании этих терабайтов подбирает слово (одно слово!), которое с максимальной вероятностью должно следовать за поданным на вход текстом.

Его даже генератором текстов обозвать сложно, это генератор одного слова.

Аватар пользователя shepgot
shepgot(3 года 1 день)

Вы путаете ЧатГПТ с Т9, который был его далеким прародителем. С тем же успехом вы можете описывать процесс мышления человека как мышление обезьяны. Расскажите, например, как обезьяна (или Т9) поможет вам подобрать комплектующие для компьютера под цель самостоятельной сборки. А Чат сможет - просто потому, что на эту тему много обсуждений и экспертного материала.

Аватар пользователя Турист
Турист(10 лет 3 месяца)

Аватар пользователя shepgot
shepgot(3 года 1 день)

Кроме картинки с голословным утверждением, есть примеры, которые можно было  бы проверить на достоверность?

Аватар пользователя калибровщик
калибровщик(8 лет 11 месяцев)

Позавчера моей знакомой ЖПТ написал статью с таким эпиграфом: "Когда мы смотрим на высокие религиозные сооружения, мы не только видим каменные стены, но и ощущаем мощь веры, которая возвышает людей над их земными проблемами и напоминает о более высоких идеалах".

Она спросила железку, кто автор цитаты. Железка сказала : Эллен Пруит.

А теперь попробуйте найти поиском то и другое. Я нашёл кучу тиоток, по умолчанию неспособных родить такую мысль.

Аватар пользователя Yevd
Yevd(9 лет 11 месяцев)

Ещё классик отмечал: Главная проблема цитат в Интернете в том, что люди сразу верят в их подлинность. — В. И. Ленин.

Аватар пользователя Intel4004
Intel4004(12 лет 3 месяца)

Попробовал.

Я: Приведи цитату из Ленина, подтверждающую необходимость электрификации.

ГПТ: "Без электрификации наша страна будет населенной", В.И. Ленин.

Аватар пользователя shepgot
shepgot(3 года 1 день)

Понятно. Ваша цель была найти хохму, вы ее и нашли, Чат вам в этом помог. Попробуйте искать что-то дельное, а не лозунги политиков, афоризмы или двусмысленные идиомы из юмористических форумов.

Аватар пользователя Intel4004
Intel4004(12 лет 3 месяца)

Я для проверки запросил первую пришедшую на ум и с гарантией существующую цитату. Первый же ответ меня восхитил.

На всякий случай я сейчас уточнил вопрос:

Я: Приведи цитату из Ленина, подтверждающую необходимость электрификации, с указанием названия статьи, тома и страницы.
ГПТ: "Социалистическое решение задачи электрификации страны представляет собою необходимую меру для ее экономического развития..." (В.И. Ленин, "Проект резолюции о плане на создание Электрификационного народного хозяйства", ПСС, том 42, с. 48).

Выглядит внушительно и правдоподобно. Вот только в ПСС нет ни такой статьи, ни такой цитаты...

А вы продолжайте считать генератор одного слова полноценным интеллектом и общаться с ним, как с равным по разуму.

Аватар пользователя Пеннигер
Пеннигер(12 лет 10 месяцев)

Надеюсь яндекс своего робота заставит проштудировать ПСС Ленина, Троцкого, Сталина и прочих вождей.

Аватар пользователя shepgot
shepgot(3 года 1 день)

Да, это главное, на чем надо сосредоточиться при создании систем ИИ. Знание цитат вождей - это основной критерий интеллектуальности в определенной среде "российской интеллигенции".

Аватар пользователя Пеннигер
Пеннигер(12 лет 10 месяцев)

Русский бот должен быть обучен на максимально возможном количестве русских текстов.

Аватар пользователя shepgot
shepgot(3 года 1 день)

Все верно. А ЧатГПТ это далеко не русский бот, поэтому бессмысленно предъявлять ему претензии, основанные на незнании текстов, которых ему не давали для проработки.

Аватар пользователя Waldis
Waldis(2 года 11 месяцев)

У меня есть свой, сугубо негативный, опыт общения с чат-ГОПОТА.
пробовал поэзию, погоду, науку, отвлечённые темы - результат одинаково "восхитителен".
ув. shepgot, вы, судя по ответам, глубоко в теме.
ответьте, пожалуйста, на простой вопрос: почему в случае отсутствия внятного (верифицируемого так или иначе ответа) гопота и ему подобные ИмитаторыИнтеллекта не отвечают "не знаю, не уверен, слюшай, дарагой, дафай завтра приходи, дааа"?
Как так получается, что в ответ мы получаем ахинею и сказки бабушки Арины?

Аватар пользователя Пеннигер
Пеннигер(12 лет 10 месяцев)

Читайте топик, как раз там написано что некоторые модификации так умеют. Видимо перед из разработчиками была поставлена такая задача.

Аватар пользователя Waldis
Waldis(2 года 11 месяцев)

Некоторые -  это какие?

Аватар пользователя Пеннигер
Пеннигер(12 лет 10 месяцев)

Ну от же ТС написал -- Бинг честно ответил, что не знает ответа на вопрос. Логично, что ему, как поисковой модификации бота, урезали возможность фантазировать.

зы это, кстати, как с негативным промптом в рисовалках. По моему впечатлению (кровью не подпишусь), нет смысла тягать простыни из интернета, это ограничивает фантазию рисовалки, добавлять туда нужно дозированно, по мере возникновения проблем.

Аватар пользователя shepgot
shepgot(3 года 1 день)

Очевидно, что цель верификации ответов изначально не ставилась, либо выставлен слишком низкий порог срабатывания. Поэтому даже если достоверность наиболее вероятного результата близка к нулю, он не отбросит этот мусор, не скажет "не знаю", а выдаст ответ, какой есть.

Аватар пользователя Intel4004
Intel4004(12 лет 3 месяца)

Это был тест не на "знание цитат", а на достоверность. Ленин - отлично верифицируемый источник. "Информация" от ГПТ верификацию не прошла, а наоборот, подтвердила то, о чем я писал в начале треда - ГПТ это генератор даже не текста, а одного слова.

Аватар пользователя Пеннигер
Пеннигер(12 лет 10 месяцев)

Достоверность, вы наверное думаете, что достоверность бот должен устанавливать при помощи магии? Что ему скормили то он и "знает".

Аватар пользователя Intel4004
Intel4004(12 лет 3 месяца)

А, ясно.

Ему скормили ПСС Ленина в котором в томе 42 на странице 48 есть такая статья, с такой цитатой. Наверное это ПСС из параллельной вселенной, т.к. в нашей вселенной ни такой статьи, ни такой цитаты нет.

Аватар пользователя Пеннигер
Пеннигер(12 лет 10 месяцев)

Бот просто выдаёт наиболее вероятную комбинацию слов. То, что наиболее вероятное в данном случае означает "не точный ноль", это уже другое дело, спросите разработчиков почему они не ввели ограничений на гонево.

Аватар пользователя shepgot
shepgot(3 года 1 день)

Судя по вашим постам, вы вообще не понимаете принцип работы ЧатГПТ. На каком массиве текстов подбирали ему "образование", то он и "знает". Учили бы его по собранию сочинений Маркса и Ленина, были бы вам и правильные ответы в этой области.

Аватар пользователя Мария_К
Мария_К(8 лет 11 месяцев)

Проблема не в том, что чат не знает цитат Ленина. Проблема в том, что когда он не знает, он не говорит об этом, а генерирует бред. То есть, использовать его можно только в тех областях, которые очень хорошо знаешь сам. Ну или пытаться верефицировать полученную информацию из других источников. Что само по себе не айс 

Аватар пользователя shepgot
shepgot(3 года 1 день)

Это не проблема. Точнее, это придуманная проблема. Чат это чат, а не экспертная система. Его предназначение в разговоре (в болтовне), а не предоставлении строго научных и верифицированных сведений бабушкам на лавочке. Для экспертной системы добавляется модуль верификации и все там ок с достоверностью. А то, что в широком доступе для народных масс - это просто тестирование и развлечение. И то и то превосходно удается.

Аватар пользователя Мария_К
Мария_К(8 лет 11 месяцев)

Извините, но общение с ботом, ради самого процесса общения - это изврат, наподобие онанизма. И его ведь рекламируют, как источник знаний, который в лёгкую напишет за вас чуть ли ни кандидатскую, а уж обычный школьный реферат - без проблем.

Я его тестировала с точки зрения, чем он лично мне может быть полезен. Для болтовни вокруг много живых людей. Как поисковик - абсолютно нет, по описанным выше причинам. Как генератор достаточно больших текстов на заданную тему, в которой хорошо разбираешься, когда проверка за ботом отнимает меньше времени и сил, чем самостоятельное написание - вполне.

Аватар пользователя Турист
Турист(10 лет 3 месяца)

smile9.gifsmile5.gif

Аватар пользователя Пеннигер
Пеннигер(12 лет 10 месяцев)

А по-моему отличное развлечение.

https://kvisaz.livejournal.com/1329064.html

"Однажды утром, на востоке от королевства Веллис, из деревни Серебрянка в город Фантазария прибыл молодой человек лет двадцати пяти. Его сопровождала белоснежная кошка с горящими глазами.

- Господин, - восторженно мурлыкала кошка, - может, научите меня искусству иллюзий?"

Аватар пользователя Yevd
Yevd(9 лет 11 месяцев)

Вероятно, существует англоязычное издание, в котором есть перевод оригинала цитаты в таком томе на такой странице. А потом ещё и обратный машинный перевод на русский изменяет цитату до неузнаваемости. 

Аватар пользователя Пеннигер
Пеннигер(12 лет 10 месяцев)

Бот ничего не переводит "для себя". Русские и ангилйские связи слов живут у него в параллельных вселенных, отсюда все эти приколы с Молодями или Креси.

Аватар пользователя Intel4004
Intel4004(12 лет 3 месяца)

Откройте ПСС, том 42, с. 48, и попытайтесь найти там хоть что-то про электрификацию.

Откройте ПСС, том 42, оглавление, найдите что-то близкое по смыслу к названию статьи (там есть 2 статьи, которые при сильном желании можно натянуть на выданное ГПТ). Внимательно их прочитайте (они короткие). Попытайтесь найти фразу хоть немного похожую на приведенную цитату. Нет, ни одно предложение из этих двух статей не натягивается.

Аватар пользователя shepgot
shepgot(3 года 1 день)

А вы не там ищете. Надо искать не в ПСС, а в том мусоре из скормленных Чату статей, из которых и взяты найденные вами фразы. Откуда Чату знать, что ПСС - это оригинал и основной источник? Для него все источники равны. Возьмите чистую систему, давайте ей для обработки только "правильные" материалы, тогда и на выходе получите только "правильные" ответы.

Не стоит судить о потенциале систем ГПТ4+ и аналогов на основе впечатлений от ЧатГПТ, получившем образование на интернет-помойке. Вы похожи на человека, пытающегося составить мнение о студентах университета, расспрашивая бомжа около мусорного бака университетской столовой.

Аватар пользователя Intel4004
Intel4004(12 лет 3 месяца)

Так вот, при обучении ему скармливали много чего, в том числе и ПСС Ленина.

А проблема не в том, что он оперирует неверными данными. Проблема в том, что он вообще не оперирует данными. ГПТ - это алгоритм, дописывающий к исходному тексту одно слово. Одно слово. При неоднократном повторении получается нечто похожее на связный текст.

ps. Забавный парадокс получается: люди, считающие, что ГПТ обладает интеллектом, таким-же как у них - на самом деле правы ;)

Аватар пользователя Пеннигер
Пеннигер(12 лет 10 месяцев)

Нет конечно, в лучшем случае ему попались несколько цитат из интернета. Это как с битвой при Молодях, где-то ему попадалось такое словосочетанием, не больше того.

Аватар пользователя Gets
Gets(6 лет 1 месяц)

smile3.gif

Аватар пользователя Yevd
Yevd(9 лет 11 месяцев)

Я попытался найти хохму - известную "цитату" из Ленина про доверие людей к интернету.  Хохма не получилась - ИИ оказался достаточно образованным и ответил, что Ленин умер до появления интернета 

Аватар пользователя Ответчик
Ответчик(6 лет 4 месяца)

Люди просто не слышат, что вы им говорите. 
Мои наблюдения подтверждают ваши слова. ЧатГПТ не имеет целью создать полезный, правильный, правдивый текст. Он имеет целью создать правдоподобно выглядящий текст, и не более того. 

Он мне напоминает школьника-шалопая, который будучи вызван к доске, и не владея материалом, но слышав много звона, начинает напропалую выдумывать и трепать языком перед учителем, произнося много слов на заданную тему. С непритязательными учителями такое прокатывает, чтобы получить тройку. Типа, "видно, что что-то знает". 

Использовать его как источник знаний, в данном виде - нельзя категорически. 

Аватар пользователя Пеннигер
Пеннигер(12 лет 10 месяцев)

Так надо понимать его ограничения, а не пытаться перепилить рельс бензопилой, спрашивая его чем-то, что он вряд ли может "знать", да еще по-русски.

Аватар пользователя shepgot
shepgot(3 года 1 день)

Ну а как вы хотели? Видим плотника, давай его расспрашивать о лингвистике, видим лингвиста, давай расспрашивать о тонкостях загрузки твэлов в реактор. Цель-то у некоторых не в попытках разобраться в теме, а заболтать и зачморить.

Аватар пользователя Mich70
Mich70(5 лет 11 месяцев)

У кошки нет ног!

Четыре-это лапы.

Страницы