Однажды Шерлок Холммс совершал путешествие на воздушном шаре, но из-за тумана потерял ориентацию. Он спустился на шаре пониже к земле, чтобы найти кого-нибудь и спросить где он находится. Вот он увидел молодого джентльмена, и, свесившись из корзины воздушного шара, спросил:
- Сэр, не подскажете ли, где я нахожусь?
- Подскажу - ответил джентльмен и молча продолжал идти дальше.
- Так где же я нахожусь? - спросил Холмс
- Вы находитесь в корзине воздушного шара
- Спасибо, мистер программист
- Но как вы узнали, что я программист?
- Это элементарно. На мои простые вопросы вы дали абсолютно точные и абсолютно бесполезные ответы - сказал Холмс, поняв, что никакой пользы от общения не получит, продолжил путешествие
Эта байка вспомнилась, когда я решил узнать, есть ли разница между искусственным интеллектом Bing и ChatGPT.
Я спросил:
Существует мнение, что кальций и магний, содержащиеся в жёсткой воде, плохо усваиваются организмом. Что нужно добавить в воду, чтобы эти элементы усваивались организмом?
Bing ответил абсолютно правильно и абсолюто бесполезно: "Я не нашел информации о том, что кальций и магний, содержащиеся в жесткой воде, плохо усваиваются организмом. Также я не нашел информации о том, что нужно добавить в воду, чтобы эти элементы усваивались организмом лучше. Возможно, для получения достаточного количества этих минералов необходимо употреблять продукты, богатые кальцием и магнием. Лучше всего обратиться к врачу или диетологу для получения более точной информации об этом".
ChatGPT на тот же вопрос ответил так, как ответил бы любой диванный аналитик, сведущий абсолютно во всех областях жизни:
"Кальций и магний являются важными минералами для здоровья человека, но существует мнение, что содержащиеся в жесткой воде формы этих минералов менее усваиваемы организмом, чем формы, содержащиеся в мягкой воде.
Однако, необходимо отметить, что источники кальция и магния, включая жесткую воду, могут быть хорошо усвоены организмом при правильном питании и регулярной физической активности.
Если вы хотите улучшить усвоение кальция и магния из воды, можно добавить в воду лимонный сок или другие фрукты и овощи, богатые витамином C. Витамин C помогает улучшить усвоение кальция и магния. Также можно рассмотреть возможность приема специальных добавок к питанию, содержащих кальций и магний.
В целом, важно следить за своим рационом и убедиться, что вы получаете достаточное количество кальция и магния из различных источников, включая пищу и напитки"
Как видим, пользы от ответа ChatGPT не намного больше (он не подтвердил ответ никакими источниками), но зато высказал своё мнение и тем самым показал, что с ним можно вести беседы на любые темы, как с живым собеседником в любой социальной сети, который не будет грузить вас занудными ссылками на серьёзные источники информации. Расслабьтесь и получите удовольствие от того, что ИИ не умнее вас
Комментарии
Меня больше веселит ответ бота на вопрос о том, кто победил в битве при Креси. Немалой фантазией обладает товарищ. Правда спрашивать надо на русском, по-английски отвечает корректно.
зы, а как правильно то?
The opinion exists that calcium and magnesium, which are contained in hard water, are poorly absorbed by the body. What should be added to water to make these elements absorbed by the body?
To increase the absorption of calcium and magnesium from hard water, it is recommended to add vitamin D and/or citric acid to the water. Vitamin D helps the body to absorb calcium, while citric acid helps to chelate magnesium, making it more easily absorbed by the body. Another option is to use a water softener, which removes the calcium and magnesium ions from the water and replaces them with sodium ions, making the water softer and easier for the body to absorb. However, it is important to note that excessive intake of sodium can have negative health effects, so it is important to monitor sodium intake when using a water softener.
ChatGPT на всех языках отвечает идентично. Он оперирует объектами, а не словами языка.
Выше ответ GPT3.5 на вопрос топик стартера.
Кстати, из промпта уберите упоминание столетней войны, просто "кто победил в битве при Креси"/"who won the battle of Crecy".
Так может при Кресси не одна битва была. Либо этот н.п. назывался так только при Столетней войне. Поэтому нейросеть и отвечает вам не корректно. Задавайте вопрос правильно.
Может и так, может за Сталинград тоже было несколько битв, или несколько битв при Молодях. Бородинских битв тоже, наверное, больше одной.
Как минимум две - в 1812 и в 1941.
Спросите у бота, кто выиграл битву при Молодях. Сколько я не пыталась вывести его на правильный ответ, у меня так и не получилось. Он считает, что её выиграли поляки. А если не поляки, то, наверное, литовцы. А если не литовцы, то, наверное, опять поляки, только вместо Стефана-Батория он предположил короля Августа. На вопрос об источнике его познаний, он бодро предлагал ссылки, которые никуда не вели. То есть, им категорически нельзя пользоваться как поисковиком. Можно пользоваться, как генератором текстов (в том числе, как неплохим переводчиком) в областях, в которых хорошо разбираешься - просто для экономии времени на составление текстов.
По-английски отвечает почти правильно, только в конце почему-то добавляет, что это первый случай, когда русские победили татар на поле битвы.
Вчера попробовал попросить ЧатГПТ подобрать мне музыку, похожую на один конкретный альбом. Он выдал несколько сборников и также несколько несуществующих альбомов. Точнее, музыканты существуют, но альбомов таких у них никогда не было.
ЧатГПТ не создает новую информацию. Он разыскивает имеющуюся. Если кто-то где-то сказал, что конкретный альбом, заданный вами как отправная точка, похож на какой-то другой, даже несуществующий, эта информация вам и будет выдана. ЧатГПТ не проверяет источники на достоверность, просто берет наиболее вероятный ответ. А если такой ответ окажется единственным по теме и ложным по сути, вы получите ложную информацию. ЧатГПТ - это система поисковая, а не экспертная.
Он даже не разыскивает имеющуюся. Он последовательно подбирает слова, из которых получается фраза.
Человек мыслит не словами, а образами. Если человеку задать вопрос "Сколько ног у кошки?" то эта фраза сначала преобразуется в цельный образ, этот образ обработается мозгом, на выходе получится другой образ, который после перевода в слова будет звучать как "У кошки четыре ноги.". Т.е. когда человек произносит первое слово ответа - он уже знает весь ответ.
ЧатГПТ не мыслит. Он последовательно подбирает наиболее вероятное слово. Подаем на вход вопрос "Сколько ног у кошки?". Эта фраза пропускается через нейросеть, на выходе имеем ответ: "У".
Заново подаем на вход исходный вопрос и сгенерированную часть ответа: "Сколько ног у кошки? У", на выходе снова имеем наиболее вероятное слово: "кошки".
Подаем на вход "Сколько ног у кошки? У кошки", на выходе "четыре".
Подаем на вход "Сколько ног у кошки? У кошки четыре", на выходе "ноги".
Подаем на вход "Сколько ног у кошки? У кошки четыре ноги", на выходе ".".
Все. Точка. Ответ закончен.
Нет там ни мыслей, ни информации. Просто через него прогнали терабайты текстов и он на основании этих терабайтов подбирает слово (одно слово!), которое с максимальной вероятностью должно следовать за поданным на вход текстом.
Его даже генератором текстов обозвать сложно, это генератор одного слова.
Вы путаете ЧатГПТ с Т9, который был его далеким прародителем. С тем же успехом вы можете описывать процесс мышления человека как мышление обезьяны. Расскажите, например, как обезьяна (или Т9) поможет вам подобрать комплектующие для компьютера под цель самостоятельной сборки. А Чат сможет - просто потому, что на эту тему много обсуждений и экспертного материала.
Кроме картинки с голословным утверждением, есть примеры, которые можно было бы проверить на достоверность?
Позавчера моей знакомой ЖПТ написал статью с таким эпиграфом: "Когда мы смотрим на высокие религиозные сооружения, мы не только видим каменные стены, но и ощущаем мощь веры, которая возвышает людей над их земными проблемами и напоминает о более высоких идеалах".
Она спросила железку, кто автор цитаты. Железка сказала : Эллен Пруит.
А теперь попробуйте найти поиском то и другое. Я нашёл кучу тиоток, по умолчанию неспособных родить такую мысль.
Ещё классик отмечал: Главная проблема цитат в Интернете в том, что люди сразу верят в их подлинность. — В. И. Ленин.
Попробовал.
Я: Приведи цитату из Ленина, подтверждающую необходимость электрификации.
ГПТ: "Без электрификации наша страна будет населенной", В.И. Ленин.
Понятно. Ваша цель была найти хохму, вы ее и нашли, Чат вам в этом помог. Попробуйте искать что-то дельное, а не лозунги политиков, афоризмы или двусмысленные идиомы из юмористических форумов.
Я для проверки запросил первую пришедшую на ум и с гарантией существующую цитату. Первый же ответ меня восхитил.
На всякий случай я сейчас уточнил вопрос:
Я: Приведи цитату из Ленина, подтверждающую необходимость электрификации, с указанием названия статьи, тома и страницы.
ГПТ: "Социалистическое решение задачи электрификации страны представляет собою необходимую меру для ее экономического развития..." (В.И. Ленин, "Проект резолюции о плане на создание Электрификационного народного хозяйства", ПСС, том 42, с. 48).
Выглядит внушительно и правдоподобно. Вот только в ПСС нет ни такой статьи, ни такой цитаты...
А вы продолжайте считать генератор одного слова полноценным интеллектом и общаться с ним, как с равным по разуму.
Надеюсь яндекс своего робота заставит проштудировать ПСС Ленина, Троцкого, Сталина и прочих вождей.
Да, это главное, на чем надо сосредоточиться при создании систем ИИ. Знание цитат вождей - это основной критерий интеллектуальности в определенной среде "российской интеллигенции".
Русский бот должен быть обучен на максимально возможном количестве русских текстов.
Все верно. А ЧатГПТ это далеко не русский бот, поэтому бессмысленно предъявлять ему претензии, основанные на незнании текстов, которых ему не давали для проработки.
У меня есть свой, сугубо негативный, опыт общения с чат-ГОПОТА.
пробовал поэзию, погоду, науку, отвлечённые темы - результат одинаково "восхитителен".
ув. shepgot, вы, судя по ответам, глубоко в теме.
ответьте, пожалуйста, на простой вопрос: почему в случае отсутствия внятного (верифицируемого так или иначе ответа) гопота и ему подобные ИмитаторыИнтеллекта не отвечают "не знаю, не уверен, слюшай, дарагой, дафай завтра приходи, дааа"?
Как так получается, что в ответ мы получаем ахинею и сказки бабушки Арины?
Читайте топик, как раз там написано что некоторые модификации так умеют. Видимо перед из разработчиками была поставлена такая задача.
Некоторые - это какие?
Ну от же ТС написал -- Бинг честно ответил, что не знает ответа на вопрос. Логично, что ему, как поисковой модификации бота, урезали возможность фантазировать.
зы это, кстати, как с негативным промптом в рисовалках. По моему впечатлению (кровью не подпишусь), нет смысла тягать простыни из интернета, это ограничивает фантазию рисовалки, добавлять туда нужно дозированно, по мере возникновения проблем.
Очевидно, что цель верификации ответов изначально не ставилась, либо выставлен слишком низкий порог срабатывания. Поэтому даже если достоверность наиболее вероятного результата близка к нулю, он не отбросит этот мусор, не скажет "не знаю", а выдаст ответ, какой есть.
Это был тест не на "знание цитат", а на достоверность. Ленин - отлично верифицируемый источник. "Информация" от ГПТ верификацию не прошла, а наоборот, подтвердила то, о чем я писал в начале треда - ГПТ это генератор даже не текста, а одного слова.
Достоверность, вы наверное думаете, что достоверность бот должен устанавливать при помощи магии? Что ему скормили то он и "знает".
А, ясно.
Ему скормили ПСС Ленина в котором в томе 42 на странице 48 есть такая статья, с такой цитатой. Наверное это ПСС из параллельной вселенной, т.к. в нашей вселенной ни такой статьи, ни такой цитаты нет.
Бот просто выдаёт наиболее вероятную комбинацию слов. То, что наиболее вероятное в данном случае означает "не точный ноль", это уже другое дело, спросите разработчиков почему они не ввели ограничений на гонево.
Судя по вашим постам, вы вообще не понимаете принцип работы ЧатГПТ. На каком массиве текстов подбирали ему "образование", то он и "знает". Учили бы его по собранию сочинений Маркса и Ленина, были бы вам и правильные ответы в этой области.
Проблема не в том, что чат не знает цитат Ленина. Проблема в том, что когда он не знает, он не говорит об этом, а генерирует бред. То есть, использовать его можно только в тех областях, которые очень хорошо знаешь сам. Ну или пытаться верефицировать полученную информацию из других источников. Что само по себе не айс
Это не проблема. Точнее, это придуманная проблема. Чат это чат, а не экспертная система. Его предназначение в разговоре (в болтовне), а не предоставлении строго научных и верифицированных сведений бабушкам на лавочке. Для экспертной системы добавляется модуль верификации и все там ок с достоверностью. А то, что в широком доступе для народных масс - это просто тестирование и развлечение. И то и то превосходно удается.
Извините, но общение с ботом, ради самого процесса общения - это изврат, наподобие онанизма. И его ведь рекламируют, как источник знаний, который в лёгкую напишет за вас чуть ли ни кандидатскую, а уж обычный школьный реферат - без проблем.
Я его тестировала с точки зрения, чем он лично мне может быть полезен. Для болтовни вокруг много живых людей. Как поисковик - абсолютно нет, по описанным выше причинам. Как генератор достаточно больших текстов на заданную тему, в которой хорошо разбираешься, когда проверка за ботом отнимает меньше времени и сил, чем самостоятельное написание - вполне.
А по-моему отличное развлечение.
https://kvisaz.livejournal.com/1329064.html
"Однажды утром, на востоке от королевства Веллис, из деревни Серебрянка в город Фантазария прибыл молодой человек лет двадцати пяти. Его сопровождала белоснежная кошка с горящими глазами.
- Господин, - восторженно мурлыкала кошка, - может, научите меня искусству иллюзий?"
Вероятно, существует англоязычное издание, в котором есть перевод оригинала цитаты в таком томе на такой странице. А потом ещё и обратный машинный перевод на русский изменяет цитату до неузнаваемости.
Бот ничего не переводит "для себя". Русские и ангилйские связи слов живут у него в параллельных вселенных, отсюда все эти приколы с Молодями или Креси.
Откройте ПСС, том 42, с. 48, и попытайтесь найти там хоть что-то про электрификацию.
Откройте ПСС, том 42, оглавление, найдите что-то близкое по смыслу к названию статьи (там есть 2 статьи, которые при сильном желании можно натянуть на выданное ГПТ). Внимательно их прочитайте (они короткие). Попытайтесь найти фразу хоть немного похожую на приведенную цитату. Нет, ни одно предложение из этих двух статей не натягивается.
А вы не там ищете. Надо искать не в ПСС, а в том мусоре из скормленных Чату статей, из которых и взяты найденные вами фразы. Откуда Чату знать, что ПСС - это оригинал и основной источник? Для него все источники равны. Возьмите чистую систему, давайте ей для обработки только "правильные" материалы, тогда и на выходе получите только "правильные" ответы.
Не стоит судить о потенциале систем ГПТ4+ и аналогов на основе впечатлений от ЧатГПТ, получившем образование на интернет-помойке. Вы похожи на человека, пытающегося составить мнение о студентах университета, расспрашивая бомжа около мусорного бака университетской столовой.
Так вот, при обучении ему скармливали много чего, в том числе и ПСС Ленина.
А проблема не в том, что он оперирует неверными данными. Проблема в том, что он вообще не оперирует данными. ГПТ - это алгоритм, дописывающий к исходному тексту одно слово. Одно слово. При неоднократном повторении получается нечто похожее на связный текст.
ps. Забавный парадокс получается: люди, считающие, что ГПТ обладает интеллектом, таким-же как у них - на самом деле правы ;)
Нет конечно, в лучшем случае ему попались несколько цитат из интернета. Это как с битвой при Молодях, где-то ему попадалось такое словосочетанием, не больше того.
Я попытался найти хохму - известную "цитату" из Ленина про доверие людей к интернету. Хохма не получилась - ИИ оказался достаточно образованным и ответил, что Ленин умер до появления интернета
Люди просто не слышат, что вы им говорите.
Мои наблюдения подтверждают ваши слова. ЧатГПТ не имеет целью создать полезный, правильный, правдивый текст. Он имеет целью создать правдоподобно выглядящий текст, и не более того.
Он мне напоминает школьника-шалопая, который будучи вызван к доске, и не владея материалом, но слышав много звона, начинает напропалую выдумывать и трепать языком перед учителем, произнося много слов на заданную тему. С непритязательными учителями такое прокатывает, чтобы получить тройку. Типа, "видно, что что-то знает".
Использовать его как источник знаний, в данном виде - нельзя категорически.
Так надо понимать его ограничения, а не пытаться перепилить рельс бензопилой, спрашивая его чем-то, что он вряд ли может "знать", да еще по-русски.
Ну а как вы хотели? Видим плотника, давай его расспрашивать о лингвистике, видим лингвиста, давай расспрашивать о тонкостях загрузки твэлов в реактор. Цель-то у некоторых не в попытках разобраться в теме, а заболтать и зачморить.
У кошки нет ног!
Четыре-это лапы.
Страницы