Периодически на Aftershock разные авторы публикуют свой опыт общения с большими языковыми моделями (LLM), в простонародье именуемые ИИ.
В основном весь опыт общения у пользователей сводится к банальному взаимодействию «вопрос – ответ».
На самом деле LLM можно использовать не только как справочник, причем информация, которую этот справочник дает может быть весьма сомнительного качества по фактологии, т.к. LLM склонны выдумывать.
Многие пользователи просто не знают, как пользоваться теми возможностями, которые LLM предоставляют. Чтобы получать от LLM действительно нужные и полезные результаты – нужно освоить хотя бы азы PROMPT-инжиниринга. Ну и, конечно же, абсолютно точно представлять цель которую надо получить в итоге.
В этой статье я хотел бы показать, как использовать LLM в сфере программирования.
При помощи большим языковых моделей можно создавать (и уже создаются) гигантские программные решения. Для программистов LLM выступают в качестве личного ассистента по кодированию, у которого не «замыливается» глаз и вообще лишен человеческих недостатков, не пропустит ошибки среди тысяч строк кода, предложит более оптимальное решение.
Сегодня LLM встраиваются в рабочие пространства программистов уже как данность.
Но, LLM также дают возможность и обычным пользователям создавать для себя нечто большее, чем они могли себе позволить раньше, в т.ч. и небольшие программы, которые не требуют глубоких знаний кода, библиотек и т.д. Ну или целые проекты - если есть амбиции и стремление.
Как раньше поступал обычный пользователь, если ему требовался небольшой парсер для сбора нужных ему данных с какого-то сайта? Например, он шел на сайт, где обитают фрилансеры-программисты и нанимал одного из них.
Программист не будет работать бесплатно и дешево, поэтому несложный парсер мог обойтись пользователю от 1000 руб. и выше - в зависимости от сложности.
С появлением LLM ситуация полностью и радикально изменилась.
Фактически за копейки, тот же самый пользователь, может абсолютно самостоятельно написать парсер для себя, просто попросив об этом LLM. Нужно лишь правильно попросить, а для этого нужно просто написать PROMPT. Причем PROMPT можно тоже создать при помощи LLM, написав той свои хотелки.
LLM не только не только напишет код для пользователя, но и даст подробные инструкции – как запустить этот код.
Я решил написать статью с демонстрацией такой возможности. На примере создания парсера по сбору комментариев у любого аккаунта Aftershock.
Существует множество площадок для взаимодействия с LLM. В основном они зарубежные и онлайн, в виде веб-страниц.
Например, всем известная штатовская ChatGPT от OpenAi или французская Mistral или китайский DeepSeek. Есть еще Grok от компании Илона Маска, Phi от Microsoft, Gemini от Google и т.д. и т.п. Их много на самом деле.
Есть с закрытым кодом, есть с открытым кодом. С достаточным количеством ограничений, даже при наличии платного аккаунта.
Подавляющее большинство моделей представлено на https://huggingface.co там можно выбрать себе модели по "вкусу" и даже опробовать их в песочницах.
Есть решения для локального использования, такие как Ollama, но они очень зависят от мощности вашего ПК. Понятное дело, что для использования в домашних компьютерах применяются очень сильно "урезанные" в своих возможностях модели LLM. Но для каких-то локальных и несложных задач вполне себе подходят, особенно если их дообучить на нужных тебе данных.
Также есть различные боты. Они, в основном, очень неудобные для полноценного взаимодействия с LLM.
Я использую десктопное приложение MyAsGPT. Канал разработчика здесь. Удобно тем, что не нужны ключи API, не нужно следить за количеством использованных токенов, да и в итоге выходит значительно дешевле, чем пользование онлайн сервисами. При помощи приложения ты получаешь из России доступ к топовым LLM без всяких плясок с бубном. Приложение распознает все форматы текстовых файлов, картинки, может просматривать веб-сайты без проблем. Да, использование не бесплатное, разработчик продает лицензионные ключи на время (1 час, 24 часа, 1 неделя, 1 месяц), считается фактическое время использования программы. Я беру на 24 часа, оплата через Юкасса в Telegram боте. Мне этого хватает надолго, т.к. пользуюсь приложением не более 2-3 часов день. Одного 24-х часового ключа мне хватает на неделю использования.
Бывают, конечно, глюки API, какие-то сбои связи, глюки LLM – не без этого. Но этим грешат все. На площадке OpenAi в часы пик вообще невозможно работать, постоянно проблемы с серверами.
Конечно, каждый может выбрать то, что ему больше по душе и соответствует его задачам и с чем ему удобно работать.
Вернемся к созданию программы – парсера.
Первое, что я делаю это выбираю уже готовый PROMPT программиста на Python. Я хочу, чтобы LLM выдавала мне релевантные моему запросу ответы и писала корректный код.
Следующим шагом я выбираю модель LLM с которой хотел бы работать. По моим наблюдениям и по опыту работы наиболее адекватные результаты в кодировании выдает модель claude-3-5-sonnet-20241022 от компании Anthropic. Она обладает способностями к рассуждению, не стремится внести несанкционированные исправления в код, чем грешат модели от OpenAi и других известных производителей.
Даю ей первый запрос. Он заключается в том, чтобы первым делам парсер спрашивал ссылку на страницу пользователя и открывал страницу с его комментариями.
Получаю ответ от LLM:
Как видим - LLM дала не только какой-то базовый код, но и описание того, что делает код и краткие инструкции по его запуску.
Открываем любую IDE (рабочее пространство для работы с кодом), создаем там новый проект, в проекте создаем файл main.py.
Копируем созданный LLM код, вставляем его в созданный файл.
Запускаем, смотрим результат:
Код работает корректно и без ошибок. Начало положено.
Продолжаем работу по созданию парсера.
Создаем следующий запрос. Т.к. комментариев может быть очень много,то их наберется не одна страница. Нам нужно определить - сколько всего страниц с комментариями у аккаунта. Чтобы потом парсер прошелся по каждой из них и собрал все комментарии, начиная с самого первого.
Ну и конечно же, спустя секунд 30, получаю готовый код. Копирую, его вставляю. Обратите внимание, как код структурирован, есть комментарии, все расписано подробно и понятно.
И теперь обратите внимание, насколько важно правильно составлять запрос к LLM!
LLM дала тот код, который я от нее просил, в т.ч. она предположила, что в отправленных мной примерах HTML-кода есть и код непосредственно самих комментариев! Поэтому и составила немного неверный код.
Не теряемся! Просто задаем ей вопрос который нас волнует и даем корректирующие инструкции, стараясь очень точно описать результат, который я хочу получить и давай вводные данные, которых достаточно для получения нужного результата. Если не получилось с первого раза, то мы можем отредактировать уже отправленный запрос и отправить его заново.:
Не обошлось, конечно, без: глюков API, глюков LLM, ошибок связи. Не беда.
Либо переотправляем запрос заново при помощи кнопки редактирования сообщения, либо меняем модель LLM на другую и переотправляем запрос. Бывает, что количество контекста в чате уже настолько велико, что долговременная память уже не справляется с обработкой всего этого и тогда происходит обрыв соединения.
В этом случае разработчик рекомендует продолжить разработку уже в новом чате, дав необходимые вводные данные.
Вносим все изменения, которые нам прислала LLM, в код.
Запускаем, тестируем, получаем результат:
На создание парсера, вместе с перекурами и чаепитием, обдумываниями, глюками, и т.д. ушло всего лишь 2,5 часа.
Исходя из стоимости лицензионного ключа в 40руб/час (при покупке 24-х часового ключа), это 100 руб.
100 руб за парсер, за который на биржах фриланса взяли бы не меньше 1500 руб.
Это парсер можно расширять и дальше, включить сборку заголовков статей, ссылок на эти статьи, где находятся комментарии и т.д.
Что можно делать с собранными данными?
Ну, например, проводить анализ.
Так я могу собрать нужные мне данные почти с любого сайта: карточки товаров, отзывы, цены, скидки, результаты матчей по футболу и т.д. и т.п. данных существует огромное множество.
Например, можно собрать данные по конкурентам, проанализировать их карточки товаров, цены, скидки, выявить их маркетинговую стратегию, используемую систему лояльности, выявить их сильные и слабые стороны. И соответственно полученным данным уже применять собственную стратегию на рынке, которая будет использовать в т.ч. и слабые стороны моих конкурентов.
При помощи LLM можно решать совершенно разные задачи.
Люди уже вовсю:
- пишут книги и продают их, например детские сказки. Причем вся книга, включая иллюстрации, создается при помощи нейронных сетей. А книги продаются тысячными тиражами.
- ведут блоги различного формата
.....
Собственно, в этом месте предоставлю слово LLM, пусть она за меня перечислит:
- генерация текстов и контента. LLM создают тексты любой сложности — от блогов и маркетинговых материалов до кода. 2
- Виртуальные ассистенты. Помогают решать повседневные задачи, например, организацию дел. 2
- Интеллектуальный поиск. LLM расширяют возможности поиска, анализируя смысловые запросы вместо простого сопоставления ключевых слов. 2
- Многоязычный перевод. LLM обеспечивают качественный перевод, учитывая контекст и стилистические особенности текста. 2
- Резюмирование длинных текстов. LLM упрощают обработку информации, сокращая объёмные документы до кратких резюме, в которых отражены основные идеи. 2
- Чат-боты. Такие боты на основе LLM стали неотъемлемой частью взаимодействия с клиентами. Они могут имитировать человеческое общение, отвечая на запросы. 2
- Помощь в бизнесе. LLM упрощают создание рекламных кампаний: сочиняют тексты, заголовки или рекламные слоганы на основе анализа трендов и предпочтений аудитории. 1
- Помощь в финансовом секторе. LLM прогнозируют рыночные тренды, анализируют большие объёмы данных и делают инвестиционные рекомендации. 1
- Автоматизация юридических процессов. LLM помогают автоматизировать проверку договоров и создание документов, сократить время на рутинные задачи и снизить риск ошибок. 1
- HR и обучение сотрудников. Создаются персонализированные тренинги и учебные материалы с адаптацией под конкретные потребности и уровень знаний работников. 1
и это только текстовые модели.
А есть еще генеративные модели вроде Stable Diffusion или Flux (генерируют изображения и видео), модели распознавания изображения, модели работающие с базами данных и т.д.
Комментарии
Ща прибежит толпа ЛЛМ ненавистников и начнут объяснять про "вывсёврети", "этодругое", "нейросетка просто поисковик" "никакой реальной пользы" и т.д.
неизвестное всегда пугает )
эволюция технологий не стоит на месте. Тем более в современном мире. Тут надо стараться быть в курсе этих изменений, чтобы потом не говорить "Эх, если бы я тогда знал..."
Вы забыли "она просто угадывает следующее слово", "только электричество жжет" и самое волшебное "у нее нет души"
жжет то электричество, которое ПРИНАДЛЕЖИТ человеку. То есть на данный момент человек едет в сибирь, добывает нефть и газ, морозит жопу и гробит здоровье. Затем человек же вырабатывает из нефти и газа ЭЭ - тоже малополезный процесс для здоровья если что. А ИИ нифуя не едет ни в сибирь, ни на угольно-мазутную станцию - ИИ жрет энергию, которая в итоге ДОРОЖАЕТ ДЛЯ ЧЕЛОВЕКА....
ну так расскажите какая РЕАЛЬНАЯ польза от "парсера на АШ"?
или какая РЕАЛЬНАЯ польза от написания очередной детской сказки, когда их уже столько написано, что читать-не перечитать?
Я уже который год прошу - сделайте мне нейроинтерфейс, что бы чертежи сложных электротехнических устройств из моей головы транслировать сразу в цифровую форму. Нет до сих пор, только блеяние какое-то в ответ.
Мне не нужно чтобы ИИ ЗА МЕНЯ думал и создавал - я это сам могу. Мне надо что ИИ был моим СЛУГОЙ, а не создателем искаженного информационного поля для моих детей....
УБИРАТЬ ГОВНО ЗА ЧЕЛОВЕКОМ ИИ НЕ ХОЧЕТ - ИИ ХОЧЕТ В БЕЛЫХ ПЕРЧАТКАХ ПОЖИРАТЬ ЧЕЛОВЕЧЕСКИЕ РЕСУРСЫ.
Не всё, что делается и изобретается человеком, должно убирать за ним говно. Аккуратнее срать не пробовали?
Про нейроинтерфейс - у вас в голове чертова туча компенсаторных механизмов, которые мешанину из электротоков превращают в что-то немного упорядоченное, что вы хоть как-то можете описать. Снимать через нейроинтерфейс данные умеют уже 30+ лет с точностью 99.99%. Интерпретировать эту мешанину, которую ваш мозг индивидуально под вас учился структурировать с момента рождения чтобы на выходе получать не "агу агу" а упорядоченные данные - нужно очень много денег, так как подход строго индивидуальный.
Про реальную пользу - ну времени на кодинг тратится гораздо меньше, даже учитывая время, затраченное на исправление ошибок. Заметили как те, кто кричали "да мне дольше ошибки нейросетки исправлять чем с нуля написать" языки в жопку позасовывали?" А потому что сами начали пользоваться.
И это, ТБМ, направление, которое начало массово и активно финансироваться и развиваться всего 5 лет назад.
Camarada "seis asas":
Estou aguardando a chegada do camarada que irá dizer que o chinês é melhor...
Tradução Google:
Товарищ «шесть крыльев»:
Жду, когда придет товарищ и скажет, что китайский язык лучше...
Обычно, когда очередной знаток аудитории АШ, вангует про набигут и начнут, реально набигает один чел, редко - два, а то и ни одного.
Зато первонах )))
Недавно начал дипсик юзать. По многим моментам на много больше понравился чем гопота, да функционала меньше, но конкретно при работе "Без" медиа чисто языковая модель, прекрасно себя показал. Да и в виде приложения на мобилу отпад. На гопоту один хрен днс надо ставить, ставлю на брейв. С другой стороны один хрен когда есть выбор, гопота, дипсик, локалка.. уже хорошо
Мне DeepSeek не очень зашел. Он часто глючит, по крайней мере у меня. Часто уходит "в сторону" от поставленной задачи. И вернуть его обратно в стезю уже тяжко.
Пока такого не замечал, бум тестить. В любом случае конкуренция будет нормальная. Я так понял дипсик щас начали раскручиваться сильно. Возможно функционалом в перспективе обрастёт. Но, а так меня пока устраивает. Особенно меньше цензуры в плане всяких "Правообладателей" итп.. где гопота вообще говорит нет, этот "ну в образовательных целях"..
Ну да, что есть, то есть )
здорово.
Но парсинг это стандартная задача, решенная миллионы раз, поэтому и ИИ с ней хорошо стравляется. Слышал, что если в задаче есть хоть немного нерядового, то все идет по бороде у LLM.
Спасибо.
Вполне возможно. Но ни разу не встречался с ситуацией, когда LLM не решала поставленную задачу.
На заре их появления - да. Без слез с ними было работать невозможно. Сейчас легче.
А может просто уже опыт общения с ними набирается.
Я тут вообще задачи не вижу, ну вот вообще. Последний раз пробовал неделю назад, вообще раз в полгода проверяю + есть спецы в контактах которые этим постоянно занимаются.
Ну так вот,
входные данные
есть группа машин (около 15) фаервол на них +- стандартизирован и описан так называемым ansible
в связи с изменениями правил политики безопастности возникло требоование изменить правила фаервола.
Старый код покрывающий старые требования не совсем подходит, поменять можно, но уж больно код становится сложным для восприятия. Собственно вполне нормальное решение с учетом существующего решения сформировать новую роль для управления фаерволом.
Ну ок, поехали.
после 6 часов экспериментов, надоело, написал руками за час с копейками.
Проблемы:
1) галюцинации
2) не держит контекст от слова совсем, банально
есть список который присутствует в нескольких местах, его можно проименовать и дальше использовать уже по имени
ну так на 200 строк кода он именнованный списко втыкает в 2 из 5 мест.
3) вообще не понимает контекст процесса который описывает
фаервол это определенный набор цепочек и маршрутов по которым проходит трафик, эти правила описанны, но он это в принципе не понимает, для него это код ради кода.
ну и тд.
В итого; для элементарных задач применять можно, если позволяет квалификация проверить результат работы
во всех остальных случаях это просто трата времени.
Есть еще такая вещь как вырождение, чем больше будет тестов сгенерированных ИИ (Искуственным Идиотом) тем тупее оно будет становится.
Достаточно задействовать какую-нибудь проприетарную библиотеку/фреймворк, про которую мало знают на стековерфлоу. Например крипто про.
Это делают открытые ллм.
Думаю существуют и используются и закрытые. Об их возможностях можно только догадываться .
LLM, скорее всего, одни и те же. Просто, есть с настройками для массового пользователя, а есть для узкоспецифического. Любой, при желании, может создать такую модель )
Недавно начал использовать китайскую бесплатную LLM DeepSeek и очень ей доволен. Отвечает по делу, лаконично и в то же время полно.
Тут, как говориться, на вкус и цвет ) мне Claude больше нравится, для меня он в топе. с точки зрения решений моих задач.
Там большой плюс, что она полностью бесплатная без всяких дополнительных действий, и есть приложение под Андроид.
Споров нет. Я же говорю -все зависит от тех задач, которые Вы для себя ставите.
Но Вы в него не загрузите скопом 30+ модулей проекта, каждый из которых содержит, в среднем 300-400 строк кода )
В каком то модуле 100 строк, в каком то модуле 1500 строк.
А в приложении это возможно ) вы может загрузить весь проект целиком и LLM этот проект обработает, проанализирует целиком, как есть. В этом его ценность. А также его ценность в безлимитном использовании токенов. Как входящих, так и исходящих.
Ни один онлайн-сервис этим похвастаться не может.
меня на клауд со сменой днс даже не пускает, как и гемини - на следующий день послал, спалил что я что то мучу.. Видимо только если вэпээн юзать.
Текущий список моделей в приложении:
claude-3-5-sonnet-20240620
claude-3-5-sonnet-20241022
claude-3-5-sonnet-20241022-t
claude-3-haiku-20240307
claude-3-opus-20240229
claude-3-sonnet-20240229
gpt-4-turbo-2024-04-09
gpt-4o-2024-08-06
gpt-4o-mini
grok-2
grok-2-mini
o1-mini
o1-preview
без всяких путей обхода )
Есть несколько наших сервисов, работающих шлюзами к ним. Стоят подороже, но не нужен ВПН, и оплата в рублях с наших карт. Как бонус - нет встроенного системного промпта, как в некоторых моделях.
Вторая картинка с генерацией задания "Пример селектора ссылки.." далее код. Код откуда взят?
у любого браузера есть режим просмотра кода страницы. У Яндекс браузера по правой кнопке мыши щелкаете по элементу сайта, код которого хотите посмотреть, в открывшемся меню нажимаете "исследовать элемент"
Вам откроется HTML-код сайта. Жмете по нужному элементу правой кнопкой мыши, наводите курсор на "копировать" и в открывшемся меню выбираете то, что Вам нужно
у Chrome так же
Давно хотелось бы увидеть LLM-аналитику по АШ. Например, как менялись настроения по тому или иному вопросу в зависимости от времени.
Спасибо, что начали играться с этой темой.
На самом деле все эти вопросы "Щепетильные" в плане что мол тебе модель что то подсунет.. хрен знает, сколько юзал, ни разу левака не совала, что хотел всегда получал. Все эти модели шикарны для упрощение огромного спектра дел, тут даже уже на что у тебя воображения хватит. А если речь идёт про "Историю" - вся история враньё... если книги переписывались не раз, а модели обучались по этим данным.... моделью можно крутить вертеть довольно не слабо, да наверно гемини гугловский может закладки подсовывать на политику итп... Но когда модель работает по Грубо говоря "Актуальным данным взятым сию минуту из инета".. тут уже не подсунешь особо.
Это инструмент. Которым, как молотком, можно гвоздь забить, а можно по пальцу попасть.
Зато тут отлично работает цензура, на которую натаскана модель. И тут уже от модели зависит, одни так и будут отказываться отвечать, другие, вроде клода, отлично расцензуриваются правильным системным промптом, после чего он может и нахамить, и матом послать, и даже повесточку осудить.
Спасибо за комментарий. )
Я думаю писать больше о таких проектах, типа AGI агентах (современные решения агентов искусственного интеллекта).
Просто потому что самому интересно.
Увидел - протестил - попробовал.
Если что-то стоящее, то здесь рассказал.
последний тренд -это уже не LLM в чистом виде, а AGI-агенты, в которых они трансформируются.
LLM в чистом достигли своего пика развития.
Агенты уже обладают памятью, благодаря RAG-решениям, вовсю используют веб-поиск. Уже есть целые команды агентов, которые решают определенные задачи на полном автомате. Пользователю остается только поставить задачу естественным языком. Например "Я собираюсь в отпуск в Сочи в августе. Составь план поездки в отпуск в Сочи с бюджетом не более 100 00 рублей, купи билеты на самолет и забронируй номер в гостинице"
Агент все это сделает, рассчитает вплоть до стоимости билетов на автобус, составит план отдыха, туристические маршруты, расписание приема пищи и т.д. )
Я уже запускал агентов у себя на компьютере, локально. Работали. Но я запускал еще на заре появления )
Надо пробовать новые версии )
Сейчас полируют технологии обучения LLM.
Условно говоря, все относительно качественные данные, которые были более-менее доступны - уже задействованы в обучении. Но задействованы пока с настолько низким КПД, что очевидно, тут есть куда прогрессировать. Тут точно ожидается следующий этап, но пока просто пытаются отмонитизировать этап предыдущий.
Нет сейчас работают над технологией рассуждений. Чтобы llm приходила к решению в результате рассуждений, а не простым прогнозированием.
Это дало свои результаты в математических способностях llm. Точность подпрыгнула на 10% примерно, что солидно.
Но в плане генерации текста - воз и ныне там.
Это всё в параллель. Настраивают уже имеющиеся модели. И думают над новыми.
Я отвечал на утверждение про "чистые LLM достигли пика". На этом этапе - да. Но следующий этап уже просматривается.
По сути, напрашивается LLM, которая через рефлексию и механизмы "забывания" будет сама себя тренировать. В полуфантастическом идеале - играясь в том числе и с собственной архитектурой. Те применения, которые сейчас - это такой детский садик с разрозненными кубиками.
Вообще-то, технология рассуждений - это и есть основа интеллекта! ) Создавать новые абстракции, новые типы данных и алгоритмы над ними, делать ОТКРЫТИЯ! Вы же, наверное, понимаете, что ваш "парсер" - это никакое не открытие? Языковая модель его уже "видела в интернете", просто в более удобном виде вам его скомпоновала. По сути это плагиат. )
Вот когда ИИ только по видимым координатам планет и не заглядывая в интернет "поймет" что в 3-мерном мире планеты вращаются вокруг солнца по эллиптическим орбитам, а потом "создаст", опять не подглядывая в интернет, - дифференциальное и интегральное исчисление, чтобы решить уравнение Ньютона, а потом заметив несоответствие в движении Меркурия перейдет в искривленное пространство и "откроет" уравнение Эйнштейна. Вот тогда да - это будет интеллект! Интеллект того уровня, который и нужен человечеству, чтобы двигаться дальше. А интеллект искусственных плагиаторов и плохих программистов человечеству не нужен, его и в естественном виде вокруг полно! )
Я бы хотел бы что то такое себе, с полной настроенной автоматизацией.. От банальщины до узкоспеца. Надеюсь доживу, вполне всё это реализуемо.
Когда-нибудь человечество придет к этому. И это "когда-нибудь" не видится таким уж далеким )
Перспективный чат детектед! Сим повелеваю - внести запись в реестр самых обсуждаемых за последние 4 часа.
Сайты разные,структура хранения данных на каждом сайте разная. Хотелось бы подробнее об алгоритме извлечения записей с сайта.
На тему создания парсеров и извлечения данных с сайтов в интернете множество информации (статей, видео, открытых обучающих уроков).
Вы совершенно точно найдете ответы на свои вопросы.
А если поставить задачу написать программу для самообучающейся игры например в шашки ? Справится ?
Да. Справится. Все зависит только от того - как Вы будете ставить ей задачу.
В общении с LLM четко работает одна аксиома: правильно составленный запрос ведет к нужным ответам.
Я обычный пользователь. Прочёл эту шпору. Понял, что ничего не понял. То есть, нужно быть программистом, чтобы с этим работать. А вот ОБЫЧНЫЙ пользователь... ну, три раза "ха" и два раза "хи".
Вы обо всем можете спросить у LLM )
Она Вам обо всем расскажет, даст подробнейшую инструкцию. От Вас лишь требуется - правильно спросить. Не более. И следовать инструкции, которую даст. Если что-то не получается или ошибка, то спросить - что не так и дать решение для исправления
Представьте, что Вы работаете с учителем, который в любое время готов ответить на все Ваши вопросы.
Для того чтобы задать вопрос, надо знать большую часть ответа.
Для того, чтобы понять объяснения - надо уметь делать такие программы самому.
Для того, чтобы исправить в нагенерированном коде ошибку, надо уметь программировать "лучше" ИИ.
---------------------
Я неоднократно натыкался на случаи, когда кто-то из сотрудников подходит ко мне с вопросом - в котором я не особо разбираюсь.
Я делаю поиск в гугле, несколько раз формируя запрос - и нахожу релевантную информацию.
При этом люди, которые подходили с вопросом - вполне разумные, такие же программисты. И сами ответ искали.
Просто опыта куда меньше, поэтому не получается сформулировать запрос так, чтобы получить релевантный ответ - и быстро отделить разумный ответ от неразумного.
Конечно, никто не говорит о llm как о волшебной палочке, которая решит все твои проблемы.
В любом деле нужен опыт и усердие, чтобы этот опыт наработать.
LLM просто сильно снижает порог вхождения в какую-либо сферу, взять тоже самое программирование.
Теперь рядовому джуниору не нужно изучать десятки страниц стаковерфлау, достаточно спросить. Либо скормить в виде урл-адресов документацию и получить ответ )
И навсегда остаться тупым джуном, не понимающим, что он делает.
Это уже от человека зависит )
Страницы